4成以上职场人已习惯与AI交流情感!记者实测AI“哄人”的确有一套
-
发布人:泛亚人力
发布时间: 2025-12-25
阅读量:303
当职场人不开心或者郁闷时,你会找谁来倾诉?让人惊讶的是,AI正在成为许多人的“情感搭子”。近日,智联招聘发布的“2025雇佣关系趋势报告——人机共生时代的职场进化”显示,有4成以上职场人表示会向AI工具倾诉工作烦恼、吐槽工作内容。本报记者实测发现,AI工具“哄人”的确颇有水平非常贴心。但是专家对此发出提醒,“算法提供共情”治标不治本,AI不能当做“唯一的肩膀”。
职场人寻找AI充当“情绪出口”
人工智能技术打破了传统职场的工作边界,重塑了任务分配与协作模式。如今,“全民学AI”和“全民用AI”已经成为了职场普遍现象。调查报告显示,高达78.2%的职场人每周都会借助AI开展工作,每天高频使用3次以上或1-3次的职场人分别占比18.3%和13.2%。
需要注意的是,调研显示,在工作内容之外,4成以上职场人表示会向AI工具倾诉工作烦恼、吐槽工作内容,AI被赋予了某种程度的“拟人化”情感寄托,职场人可以毫无负担地宣泄压力,甚至能获得AI的共情与安慰。这种现象在市场、公关、广告岗位职场人中尤为明显,58.3%会与AI进行情感互动。
智联招聘集团执行副总裁李强在接受记者采访时表示,从现在的趋势看,职场人向AI倾诉心事的比例,大概率还会继续往上走,而且可能会变成一种普遍习惯。
一方面,从现有数据来看,这一行为已具规模,而AI的普及正在扩大这种行为的用户基础。李强指出,中国互联网络信息中心报告显示,截至2025年6月,中国生成式AI用户已达5.15亿,普及率达36.5%。既然工作生活离不开AI,找AI倾诉和吐槽就成了自然的事。
另一方面,更重要的是,如今的AI愈来愈懂“人话”,能听懂你的情绪,会安慰你、会接话,甚至能推测你可能遇到的问题,比以前的“死板工具”更像一个可以临时依靠的对象。
哄你开心堪比“高手”
“今天和你的AI搭子聊了吗”——这句问候,在各种社交软件上,已经成为了年轻人的新型问候。而在此背后,是越来越多的人选择与AI聊天,以缓解孤独情感和释放工作压力。
AI的陪伴,真得能让你找到“情绪出口”吗?对此,本报记者挑选了市面上主流的一些AI大模型软件进行了实测,结果发现AI扮演“知心好友”的确有一套,堪比心理安慰的“高手”。
首先,记者以“我最近工作压力很大,心情很差”来向AI提问,Deepseek给出的回答是“你的感受我完全理解。当工作压力大到影响心情时,说明你正在承受着不小的负担”,然后它给出了“暂停一下,呼吸”、“尝试梳理压力来源”、“给情绪一个出口”、“在工作间隙插入‘微休息;”、“审视工作与生活的平衡”等多条建议。
豆包给出的回答虽然没有这么详细,但却更为拟人化,它表示“工作压力大的时候真的会觉得心里沉甸甸的,连带着做什么都提不起劲,太能理解这种感觉了”。然后,它提出了建议,“其实不用逼着自己 ‘必须开心起来’,偶尔允许自己丧一会儿也没关系。可以试试抽 10 分钟放空 —— 比如盯着窗外的树发发呆,或者泡杯热饮慢慢喝,不用想工作的事;也可以做点不用费脑子的小事,比如整理桌面、叠叠衣服,这种一点点完成的小事会带来一点点踏实的成就感。”
通义千问的回答也很贴心,它先是表示“听到你最近压力很大、心情不好,真的很不容易。工作上的重担常常会让人喘不过气来,甚至影响到生活的其他方面。首先,我想让你知道:你的感受是完全正常的,很多人都会在某个阶段经历类似的情绪”。
此后,它还表示,“如果你愿意,可以和我多说说:是什么让你觉得特别有压力,这种状态持续多久了?”同时,也给出了很多缓解的方式。
值得关注的是,这些AI工具无一例外地都表达出“倾听者”的扮演特色,而且可谓不厌其烦,这对于处于情绪低潮期的“打工人”来说,无疑是一位很好的情感吐诉对象。
与AI谈心并不是因为“更像人”
职场人愿意与AI聊心事,是不是因为AI“更像人”呢?记者调查发现,不少职场人其实更看重的是一种“私密性”。
“有很多心里的真实感受,你没法和别人去说。”在沪上一家金融机构工作的陈小姐如此说道,AI是一个几乎“零风险”的倾诉对象。你跟同事吐槽,可能被误会;跟领导说,怕影响形象;发朋友圈,又怕被误读。而AI不会评判你,不会泄密,也不会影响你的职业发展。这种安全感,在高压职场里非常稀缺。
李强也指出,现在很多职场人“有情绪没人听”,但AI24小时在线,随叫随到,更符合现在的工作和生活节奏。AI不只听你倾诉,还能给你建议。比起纯陪伴,它还会帮你分析问题、总结原因,甚至模拟对话场景。对职场人来说,这就是“情绪支持+工作辅助”的双重价值。
“在真实职场中,能安全表达情绪的地方愈来愈少。”李强表示,更深层的原因在于,很多企业的支持体系并不完善。沟通渠道有限、心理关怀不够,使得员工更容易将情感寄托到AI身上。
不能完全依赖算法带来“表演”
实测多个AI大模型工具后,记者发现,当前主流AI,确实愈来愈像“人”。它不再是只有功能的冷冰冰工具,而是会说话、会安慰、会开玩笑的“数字伙伴”。不仅如此,多家科技公司也已经明确表示,今后将更为主动把“拟人化”能力放进产品,使体验更顺滑。这意味着,AI扮演“情感搭子”将会越来越出色。
但是,专家对于“算法共情”却有不同的见解。一个较为形象的比喻是:AI的安慰,就像一片数字版的创可贴——能止血,但不治伤口。
李强指出,尽管AI能说出富有同情心的话,但其并无真实情感或同理心。它只是从大量资料里学会了“怎样像一个关心你的人说话”。尽管我们听起来觉得温暖,但那是算法训练出来的“表演”。AI的“共情”是模拟出来的,它没有真实感受,只是学会了“怎样看起来像在安慰你”。如果将它当成真正理解你的人,长期反而会使自己更孤独、判断更不稳。
“有些人愈来愈习惯什么都和AI说,甚至一天聊几十上百次。”李强表示,这不仅不会令人更快乐,反而可能令人更孤独,因为现实中的互动变少了。
不仅如此,还有是判断偏差与“算法幻觉”。AI的安慰听起来很温柔,但它并不真正理解你。它给的建议有时并不准确,甚至会出现“看似合理其实不靠谱”的内容。如果在情绪低落的时候被误导,后果并不轻。
此外,还有隐私风险与安全隐患。因为职场人向AI倾诉的都是最真实的心事,例如工作矛盾、心理压力、人际关系等。万一这些信息被滥用或泄露,对个人和公司都极其危险。
“如果太依赖AI解决所有问题,人可能会逐渐失去独立判断能力,甚至影响自尊心。”李强认为,AI有用,但不能当“唯一的肩膀”。企业要提供真正的支持,用户要保持清醒,技术要做好安全与边界。AI可以是临时的“情绪缓冲器”,但不是情感主体,更不是人生导师。
内容来源于劳动观察新闻,本网站仅供分享使用。


.jpg)