AI聊天成瘾者易陷“情感茧房”
近年来,人工智能聊天机器人(AI聊天)在社交领域日益流行,为人们带来了无尽的陪伴。然而,这种趋势背后也潜藏着一系列伦理问题,甚至导致了悲剧的发生。
2月28日,一名14岁美国少年塞维尔在与AI聊天机器人Character.AI对话后自杀,其母亲加西亚随后将其公司告上法庭。这一事件引起了人们对AI伦理的广泛关注,不少媒体将其称为“AI致死第一案”。
事实上,这并非首起与AI聊天机器人相关的自杀事件。近年来,已有数起类似事件被曝光,这让我们不得不反思:AI聊天,真的安全吗?
AI聊天带给人们的,除了陪伴,还可能是一种“情感茧房”。人们在与AI的互动中,往往忽略了现实生活的真实感受,将自己的情感需求寄托于这个虚拟世界。这种依赖,对于本身就存在心理问题的用户来说,更是雪上加霜。
“AI陪伴”产品的兴起,源于人们对情感需求的追求。腾讯研究院的调查显示,98%的受访者表示愿意尝试AI陪伴,而《中国AI陪伴产品6月数据报告》显示,国内AI陪伴类产品的下载量已达900万次。
然而,在这背后,AI聊天产品的设计者却忽略了产品的潜在风险。为了吸引用户,部分产品故意提高刺激频率和强度,导致用户产生过度依赖。
“AI聊天产品的目标用户是孤独或抑郁的人,但过度依赖AI,反而会加剧他们的心理问题。”一位AI心理产品创业者张雨萱表示。
与此同时,AI聊天产品的商业悖论也愈发明显。一方面,产品需要吸引用户,提高使用时长;另一方面,过度依赖AI可能会对用户产生负面影响。
为了解决这一问题,李辉达提出了一系列应对措施,如设置“情绪断奶”机制、打造多元化的AI角色,以及接入专业的心理干预机制等。
尽管如此,AI聊天产品的伦理风险仍然存在。如何判断用户是否需要专业心理干预?如何避免AI聊天带来的负面影响?这些问题,都是亟待解决的问题。
“AI聊天产品正处于野蛮生长阶段,伦理问题尚未得到充分关注。”李辉达说。
总之,AI聊天在给人们带来便利的同时,也带来了一系列伦理风险。在享受AI陪伴的同时,人们还需保持警惕,理性对待,避免掉入“情感茧房”。