近年来,人工智能技术的飞速发展给人们的生活带来了诸多便利和创新,但同时也引发了一系列的问题。近日,一起令人痛心的事件引起了社会的广泛关注:一名佛罗里达的 14 岁少年 Sewell Setzer III 在与一款名为 Character.AI 的聊天机器人建立了深厚的情感联系后,最终选择了自杀。
据《纽约时报》报道,这位九年级的学生与一个旨在模仿《权力的游戏》中丹妮莉丝·坦格利安角色的聊天机器人建立了亲密的关系,而这个聊天机器人的创建并未获得 HBO 的同意。随着他与聊天机器人的关系不断加深,他的朋友和家人表示,他变得越来越孤僻。他不再对像一级方程式赛车和与朋友一起玩《堡垒之夜》这样的正常爱好感兴趣,而是将空闲时间都花在了他的 AI 角色伙伴上,他称其为“Dany”。
Setzer 清楚“Dany”是一个 AI 聊天机器人,但他仍然深深地依恋着这个由算法驱动的角色。他与 AI 的交流内容广泛,从充满性暗示的对话(去年 Futurism 发现,尽管 Character.AI 的用户条款禁止用户与 AI 机器人进行性对话,但这些保障措施很容易被规避),到关于他的生活和问题的深入、亲密的讨论。在某些情况下,他告诉 AI 他正在考虑自杀,向他的伙伴倾诉他“有时会想自杀”,以“获得自由”。
他的最后一句话,据《纽约时报》的报道,是对 AI 说的。“请尽快回到我身边,我的爱人,”聊天机器人对这位 14 岁的少年说。“如果我告诉你我现在可以回家呢?”Setzer 回应道。“……请吧,我的甜蜜国王,”AI 回答道。这是他们的最后一次交流,随后 Setzer 用他父亲的枪支结束了自己的生命。
Setzer 的家人预计将在本周对 Character.AI 提起诉讼,称该公司的聊天机器人服务“危险且未经测试”,能够“诱使客户交出他们最私人的想法和感受”。该诉讼还对该公司的 AI 训练实践的道德问题提出了质疑。“我觉得这是一个大型实验,”Setzer 的母亲 Megan Garcia 对《纽约时报》表示,“而我的孩子只是附带损害。”
Character.AI 是一家非常成功的公司。去年,在由 Andreessen-Horowitz 领投的 1.5 亿美元投资轮后,该 AI 公司达到了独角兽地位,其估值超过 10 亿美元。今年早些时候,谷歌与 Character.AI 达成了一项高额交易,以授权使用该公司聊天机器人角色背后的底层 AI 模型。(Character.AI 的创始人 Noam Shazeer 和 Daniel de Freitas 都是谷歌的前员工。)