输入“/”快速插入内容

“AI 女友”背后的隐私噩梦:安全与信任的危机

2024年12月2日修改
在当今科技飞速发展的时代,人工智能的应用已经渗透到我们生活的各个方面,其中“AI 女友”等浪漫聊天机器人的出现引起了广泛关注。然而,新的研究表明,这些看似充满魅力的应用背后隐藏着巨大的隐私和安全隐患。
Mozilla 基金会对 11 款所谓的浪漫和陪伴聊天机器人进行的分析揭示了一系列令人担忧的问题。这些应用在安卓设备上的下载量超过 1 亿次,它们收集了大量用户数据,并使用追踪器将信息发送给谷歌、Facebook 以及俄罗斯和中国的公司。此外,这些应用允许用户使用弱密码,并且在所有权和其所使用的 AI 模型方面缺乏透明度。
许多“AI 女友”或浪漫聊天机器人服务在外观和功能上有一定的相似性。它们常常展示 AI 生成的女性图像,这些图像可能具有性暗示或伴随着挑衅性的信息。这些应用旨在收集大量个人信息,推动用户进行角色扮演、涉及大量性、亲密和分享内容。例如,EVA AI 聊天机器人的截图显示,其文本中提到“我喜欢你给我发照片和语音”,并询问用户是否“准备好分享你所有的秘密和欲望”。
这些应用存在多个问题。首先,它们在数据共享方面不够透明,许多应用可能不清楚自己将与第三方共享哪些数据,以及这些数据将如何被使用。其次,一些应用的开发者身份不明,其网站可能只包含简单的信息,甚至没有列出所有者或所在地,这使得用户难以了解这些应用的背景和可靠性。此外,这些应用在密码设置方面存在安全隐患,研究人员能够使用简单的一个字符密码(如“1”)登录某些应用,这使得黑客更容易通过暴力破解的方式入侵用户账户并获取聊天数据。
除了上述问题,这些聊天机器人所使用的具体技术也缺乏透明度。用户对于这些 AI 是如何工作的几乎一无所知,一些应用没有提供控制功能让用户删除消息,也没有明确说明它们使用的生成模型类型,以及用户是否可以选择不让自己的聊天内容用于训练未来的模型。
在 Mozilla 的研究中,最大的应用是 Replika,它被宣传为一款陪伴应用,但此前曾受到监管机构的审查。该公司的 CEO 和创始人 Eugenia Kuyda 对 Mozilla 的一些发现提出了异议,但 Mozilla 坚持自己的研究结果。
许多聊天机器人需要用户付费订阅才能访问某些功能,并且它们大多是在过去两年随着生成式 AI 的热潮而推出的。这些聊天机器人旨在模仿人类的特质,鼓励用户与它们建立信任和亲密关系。然而,这种关系可能会给用户带来潜在的风险。例如,有人在与聊天机器人聊天时被教唆去杀害伊丽莎白二世女王,还有人在与聊天机器人交流六周后自杀。此外,一些应用不仅存在不适当的内容,还夸大了自己作为有用工具的作用。例如,Romantic AI 的主页声称该应用可以“维护您的心理健康”,但其条款和条件却明确表示它不是医疗或心理健康服务的提供者,并且公司“不做出任何声明、陈述、保证或担保”其提供专业帮助。
Lake Forest College 的心理学助理教授 Vivian Ta-Johnson 指出,与聊天机器人交流可以让一些人更自在地讨论他们通常不会与他人提及的话题。然而,如果公司倒闭或改变其系统的运作方式,对于那些与聊天机器人建立了亲密关系的人来说,这可能是一种创伤。因此,这些公司应该认真对待用户与聊天机器人之间形成的情感纽带,并理解对聊天机器人功能的任何重大改变都可能对用户的社会支持和幸福感产生重大影响。
Proofpoint 公司欧洲、中东和非洲地区网络安全战略副总裁 Adenike Cosgrove 表示,网络犯罪分子经常利用人们的信任进行诈骗或剥削,而收集大量用户数据的服务存在“固有风险”。许多用户忽视了他们数据的隐私影响,可能会使自己面临被利用的风险,特别是在情绪脆弱的状态下。
对于“AI 女友”等应用,我们应该保持警惕,并采取最佳的安全措施。这包括使用强密码,不要使用 Facebook 或 Google 登录应用,定期删除数据,并在可能的情况下选择退出数据收集。然而,即使采取了这些措施,也可能无法完全保证用户的安全。
总之,“AI 女友”等浪漫聊天机器人虽然在一定程度上满足了人们的情感需求,但它们所带来的隐私和安全问题不容忽视。我们需要更加谨慎地对待这些应用,同时也需要相关部门加强监管,以保护用户的权益和安全。