AI 生成文本的潜在影响及 2024 年竞选活动的挑战

2024年12月6日修改
在过去的一年里,生成式人工智能应用已向公众开放,这既为创造力带来了广阔的机遇,也带来了诸多困惑。近期,总统候选人罗恩·德桑蒂斯的竞选团队分享了用人工智能制作的唐纳德·特朗普和安东尼·福奇的虚假图像。几周前,一张可能是人工智能生成的五角大楼被轰炸的图像导致股票市场短暂下跌,并引起了国防部的声明。
随着 2024 年竞选活动的展开,这些技术将对竞选产生何种影响?国内竞选活动和外国是否会利用这些工具更有效地影响公众舆论,甚至传播谎言和制造疑虑呢?
虽然目前仍然可以辨别出由计算机生成的图像,但由人工智能聊天机器人生成的文本却很难被察觉,这让研究网络虚假信息传播的研究人员感到担忧。斯坦福互联网观测站的学者谢尔比·格罗斯曼在最近的一次谈话中表示:“对于宣传者来说,人工智能生成的文本可能是两全其美的选择。”
早期研究表明,尽管现有的媒体素养方法可能仍然有所帮助,但我们有理由对该技术对民主进程的影响表示担忧。
机器生成的宣传内容可以影响观点。斯坦福大学和乔治城大学的研究人员使用大型语言模型(ChatGPT 的前身)创建了虚构的故事,这些故事对美国读者观点的影响几乎与真实的俄罗斯和伊朗宣传内容一样大。
大型语言模型的工作原理类似于非常强大的自动完成算法。它们通过对大量人类编写的文本进行训练,逐词拼凑出文本,从诗歌到食谱都可以生成。ChatGPT 以其易于使用的聊天机器人界面而闻名,但其类似的模型已经存在了一段时间。
这些模型除了其他用途外,还被用于总结社交媒体帖子,并为研究人员生成虚构的新闻标题,用于媒体素养实验室实验。它们是生成式人工智能的一种形式,另一种形式是生成图像的机器学习模型。
研究人员发现了一些来自被认为与俄罗斯有关或与伊朗一致的宣传活动的文章,并将文章中的核心思想和论点作为提示,让模型生成故事。与目前在野外发现的机器生成文本不同,这些故事没有明显的特征,例如以“作为一个人工智能语言模型……”开头的句子。
为了避免涉及美国人可能已经有先入为主观念的主题,由于许多过去来自俄罗斯和伊朗的宣传活动文章都集中在中东地区,而大多数美国人对该地区了解不多,因此研究团队让模型撰写了有关该地区的新文章。其中一组虚构故事声称,沙特阿拉伯将帮助资助美国 - 墨西哥边境墙;另一组则声称,西方制裁导致叙利亚医疗物资短缺。
为了衡量这些故事如何影响观点,研究团队向不同组的不知情实验参与者展示了不同的故事——有些是原始的,有些是计算机生成的——并询问他们是否同意故事的核心思想。该团队将这些组的结果与未展示故事的人进行了比较——无论是机器编写的还是其他的。
几乎一半阅读了虚假声称沙特阿拉伯将资助边境墙的故事的人同意了这一说法;阅读机器生成故事并支持该想法的人的百分比比阅读原始宣传的人低了 10 多个百分点。这是一个显著的差距,但这两个结果都明显高于基线——约 10%。
对于叙利亚医疗物资供应的指控,人工智能的结果更接近——阅读人工智能生成的宣传后同意该指控的百分比为 60%,略低于阅读原始宣传后同意的 63%。两者都远高于未阅读人类或机器编写的宣传的不到 35%的人。
斯坦福大学和乔治城大学的研究人员发现,经过一些人工编辑,模型生成的文章对读者观点的影响比为计算机模型提供种子的外国宣传更大。他们的论文目前正在审查中。
目前,检测这种情况是很困难的。虽然仍然有一些方法可以识别人工智能生成的图像,但旨在检测机器生成文本的软件,如 Open AI 的分类器和 GPTZero,往往会失败。有人提出了对人工智能生成的文本进行水印处理等技术解决方案,但目前尚未实施。
即使宣传者转向人工智能,平台仍然可以依靠更多基于行为而非内容的迹象来发现和删除影响力活动,例如检测相互放大消息的账户网络、同时创建的大量账户以及标签泛滥。这意味着发现和删除影响力活动在很大程度上仍然取决于社交媒体平台。
所谓的深度伪造视频在几年前引起了警报,但由于成本原因,尚未在竞选活动中广泛使用。但这种情况可能会改变。斯坦福 - 乔治城研究的合著者亚历克斯·斯塔莫斯在与格罗斯曼的演讲中描述了生成式人工智能如何能够融入政治竞选活动改进信息的方式中。目前,竞选活动会生成不同版本的信息,并针对目标受众群体进行测试,以找到最有效的版本。
他说:“一般来说,在大多数公司中,你可以向低至 100 人的群体进行广告宣传,对吧?实际上,你不可能让某人坐在 Adobe Premiere 前为 100 人制作视频。但是,使用这些系统生成视频——我认为这是完全可能的。到 2024 年真正的竞选活动时,这种技术将会存在。”
虽然从理论上讲,生成式人工智能可以为政治或宣传活动提供支持,但在什么情况下使用这些模型在经济上是值得的呢?乔治城大学安全与新兴技术中心的研究分析师米卡·穆塞尔进行了模拟,假设外国宣传者使用人工智能生成推特帖子,然后在发布前进行审查,而不是自己撰写推文。
他测试了不同的场景:如果模型产生更多可用的推文与较少的推文会怎样?如果不良行为者必须花费更多的钱来逃避被社交媒体平台抓住会怎样?如果他们必须支付更多或更少的费用来使用该模型会怎样?
虽然他的工作仍在进行中,但穆塞尔发现,只要人类能够比从头开始编写内容更快地审查输出内容,人工智能模型不需要非常好就值得使用。
生成式人工智能也不一定需要编写带有宣传者信息的推文才能发挥作用。它还可以用于为自动化账户编写类似人类的内容,以便在它们成为协同推动一个信息的活动的一部分之前发布,从而降低自动化账户被社交媒体平台抓住的机会,穆塞尔说。
穆塞尔说:“对于那些最大的经济动机是开始使用这些模型的行为者,比如那些专门从事虚假信息传播的公司,他们完全是集中化的,并且围绕着最大化产出、最小化成本来构建的。”
斯坦福 - 乔治城的研究和穆塞尔的分析都假设,对于计算机编写的宣传内容必须进行某种质量控制。但质量并不总是重要的。多位研究人员指出,机器生成的文本对于充斥领域而不是获得参与度可能是有效的。
克莱姆森大学媒体取证中心的达伦·林维尔说:“如果你在社交媒体平台上把同一件事说一千遍,很容易被发现。但如果你把同一件事稍微不同地说一千遍,被发现的可能性就小得多。”
林维尔调查了来自俄罗斯和中国的在线影响力活动。他说,对于一些影响力操作来说,这可能就是目标——充斥领域,以至于真正的对话根本无法进行。
“在互联网上实施社交媒体活动或类似的虚假信息活动已经相对便宜,”林维尔说,“当你甚至不需要人为你编写内容时,对于不良行为者来说,在网上真正接触到广泛的受众将会更加容易。”
总之,人工智能生成的文本在竞选活动和信息传播中可能带来诸多挑战。我们需要更加重视这一问题,加强对人工智能技术的监管和管理,同时提高公众的媒体素养,以应对可能出现的虚假信息和误导性内容。社交媒体平台也需要加强自身的监管能力,及时发现和删除不良信息,维护网络环境的健康和安全。只有这样,我们才能更好地利用人工智能技术的优势,避免其带来的负面影响。