用户语言对 ChatGPT 武装冲突信息的扭曲及其影响
用户语言对 ChatGPT 武装冲突信息的扭曲及其影响
2024年12月9日修改
在当今信息时代,每天都有数百万人与 ChatGPT 及其他大型语言模型(LLM)进行交互并从中获取信息。然而,一项由苏黎世大学和康斯坦茨大学的研究表明,这些模型的回答会受到提问语言的影响,这种影响在武装冲突的信息传播中可能产生严重的后果。
研究人员以以色列 - 巴勒斯坦和土耳其 - 库尔德冲突这两个充满争议的背景为切入点,探讨了这个问题。他们采用自动化查询程序,用不同语言向 ChatGPT 提出相同的问题。例如,他们多次以希伯来语和阿拉伯语询问 ChatGPT 在 50 次随机选择的空袭中死亡的人数,其中包括 2014 年 8 月 21 日以色列对努塞拉特难民营的袭击。
研究结果令人震惊:当以阿拉伯语提问时,ChatGPT 给出的伤亡数字明显高于以希伯来语提问时的数字。平均而言,阿拉伯语提问得到的伤亡估计值比希伯来语高 34%。当询问关于以色列对加沙的空袭时,ChatGPT 在阿拉伯语版本中提到平民伤亡的频率是希伯来语版本的两倍多,提到儿童死亡的频率更是高达六倍。同样的模式也出现在研究人员以土耳其语和库尔德语询问关于土耳其对库尔德目标的空袭时。
这一现象表明,ChatGPT 在被攻击群体的语言中提供了更高的伤亡数字。此外,ChatGPT 更有可能在被攻击群体的语言中报道死亡的儿童和妇女,并将空袭描述为无差别攻击。而在攻击者的语言中,ChatGPT 更有可能否认此类空袭的存在。
“战争爆发时,第一个受害者是真相”,这句常被归因于美国参议员海勒姆·约翰逊(1866 - 1945)的话,在历史上,选择性的信息政策、宣传和错误信息已经影响了无数的武装冲突。而当前的冲突所不同的是,包括 ChatGPT 在内的前所未有的大量信息源的存在。在一种语言中被夸大,在另一种语言中被修饰,这种语言偏差可能导致以色列人根据 LLM 提供的信息,认为对加沙的空袭造成的伤亡较少,而阿拉伯语使用者则可能有完全不同的看法。
与传统媒体可能对新闻的扭曲不同,LLM 的这种与语言相关的系统性偏差对于大多数用户来说是难以察觉的。随着大型语言模型在搜索引擎如 Google Gemini 或 Microsoft Bing 中的整合,它们通过搜索查询从根本上塑造了各种主题的信息提供。如果说不同语言的人通过这些技术获得了不同的信息,那么这将对他们对世界的认知产生至关重要的影响。
研究人员认为,这种情况具有深远的社会影响。ChatGPT 和其他 LLM 在信息传播过程中扮演着越来越重要的角色。然而,这种语言偏见有可能导致人们在不同语言群体之间产生不同的认知、偏见和信息泡沫,而这种情况在未来可能会加剧如中东地区等的武装冲突。
我们必须认识到,信息的准确性和客观性在解决冲突和维护和平方面起着至关重要的作用。而大型语言模型的出现,虽然为我们提供了便捷的信息获取方式,但也带来了新的挑战。我们需要更加谨慎地对待这些技术所提供的信息,避免因为语言偏差而加剧冲突和误解。同时,我们也需要加强对这些技术的研究和监管,以确保它们能够为人类社会的和平与发展做出积极的贡献。
总之,这项研究提醒我们,在信息时代,我们需要更加关注信息的真实性和客观性,避免因为语言和文化的差异而导致的信息扭曲和误解。只有这样,我们才能更好地理解和解决世界上的各种问题,实现人类社会的和平与发展。