在当今这个科技飞速发展的时代,人工智能的应用越来越广泛。YouTube 作为全球知名的视频平台,也紧跟潮流,积极探索人工智能的应用。然而,其推出的 AI 聊天总结功能却出现了一些问题。
YouTube 对生成式人工智能充满热情,CEO Neal Mohan 表示,生成式人工智能将“重塑视频,使看似不可能的事情成为可能”。为此,该平台推出了多种 AI 工具,其中包括一个能够将直播聊天内容浓缩为一段摘要的总结生成器,以便迟到的观众或未能观看直播的人了解观众们的讨论内容。
然而,事实证明,这个总结生成器并没有创作者们所期望的那么完美。 Pokémon YouTuber Shiny Catherine 在结束她的最新直播后,查看了 YouTube 的 AI 生成的聊天总结,结果大吃一惊。总结中写道:“聊天中的观众对 Catherine 是否谋杀了 5 个孩子存在分歧。”
Catherine 在推特上表示不满:“嘿,@TeamYouTube?你们能不能停止这个实验?聊天中大家只是说我是紫色的,为什么总结会这么说?”一些聪明的网友在她的推特回复中意识到可能发生的情况:在直播中,她和她的社区讨论了《Five Nights at Freddy’s》,而该游戏中的主要反派 William Afton 常被描绘为“Purple Guy”。YouTube 的 AI 不知何故将 Catherine 聊天中说她是紫色的理解为说她是 Afton,而 Afton 确实谋杀了五个孩子。
虽然《Five Nights at Freddy’s》的这个联系有点滑稽,但 Catherine 的推特表明了她的真实不满。她说:“这感觉在法律上有问题”,并认为 YouTube 应该调整 AI 工具,使其输出的内容适合家庭观看。
当 Team YouTube 回应称创作者无法选择退出这个总结生成器(这是一个实验性功能)时,她的不满进一步加剧。她表示:“好吧,但它不应该说这样的话???没有人提到广岛,这到底是怎么回事,YouTube?我的缩略图明明是我的 Pokémon 角色和 Pokémon 盾牌……这不仅是一个不相关的总结,而且还存在问题和可能的犯罪指控。”
很明显,YouTube 拒绝让创作者选择退出的原因可能是:该平台大概是将整个实验作为其 AI 的训练数据,不希望训练数据池缩小。但我们也完全理解为什么 Catherine 以及其他可能的创作者对他们的视频旁边出现错误信息感到不满。YouTube 一直在强调减少平台上的错误信息,但现在它自己的 AI 工具却制造了更多的错误信息,并将这些错误信息放在一个权威的位置,这是观众首先会看到的内容之一。
总之,YouTube 的 AI 聊天总结功能虽然具有创新性,但在实际应用中出现的问题需要引起重视。平台需要认真对待创作者的反馈,努力改进 AI 工具,以提供更准确、有用和合适的内容。同时,这也提醒我们,在推广和应用新技术时,要充分考虑其可能带来的影响,并进行充分的测试和优化,以确保其能够真正为用户带来价值,而不是带来更多的问题和困扰。