输入“/”快速插入内容

警惕“AI 诈骗”:中国多起新型诈骗案件引发关注

2024年12月9日修改
近年来,随着人工智能(AI)技术的飞速发展,AI 诈骗这一新型犯罪手段在中国逐渐蔓延开来,给人们的财产安全带来了严重威胁。本文将通过多起实际案例,深入探讨 AI 诈骗的手段、危害以及防范措施。
AI 诈骗手段层出不穷,其中最为典型的是利用 AI 技术对人脸和声音进行变调,从而冒充他人进行诈骗。例如,今年 4 月 20 日上午 11 时 40 分,中国福州市的一位企业代表郭某接到了平时关系密切的朋友通过微信发来的视频通话。在一番寒暄后,对方称在外地企业投标需要缴纳 430 万人民币(约 7 亿 7000 万韩元)保证金,由于限制条件,询问能否将保证金转入郭某的法人账户。郭某毫不怀疑地告知了法人账户,不久后,朋友发来 430 万人民币已转入法人账户的明细照片,并要求郭某将钱再转至投标账户。11 时 49 分,郭某按照朋友的要求将 430 万人民币再次转出。然而,当郭某告知朋友已转账后,朋友却惊讶地表示从未提出过这样的请求。原来,这是一起通过 AI 技术变调人脸和声音,冒充朋友进行的“AI 诈骗”。
无独有偶,类似的诈骗案件在其他地区也时有发生。在内蒙古包头市,上个月 20 日,当地公安部门详细公开了一起 AI 诈骗案件的全貌。据通信犯罪侦查局透露,犯罪分子利用 AI 技术进行通信诈骗,在短短 10 分钟内骗取了 430 万人民币。幸运的是,在银行的协助下,警方成功追回了 336 万人民币(约 6 亿韩元),目前福州市公安局正在追踪未追回的资金去向和嫌疑人。
在湖南常德市,冒充公司代表与员工进行视频通话,然后指示员工将资金转入指定账户的诈骗案件也屡见不鲜。员工李某突然收到公司代表曾某的微信好友申请,由于名字和头像都一致,李某丝毫没有怀疑。在与“代表”进行了 8 秒的视频通话后,曾某以“正在开会,通话不方便”为由,指示李某向指定账户转账 4 万 8000 人民币(约 900 万韩元)。李某按照指示转账后,才发现自己遭遇了 AI 诈骗。
面对日益猖獗的 AI 诈骗,中国各地公安部门纷纷发出警示:“视频通话中看到和听到的内容可能并非事实,相关信息应向多人核实。如果上司或熟人要求转账,应通过其他方式确认对方身份。”
中国的 AI 技术发展迅速,不仅可以通过 AI 技术改变人脸并播放视频,还可以实时将拍摄中的人的脸进行变换并进行对话。只要有一张照片,就可以让人做出眨眼、点头、摇头等动作。此外,目前的技术只需 30 秒左右的音频,就可以捕捉到对象声音的年龄、语调、语气等特征并进行重现。
在实际的中国应用商店中,搜索“AI 人脸转换”,可以找到数十个相关应用程序。一些热门应用的下载量已经超过 300 万次,所有相关应用的总下载量更是达到了数千万次。甚至出现了“史上最强 AI 人脸变化软件正式发布!技术门槛大幅降低”的广告。有 IT 相关媒体报道,在中国,只需 30 元人民币(约 5500 韩元),就可以在 1 分钟内制作出人脸转换视频。随着计算机性能的提高和样本学习(深度学习)要求的降低,这种技术正从脸部向全身及各种动作发展,变得越来越逼真。
然而,AI 诈骗并非像针对不特定多数人的语音诈骗那样容易广泛传播,因为它不仅需要对视频和声音进行转换,还需要了解受害者与他人的关系、近况以及社交媒体账户信息等。但是,随着人脸和声音制作技术的不断提高,AI 诈骗有可能会演变成更多种类的犯罪。
针对这一情况,中国网络空间管理局决定,在下载或使用 AI 转换技术程序或应用时,每次都要进行个人认证,并将使用记录数据库化,以便在出现问题时进行追踪。同时,规定使用 AI 技术的视频必须有明确的标识,加强对个人信息泄露问题的处罚。
新加坡计算机信息系统学系副教授朱飞达表示:“AI 内容的制作主体仍然是个人,关键是要掌握其生成来源。中国对网络空间的管理和监督将更加严格。”
总之,AI 诈骗作为一种新型犯罪手段,给人们的生活带来了巨大的威胁。我们应该提高警惕,加强对 AI 技术的了解和认识,同时增强自我保护意识,避免成为 AI 诈骗的受害者。只有这样,我们才能在科技发展的浪潮中,更好地保护自己的财产安全和个人权益。