No menu items!

    「妈妈,我出车祸」AI合成儿哭喊声 湾区妇险遭诈1.5万

    专家表示,AI可以轻松仿制人类声音,混淆受害者的视听,从而行骗。示意图。(美联社)

    居住在加州米尔谷的一位母亲成为了一起利用AI技术克隆儿子声音的电话诈骗受害者。

    在米尔谷当地学校工作的崔普(Amy Trapp)在某一天接到陌生电话。令她震惊的是,她听到了儿子的声音,声称出了车祸,随后引发的一系列事件,几乎让她把1.5万元转给诈骗犯。

    利用AI技术的诈骗犯生成了崔普儿子的声音,成功说服崔普相信,她的儿子在一起车祸中导致一名孕妇受伤,目前正被关押在监狱中。另一名冒充律师的骗子要求其支付保释金,在焦虑和恐惧的压力下,崔普已经做好付款的准备。

    「那绝对是我儿子的哭声,他在电话中哭喊到,妈妈,妈妈,我出了车祸。」崔普想像着自己儿子倒在血泊中的场景。

    幸好崔普的丈夫及时报警。在骗局的数个小时后,这对夫妇意识到这是一起诈骗。而他们的儿子在整件事情的过程中,安安静静地在学校宿舍里学习。

    丈夫回忆道,骗局之所以能成功是因为其说服一个孩子的妈妈相信,她是在和自己的儿子说话。「我从未想过,我真的能够被这样的手段所欺骗。」他表示,平时看到可疑的邮件和电话,他都会特别小心。

    近年来,加州以及美国各地报告的电话诈骗都有所增加,无论是传统骗局还是新式的以AI技术驱动的。联邦调查局(FBI)统计,截止去年9月,大约有195名受害者遭到同类型诈骗,造成约190万元的损失。

    加州检察长办公室表示,AI技术在诈骗中扮演的角色正在增加,他们鼓励受害者报告自己的遭遇。然而,追踪和起诉涉及到国际罪犯,这给执法造成不小的困难。

    资讯安全公司McAfee威胁研究高级主任卡尼克(Abhishek Karnik)强调AI技术对人类情感可能具有的操控力。AI可以轻松仿制人类声音,从而创建起强烈的情感连接,混淆受害者的视听,从而行骗。

    尽管一些AI公司严禁该类技术的使用,但也有公司允许用户上传语音片段,从而生成令人信服的语音。这些片段可以从社交媒体或其他在线平台轻松获取。

    骗局的受害者之一,儿子威尔(Will Trapp)十分困惑诈骗公司如何获取到自己的语音片段,因为他并不是社交媒体重度用户,且自己的帐号都处于私密状态。唯一想到的可能,就是自己创作并上传网络上的音乐。

    热点

    发表评论