加拿大华人论坛 加拿大新闻你确信这是亲人的声音吗?7成受访者难辨AI假冒语音



在加拿大


“妈,救救我!”美国亚利桑那州妇女迪斯特法诺接到女儿遭绑架后的求救电话,那哭泣声音让她毫无怀疑,绑匪要求她汇出100万美元赎款。所幸她稍后连络上女儿,证实稍早的电话全是人工智能(AI)合成的仿真语音。根据一项跨国民调显示,有7成受访者表示,如果接到类似诈骗电话,他们恐怕无法分辨AI语音的真假。

新型诈骗震撼美国当局,歹徒使用网络上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。

法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网络罪犯能有廉价又有效的技术来散播假讯息。

以迪斯特法诺(Jennifer DeStefano)为例,当时女儿在外地滑雪,她接到电话“100%”确定那是她15岁的女儿。

迪斯特法诺4月告诉当地电视台:“问题不是那是谁,那就是她的声音…她哭起来就是那样。”“我没有一秒钟怀疑过。”

还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这个案例充份显示利用AI“复制”真人语音的网络犯罪有多可怕。

在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。

这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能“分辨真假语音”。

加州大学柏克莱分校资讯学院教授法瑞德(HanyFarid)告诉法新社:“因为现在制作高仿真的语音非常容易…网络上几乎无人能幸免。这些诈骗正广为流行。”

Blackbird.AI 人工智能公司执行长卡利德(WasimKhaled)指出,目前网络能搜到多款免费应用程序,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。

这些“复制”的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。

美国当局警告,最近常见的是“爷奶诈骗”,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,“例如发生车祸、被警察拘留,需要筹措保释金等等。”许多年长民众听到亲人声音,深信不疑,立刻汇款。

芝加哥19岁青年艾迪就有这样亲身经历,他祖父接到诈骗电话,以为他发生车祸要赔大钱,甚至想要拿自家房子去贷款筹钱,还好骗局在他贷款之前就被拆穿。这种“假语音、真诈财”案件正在增加中。

今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于“恶意用途”,先前就有用户发布透过“深伪技术”(Deepfake)合成的语音,假冒英国女星艾玛华森(EmmaWatson)读希特勒自传《我的奋斗》(Mein Kampf)。

创投公司Team 8科技主管塔贺奇堡(GalTal-Hochberg)受访指出:“网络上看到的东西你都不能轻易相信,我们已到了这种程度。”“人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。”



  ·中文新闻 前战斗机飞行员丹尼尔·杜根因中国指控将被引渡到美国
·中文新闻 澳大利亚网球明星马克斯·珀塞尔因兴奋剂违规被停赛