最好看的新闻,最实用的信息
05月10日 15.0°C-16.7°C
澳元 : 人民币=4.78
墨尔本
今日澳洲app下载
登录 注册

你确信这是亲人的声音?7成受访者难辨AI假冒语音(图)

2023-06-13 来源: Next Apple 原文链接 评论5条

“妈,救救我!”美国亚利桑那州妇女迪斯特法诺接到女儿遭绑架后的求救电话,那哭泣声音让她毫无怀疑,绑匪要求她汇出100万美元赎款。所幸她稍后连络上女儿,证实稍早的电话全是人工智能(AI)合成的仿真语音。根据一项跨国民调显示,有7成受访者表示,如果接到类似诈骗电话,他们恐怕无法分辨AI语音的真假。

你确信这是亲人的声音?7成受访者难辨AI假冒语音(图) - 1

新型诈骗震撼美国当局,歹徒使用网络上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。

法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网络罪犯能有廉价又有效的技术来散播假讯息。

以迪斯特法诺(Jennifer DeStefano)为例,当时女儿在外地滑雪,她接到电话“100%”确定那是她15岁的女儿。

迪斯特法诺4月告诉当地电视台:“问题不是那是谁,那就是她的声音…她哭起来就是那样。”“我没有一秒钟怀疑过。”

还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这个案例充份显示利用AI“复制”真人语音的网络犯罪有多可怕。

在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。

这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能“分辨真假语音”。

加州大学柏克莱分校资讯学院教授法瑞德(Hany Farid)告诉法新社:“因为现在制作高仿真的语音非常容易…网络上几乎无人能幸免。这些诈骗正广为流行。”

Blackbird.AI 人工智能公司执行长卡利德(Wasim Khaled)指出,目前网络能搜到多款免费应用程序,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。

这些“复制”的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。

美国当局警告,最近常见的是“爷奶诈骗”,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,“例如发生车祸、被警察拘留,需要筹措保释金等等。”许多年长民众听到亲人声音,深信不疑,立刻汇款。

芝加哥19岁青年艾迪就有这样亲身经历,他祖父接到诈骗电话,以为他发生车祸要赔大钱,甚至想要拿自家房子去贷款筹钱,还好骗局在他贷款之前就被拆穿。这种“假语音、真诈财”案件正在增加中。

今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于“恶意用途”,先前就有用户发布透过“深伪技术”(Deepfake)合成的语音,假冒英国女星艾玛华森(Emma Watson)读希特勒自传《我的奋斗》(Mein Kampf)。

创投公司Team 8科技主管塔贺奇堡(Gal Tal-Hochberg)受访指出:“网络上看到的东西你都不能轻易相信,我们已到了这种程度。”“人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。”

关键词: AI电话AI诈骗
今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(5)
lissi-lissi
lissi-lissi 2023-06-13 回复
又是一个新的网络安全隐患,难道我们真的无法掌控技术吗?
皛不溜求
皛不溜求 2023-06-13 回复
现在的科技越来越高,但安全问题也越来越多。
Tony汗宝宝
Tony汗宝宝 2023-06-13 回复
这些骗子真是太狡猾了!
YIJUNN
YIJUNN 2023-06-13 回复
防不胜防,还能怎么保护自己呢
Vivian晴天小猪
Vivian晴天小猪 2023-06-13 回复
太可怕了,以后还敢不敢接电话了?


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:news@sydneytoday.com

电话: (03)9448 8479

联系邮箱: info@meltoday.com

友情链接: 华人找房 到家 今日支付Umall今日优选