「爸,我刚发生车祸了!可以先转一笔钱给我吗?」AI 合成人声,已带来前所未见的资安风险
【TechOrange 编辑部导读】「爸,我刚发生车祸了!需要一笔钱……」电话那头的声音,无论是语气还是声调,听起来真的很像你儿子,几乎没有任何破绽。但谁能想到,将人声模仿得维妙维肖的,竟然会是 AI 语音合成技术。
在国外,早已有多起诈骗案例发生。犯罪份子不是利用它模仿受害者家属的声音来进行诈骗,否则就是模仿老板,让员工把公司机密交出去。
当 AI 进步的速度越来越快,过往我们认为「不可能是假的吧!」、「这个机制绝对安全」,这些旧有思维都将被颠覆。而无论是企业或个人,绝对要对此提高警觉。
语音生物辨识(voice biometrics)已不再安全!无论是语音线上购物,或要通过银行的电话语音验证,当 AI 工具越来越聪明,前所未见的资安风险正在产生。
加拿大跨国媒体 VICE 记者实测,成功透过 AI 合成虚拟声音「骇」进自己的银行帐户,使用的还是市面上现有的免费 AI 工具;而同样在加拿大,一对夫妻被骗走 2.1 万美元——他们以为电话里找金援的是亲生儿子,殊不知是 AI 合成语音诈骗。透过两起真实案例,一起了解用 AI 合成的语音人声,如何带来全新资安风险。
是谁打来求救?几可乱真的 AI 合成人声
根据报导,这对夫妻接连接到两通电话,第一通「来自儿子」说自己出了场严重车祸被拘留,需要一笔钱被保释出去;第二通电话「来自律师」,声称共需要 2.1 万美元的法律程序费用,诉讼案件才能呈上法庭处理。
诈骗电话里「儿子的声音」几乎毫无破绽,即便受害者夫妻事後回忆电话有点奇怪,当下仍旧迅速筹足款项,并以比特币方式将钱交给对方,一直到儿子本人(Benjamin Perkin)当晚刚好打来问候父母时,才发现大事不妙。
Perkin 接受媒体访问时表示,他们已向加拿大警方报案,然而不管怎麽样,「那笔钱就是被骗走了,我们没有相关保险,那笔钱不会回来了。」Perkin 不确定诈骗者究竟是从哪里得到他的声音进行仿制,不过他曾经在 YouTube 上传雪地摩托车影片;目前市面上已经有 ElevenLabs 等擅长模仿人声的 …