“假朋友”来电,声音相似度让同事听得团团转,大喊“我很乱”!幸好这只是一场实测。
如果你接通陌生的电话,对方声称是你的朋友并有求于你,而声音相似度高,你会信以为真答应吗?
不少人就不疑有他,掉入圈套。 警方在前年接获686起报案,去年增加到2106起。今年首五个月,报案已经超过3000起,损失金额更超过1020万元,多出去年一整年。
骗子为何可以高度模仿受害者朋友的声音? 新加坡理工大学信息通讯科技副教授李功益说,答案可能就在人工智能。
李副教授根据编导的声音样本,用人工智能生成了一段话。编导接着拨电话给同事,用这把“假”声音来跟他交谈,同事果然信以为真!
在反复聆听真假声音时,他也无法辨认出谁真谁假。“我现在很乱了。其实短短的一句话听不出来 。你(本人)开始讲多几句的时候,就会听得出一般人正常的那种口音、那种停顿等等,就比较自然一点。”
人工智能生成声音 哪里捉破绽?
李副教授说,人工智能技术日益纯熟,生成的声音也会更真实,不排除骗子利用这个手法来行骗,而且在国外也有类似的案例报道。但人工智能仍有盲点。
他说:“克隆声音的技术有两大方法。第一个方式是叫做语音合成。第二个方式我们叫做声音转换。要学习到口音其实是没问题的 。人工智能目前来说 ,它是不能够学习到比如讲这个人说话的习惯,比如说有些人说话的时候可能很喜欢用某些字眼 。”
防范骗局 眼见为实
全国罪案防范理事会理事朱志伟不排除有人利用人工智能仿声技术行骗,但他表示:“目前来说我觉得一般的朋友骗局,更多的可能是他知道你这个人,他甚至知道你的一些朋友圈里面有哪一些朋友,所以声音上的这种所谓的相似度其实是可以模仿的。”
要避免落入骗局,他强调最关键的一点就是在没有亲眼看到对方前,不要把钱汇过去。不管对方用什么方法套交情,或者显示他有多惨,公众应该约对方见个面,才考虑要不要借钱。
朱志伟也提供公众三招防诈贴士:(一)添加,通过官方管道下载Scamshield;(二)查证,找朋友谈一谈或通过不同的方法查证;(三)通报骗案。