手机 App 已上线
点我下载

太可怕!只要3秒 就能用AI复制真人声音诈骗

Thu Jun 29 2023 17:18:10 GMT-0700 (Pacific Daylight Time)

cover
詐騙集團只要3秒時間,就能透過AI複製真人聲音詐騙。(示意圖/ingimage)

诈骗集团只要3秒时间,就能透过AI复制真人声音诈骗。 (示意图/ingimage)
AI 技术日新月异,虽然提升了工作效率,却也成为有心人士用来诈骗 的工具。

据「太阳报」(The Sun)报导,AI风险评估公司Blackbird.AI共同创办人哈利德(Wasim Khaled)表示,目前有诈骗集团 利用AI技术,复制他人声音进行「语音诈骗」,这种诈骗技巧称之为「AI语音复制人」,通常被用来窃取使用者的银行资讯、身份或密码 。

哈立德说,「AI语音复制人」的声音不只跟真人难以区别,政商名流等公共人物更容易陷入被复制的危机。因为公共人物的语音样本较多,让AI更能透过深度学习做出真假难辨的音档。

不仅如此,由于AI技术发展神速,只要在网路上搜寻就能找到许多低成本甚至免费的供应商。防毒软体McAfee 的研究人员也发现,诈骗集团只需要花3秒钟,就有办法复制真人的声音,利用这种技巧打给家人朋友来骗人。

哈立德说表示,如果能够使用AI检测 技术来侦测音档,就可能避免这类的诈骗发生,但短期内应该无法开发出可靠的检测技术。

要避免语音诈骗,在亲朋好友打电话紧急要求汇款、给予物品或其他金援时,应进一步跟本人确认。除此之外,民众也应避免在网路上分享个人资讯,以避免遭诈骗集团利用。



分享到微信: 分享
【郑重声明】温哥华天空刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。 本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责; 部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。谢谢!

我要评论: