亲耳听到也不是真的,AI复制人声诈骗兴起

近期AI应用发展风生水起,但让有心人有机可乘,现在诈骗形态日趋复杂,最新诈骗即是AI语音复制诈骗。

《9to5mac》报道,AI语音复制技术只需3秒人声即可制作逼真语音,这项技术如果与实行有些年头的来电显示诈骗结合,就会形成更严重的诈骗问题,因听起来就是认识或信任的人在呼救。

举例假设有诈骗犯利用两项技术打电话给你,声称绑架亲人,要求你不得报警立刻汇款,又让“亲人”与你通话,但这“亲人”其实是用AI语音复制亲人声音再来诈骗,紧张下大多数人都会相信亲人真被绑架。

不过这诈骗真的无敌吗?有四个方法可帮忙保住你的钱。

拨电话确认

假设接到这种诈骗电话,若想确认来电者是否伪造亲人电话号码,最快速就是挂断打给亲人确认,罪犯不太可能直接拦截你打电话。

问对方有困难度的问题

先确定这问题答案只有亲人知道,千万不要问在社群媒体或网络就找得到答案的问题。

不要接听不明来源电话

美国FCC建议,不要接听未知来电,应直接转入语音信箱再听;但现在很多诈骗来电都会伪装成亲人来电。

不要在网络公开个人信息

如果可以,永远不要在社群媒体、网络公开电话号码,也鼓励亲人不要在任何地方公开电话号码。

电话诈骗已是相当普遍的问题,FCC也提醒,如果接到这类来电,千万不要透露任何个人信息。

但高端罪犯将来可能使用更厉害技术取得人们信任,就是上述两项技术加上Deepfake,用视频通话取得人们信任。

但不管罪犯用哪些AI诈骗,接到这类电话(绑架、亲人受伤)时,只要切记上述4个方法,就有较高几率可保住你的钱。

(首图来源:Pixabay)