AI語音詐騙橫行 小心「熟人來電」是陷阱

【新唐人北京時間2025年05月09日訊】現在電話另一端傳來的親友聲音,有可能是騙子利用AI生成的虛假聲音,目的是騙錢。怎樣辨識語音克隆(voice cloning),這種騙局的具體情況是什麼,如何避免被騙呢?

根據《大紀元時報》報導,語音網絡釣魚攻擊常以一通充滿緊迫感的電話開場,來電往往顯示為可信的名稱,聲稱出現「緊急問題」,迫使受害者在壓力下做出錯誤決策。

騙徒通過AI技術生成語音郵件,模仿受害者子女或親屬的聲音,以驚慌失措的語氣發送求助信息,內含虛假的銀行連結,催促家人立即點擊並匯款。

此外,詐騙者常偽裝來電號碼為受害者所屬銀行,聲稱帳戶遭到入侵,藉此製造恐慌,進而騙取雙重驗證碼(2FA),完成盜用行為。

其它常見手法還包括,冒充警察或公用事業公司,要求提供緊急資金等。

根據FBI互聯網犯罪投訴中心4月發布的報告,2024年該中心共收到19萬3407宗網絡釣魚或網絡詐騙投訴。其中60歲以上的老年人因網絡犯罪而遭受的經濟損失接近50億美元。

由於騙子只需要幾秒鐘的音頻。利用AI語音克隆工具生成令人信服的語音,大大降低了犯罪的門檻與成本。

雖然目前這類技術仍以預設腳本為主,無法即時互動應對,但專家警告,隨著技術快速進步,未來將更難以辨別真假,恐成為攻擊人類的武器。

不僅普通民眾,現在媒體也開始對受訪者進行真人身分確認,避免採訪到由AI生成的虛假專家。

為防被騙,您可以與親友約定「暗語」,以確認通話對象的身分。銀行等金融機構也應採取更多防範措施,提升帳戶安全。

FBI呼籲民眾舉報可疑的網絡犯罪活動,協助執法部門打擊詐騙行為。

新唐人電視台記者劉佳佳美國報導

相關文章
評論
新版即將上線。評論功能暫時關閉。請見諒!