文章資訊

AI生成假音頻詐騙頻傳 專家破解歹徒手法

利用AI人工智慧進行詐騙的案例層出不窮,歹徒竊取被害人的聲音素材,複製成假音頻,詐騙家屬被害人遭到綁架,過去一年,美國AI詐騙的案件數量,同比上升50%到75%,TVBS新聞合作夥伴-美國廣播公司ABC,特別請AI專家破解歹徒手法,提醒民眾最好時刻保持警戒,不要輕信陌生人來電要求。

圖/達志影像美聯社
圖/達志影像美聯社

AI生成假音頻詐騙頻傳專家破解歹徒手法。

AI生成假音頻:「請把錢寄過來,這是認真的。」

ABC新聞報導:「那個聽起來像我一樣的假音頻,由人工智慧生成。」

AI人工智慧遭到歹徒濫用,使得綁架詐騙可信度更高,全美各地都有受害者。

AI詐騙受害者德絲達芙諾:「我接到一通電話是我女兒的聲音,電話那頭說媽媽,而且哭得抽抽噎噎,我沒有懷疑過那就是她。」

AI技術究竟如何用來詐騙,ABC新聞記者來到知名網絡安全公司,請AI專家現場示範,首先,找到記者的社群媒體,輕鬆擷取影像素材。

ABC新聞記者Whit Johnson:「你實際上取出一些,我在突發新聞場景中的照片。」

AI專家尼可拉蒂:「你在這裡,這裡是密西西比州,你在可怕的龍捲風前面,但有了人工智慧,你可以說,嘿,我想把惠特放在加拿大野火前面,這個人工智慧工具太先進了,它還添加陰影。」

只要一張照片,AI就能按照指令生成各種假圖像,接下來專家再示範,人工智慧如何運用10分鐘的聲音樣本,偽造成詐騙音檔。

AI生成假音頻:「我剛剛和團隊出去吃午飯,我的公司信用卡沒辦法使用,我寄一個連結給你,還錢給幫我付錢的那個人。」

AI專家尼可拉蒂:「這將以語音訊息的形式傳入,歹徒可以輕易地冒充你的電話號碼,顯示為惠特來電。」

接著這個AI生成的假音頻,歹徒試圖讓記者的家人相信他被綁架了。

AI生成假音頻:「親愛的是我,惠特,聽好了,我被綁架了,我被關在地下室,綁在黑暗中。請遵照他們的指示,不要報警。」

AI專家尼可拉蒂:「惠特你看起來很害怕。」

ABC新聞記者Whit Johnson:「我是啊,這很可信。這些騙子現在可以和你即時對話了嗎?」

AI專家尼可拉蒂:「有一些工具可以讓你實際輸入,並使用你的聲音。」

AI甚至可以模擬記者危急時的不同聲調。

sbAI生成假音頻:「請把錢寄過來,這是認真的,他們要求我說出今天的日期,今天是6月14日,請現在立刻匯款。」

ABC新聞記者Whit Johnson:「AI真的可以調整我聲音的語調。」

AI專家尼可拉蒂:「當然,我們沒有任何你在壓力下的錄音,但我可以把你的聲音改成你正處在壓力下的聲音。」

專家建議,要防止遭到AI語音詐騙,可以在接到疑似親人遭綁架的電話時,使用只有自己人才知道的特定安全字眼。

另一位網路犯罪專家,曾經擔任聯邦調查局特勤,處理多起網絡犯罪案件,他建議將任何類型的可疑電話錄下來,接著直接聯繫親友。

網路犯罪專家法蘭柯爾:「我會立刻致電執法部門,因為如果這是真正的綁架,你會希望執法部門介入,如果這是一樁騙局,你會想立刻了解詳情。」

AI生成技術發展快速,現在只需要幾秒聲音,就能分析年齡、性別和口音複製造假,過去一年,美國AI詐騙的案件數量,同比上升50%到75%,其中針對老年人的AI語音詐騙最多。目前還沒有方法百分百杜絕AI詐騙,最好時刻保持警戒,不要輕信陌生人來電要求,將上當機率降到最低。

文章來源:https://tw.news.yahoo.com/ai%E7%94%9F%E6%88%90%E5%81%87%E9%9F%B3%E9%A0%BB%E8%A9%90%E9%A8%99%E9%A0%BB%E5%82%B3-%E5%B0%88%E5%AE%B6%E7%A0%B4%E8%A7%A3%E6%AD%B9%E5%BE%92%E6%89%8B%E6%B3%95-054039233.html