使用人工智能工具 騙徒作案出神入化

網絡騙徒使用人工智能工具偽裝性更強,長者和英語能力有限的人士需特別注意。本報資料圖

AI工具可以寫出笨拙的打油詩,也可以偽裝治療師,幫助騙子牟利。

多年來,騙徒利用情緒化和緊急訊息誘騙受害者。根據聯邦調查局(FBI)的資料,現在他們的詐騙手法已經增強了,AI生成工具可以讓訊息更有說服力,甚至可以假冒親人的聲音。

投資詐騙通常被稱為「殺豬盤」,在騙取受害者的錢財之前,作案者會接觸並「養肥」受害者。FBI的網際網路犯罪投訴中心從1月到10月共收到3.8萬宗有關投資詐騙的報告,損失總額達47億元,高於去年同期的3萬宗報告和36億元的損失。

三藩市FBI主管特工赫爾曼(Scott Hellman)表示:「我堅信GenAI在去年相對大幅增加的詐騙案中扮演重要角色。

GenAI工具很快就能為每個人所用,網路罪犯當然會使用它們。它們非常善於以創造者想要的語氣創造語言和聲音」。

騙徒可以藉此製作誘騙受害者的訊息,讓受害者相信聯絡他們的是潛在的愛人、政府機構、精明的投資人或家人。

網路罪犯可以用ChatGPT或Claude等主流AI工具,但也出現了專門協助騙子的服務,例如WormGPT和FraudGPT。赫爾曼表示,這些工具都在FBI的雷達上。

他說:「我們不能只針對鍵盤後面的人,我們必須打擊為整個生態系統提供的服務,但收集證據需要花費大量的時間和精力」。

這些詐騙通常以老年人和英語能力有限的人為目標。比如三藩市一名日裔男子被人慫恿投資虛假的加密貨幣,損失了將近40萬元;聖他克拉一名男子,將26萬元給了他自以為是網戀對象的騙子。

這些騙局通常從社交媒體或約會應用程式,或是從「打錯電話」訊息開始。一旦受害者開始接觸,騙徒就會引導他們,最後索取金錢或建議投資。

「無論是浪漫、信任還是恐懼、誘惑的語氣,GenAI都能做得很好。」赫爾曼說。

受害者通常會被誘導將儲蓄投入加密貨幣。在三藩市FBI所轄的灣區和其他幾個縣,去年與加密貨幣相關的詐騙案造成1226名受害者超過2.6億元的損失。

赫爾曼表示,製造恐懼的方法是犯罪分子最常用的策略;如讓受害者以為他們正被國稅局調查,或是用語音模仿親人求助。因而他建議人們在收到壓力訊息時要放慢腳步,邏輯性地思考,而不是情緒化地快速做出決定。本報訊

灣區