



1.AI 工具新奇又方便,但伴隨而來的「深度偽造技術」(Deepfake)詐騙事件亦逐年升高,這種仿造人聲的詐騙也成為新興網路犯罪手法
2.彭博點出,這種新型態的犯罪浪潮已經席捲全球,金融業者與執法人員紛紛推出防範措施,只是「道高一尺,魔高一丈」,政府法規追不上詐騙手法的複雜變化。
3.究竟要怎麼防範這類由AI興起的詐騙?本文教你3招破解。
由ChatGPT興起的人工智慧熱潮,讓許多人大大感受到AI工具帶來的便利。然而水能載舟亦能覆舟,隨著AI技術發展日益成熟,利用AI進行的詐騙事件也層出不窮,其中更是以「深偽技術」(Deepfake)的詐騙案例最為猖獗。
彭博最近針對這波Deepfake犯罪潮發表了一篇報導,內容指出,這種能夠複製生成人臉的AI技術效果逼真,消費者根本無從分辨起,最近這波AI爆炸式成長使得Deepfake詐騙手法又更上一層樓,AI詐騙在全球性範圍造成巨大的財務虧損,更是引起了監管機構、執法部門與金融產業的關注。
澳洲聯邦銀行(Commonwealth Bank of Australia)詐欺管理主管羅伯茨(James Roberts)表示,他為數500人的團隊曾花好幾天時間監聽詐騙集團,並蒐集到了他們利用Deepfake技術犯罪的第一手資料。
他們發現,模擬受害人的親朋好友聲音來進行勒索的手法已經不新奇了。羅伯茨透露,現在的Deepfake技術複製小孩的聲音,早已惟妙惟肖,犯罪集團會透過AI複製出小孩聲音,再打給小孩的父母討錢,這種詐騙手法的成功機率不但相當高,而且技術成本也極低。
在早期社群平台還不盛行的年代,普通的電話詐騙相當容易被識破,可如今大家都活在社群軟體,只要用點心,不難「肉搜」出受害者的親朋好友與同事。
詐騙集團還能從臉書、IG等平台知道你住在哪、在哪裡上班,以及曾經讀過哪間學校等。
羅伯茨透露,只要詐騙集團從社群平台上的短影或語音簡訊中「下載」一段人聲樣本,最短只要30秒,詐騙集團就可以用AI語音合成工具「複製」出親友的聲音,甚至可以生成各種語音內容,讓受害家屬根本察覺不出來。
彭博警告,這種被稱為「社交工程陷阱」(social engineering scams)的詐騙手法在AI技術的加乘下,更是防不勝防。
這波犯罪潮不只衝擊個人也影響到金融體系,澳洲與德國的銀行業者皆向彭博坦言,現在的詐騙集團規模就像企業一樣,他們甚至會花數個月,只為計畫一場詐騙。
為了防範這波AI詐騙,澳洲聯邦銀行與德意志銀行(Deutsche Bank)紛紛部署了新的軟體與AI模型工具,來監控客戶的線上交易狀況,如果出現不尋常的金流或任何可疑的情形,就會特別注意。
羅伯茨分享了一項數據資料,好讓大眾了解銀行業者面臨的挑戰。他表示,現在澳洲聯邦銀行追蹤的潛在詐騙事件約有8500萬件,而澳洲人口只有2600萬。
美國聯邦貿易委員會主席卡恩(Lina Khan)今年6月時還曾向執法機構示警,稱AI技術會被不肖業者用來「升級」詐騙手段,呼籲執法人員提高警惕。
根據統計,2022年美國消費者遭詐騙所損失的金額逼近88億美元,與2021年相較之下高出了44%,而今年全球範圍內包含詐騙的網路犯罪,損失的成本更是到達了8兆美元。
這個數字有多誇張?彭博比喻,這已經超過了日本GDP,據研究機構Cybersecurity Ventures的數據,到2025年,這個數字將達到10.5兆美元,與10年前相比,足足成長了逾2倍。
希恩(Chris Sheehan)在加入澳洲國民銀行前,曾經在警察部隊工作了近30年,負責調查詐騙事件,他表示,面對層出不窮的AI犯罪事件,即便有解方,但你永遠無法完全解決問題。
有些公司會透過更高端的技術檢測公局,來防範Deepfake詐騙,合成數據平台提供商Synthesis AI執行長兼創始人Yashar Behzadi表示,公司越來越多地使用3D合成數據,來開發更複雜的臉部驗證模型。這些模型使用3D、多傳感器和動態面部數據進行識別檢測。
只是無論當局或公司檢測的技術有多高,詐騙集團的偽造技術也會跟著升高,可謂:「道高一尺,魔高一丈」。
在這個詐騙橫行的時代,科技的發展已經超出我們的認知,因此我們更要懂得如何靠「觀察」來分辨Deepfake詐騙。
美國資安公司Pindrop建議,消費者應該謹慎對待任何一通要求個人資訊的電話,無論是不是你的親朋好友或上司,只要涉及金融交易,就必須要再三確認電話來源。
他表示,只要電話中的聲音出現以下3種跡象,很有可能是AI偽造出來的語音人聲,建議大家再三確認,盡早察覺破綻避免被騙:
參考資料:彭博、Entrepreneur、TechTarget
核稿編輯:吳和懋
除了每個星期四,熱騰騰準時上架的《商業周刊》以外,「商周頭條」將提供你來自商周記者第一線的採訪觀察、更即時的時事話題分析,與更深度的觀點分享。
商周集團為提供最佳的閱讀服務,採用網站分析技術,以持續優化用戶體驗。
若繼續瀏覽本網站即表示您同意隱私權聲明。
若您未點選「我同意」而繼續使用本網站,則視為您已同意本站之隱私權政策。