Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

AI威脅浮現:OpenAI揭露多國惡意行為,示警深度報告防範新型態濫用

 

圖靈學院
科楠
2025-6-11

 

    人工智慧(AI)的快速發展帶來了前所未有的機遇,但也成為惡意行為者手中的雙面刃。OpenAI在2025年6月發布的最新報告中,揭露了其專家調查團隊如何在過去三個月內,運用AI作為「力量倍增器」(force multiplier),偵測、阻斷並揭露了多起全球範圍內的惡意濫用行為,包括社會工程、網路間諜、詐騙性就業計劃、隱蔽性影響力操作(IO)及其他詐騙活動。這份報告不僅詳述了這些威脅的起源和手法,也強調了AI在防禦此類 abuses 中的關鍵作用。

 

全球威脅版圖擴大:中國、俄羅斯、北韓皆涉其中

 

    OpenAI的報告指出,這些惡意操作來源廣泛,涉及多個國家,且針對的目標和手法各異。值得注意的是,報告中揭露的十個案例中,有四個可能源自中國,涵蓋社會工程、隱蔽性影響力操作和網路威脅。此外,其他被阻斷的濫用行為還包括:來自柬埔寨的「任務詐騙」(task scam)、菲律賓的「評論垃圾郵件」(comment spamming),以及可能與俄羅斯和伊朗相關的「隱蔽性影響力操作」,還有來自北韓(DPRK)相關的「詐騙性就業計劃」。

 

OpenAI表示,每一次的阻斷行動都讓他們對威脅行為者如何濫用AI模型有了更深入的理解,進而能精進防禦措施。

 

AI驅動的惡意手法:從詐騙到網路間諜

 

    報告詳細闡述了AI如何被整合到多種惡意行為的每個環節中,以提高效率和規模:

 

1.詐騙性就業計劃:針對IT工作者


    這類威脅活動與過去被認為是北韓(DPRK)有關的IT工作者計劃行為一致。威脅行為者利用OpenAI模型來自動生成看似可信的履歷,並根據特定的職位描述、技能模板和個人資料進行定制化。他們甚至利用AI來研究遠程工作設置,例如如何接收公司筆記型電腦並進行遠端存取,並探討使用Tailscale、OBS Studio、vdo.ninja和HDMI擷取迴路等工具來規避企業安全措施和身分驗證流程。AI也被用來生成招聘合同工的內容,以及處理求職申請任務和查詢付款信息。這類行為雖然提高了效率,但也因為其全面性的AI應用,提供了OpenAI更多洞察其工作流程的機會,從而能夠與同行及執法機構分享情報以增強集體防禦能力。

 

2.隱蔽性影響力操作(IO):深度偽造與輿論操縱


    影響力操作是本次報告中的一個重點類別,多起案例顯示AI被用於批量生成社交媒體內容,以操縱輿論或製造虛假參與度。


    「嘲諷評論行動」(Operation “Sneer Review”,可能源自中國):此行動利用AI批量生成社交媒體評論,包括英語、中文和烏爾都語,並發布於TikTok、X、Reddit和Facebook等平台。其目標是創造虛假的「有機參與」印象。內容圍繞中國的地緣戰略利益,例如批評一款台灣主題遊戲「逆統戰」、散布巴基斯坦活動家Mahrang Baloch的虛假信息,以及評論美國國際開發署(USAID)的關閉。最為警惕的是,該行動還利用模型起草內部政策或績效評估文件,其中一份甚至詳細描述了操作的建立與運行步驟,包括時間表、目標平台和帳戶維護任務,這些與實際觀察到的社交媒體行為高度吻合。儘管內容數量龐大,但其影響力處於低水平,因為許多參與度(例如按讚和觀看次數)也被認為是AI生成的,而非真實用戶的互動。


    「擊掌行動」(Operation “High Five”,菲律賓):此行動主要利用AI批量生成簡短、帶有黨派色彩的評論,讚揚菲律賓總統小馬可仕或批評副總統莎拉·杜特蒂。這些評論被發布在TikTok和Facebook上,旨在使特定TikTok頻道看起來更受歡迎。雖然內容生成量大,但真實用戶的互動(回覆、按讚、分享)極少,顯示其影響力有限。


    其他案例包括:「模糊焦點行動」(Operation “VAGue Focus”,可能源自中國)冒充歐洲或土耳其的專業人士進行情報收集,利用AI翻譯情報收集訊息和生成社交媒體內容;「赫爾戈蘭之咬行動」(Operation “Helgoland Bite”,可能源自俄羅斯)生成德語內容,批評美國和北約,並在Telegram和X上傳播;「山姆大叔垃圾郵件行動」(Operation “Uncle Spam”,中國)生成極端化美國政治言論的內容,並利用AI生成頭像和研究最佳發布時間以最大化參與度;以及「STORM-2035」(可能與伊朗相關),這是一個反覆出現的威脅,利用AI生成西班牙語和英語推文,內容涉及美國移民政策、蘇格蘭獨立等分裂性話題。所有這些影響力操作的共同點是,儘管利用AI實現了內容的規模化生產,但真實世界的影響力普遍評估為低等。

 

3.網路行動:惡意軟體開發與滲透測試


    AI也在網路攻擊的各個階段中被利用,從惡意軟體開發到偵察和滲透測試。


    「範圍蠕變行動」(Cyber Operation: “ScopeCreep”,俄語威脅行為者):此威脅行為者利用ChatGPT模型協助開發和完善Windows惡意軟體,進行跨語言代碼除錯,並設置其命令與控制(C2)基礎設施。他們透過冒充合法遊戲工具Crosshair-X來傳播惡意軟體。AI被用於迭代開發惡意軟體的特定功能,例如設計躲避簽章檢測的C2負載、透過DLL側載進行隱蔽執行、使用Themida打包器進行混淆、提升權限、規避Windows Defender檢測、竊取憑證和會話,以及透過Telegram通知攻擊者新受害者。儘管威脅行為者採取了嚴密的作戰安全措施,但AI的全面應用反而讓OpenAI能夠更快地識別並阻斷其活動。


    「Vixen和Keyhole Panda行動」(Cyber Operations: Vixen and Keyhole Panda,中國連結):這些與中國相關的威脅組織(例如APT5和APT15)利用AI支援多種網路操作階段。他們使用模型進行開源情報研究,修改腳本或排查系統配置,例如自動化偵察框架reNgine和Selenium自動化。AI還被用於支援Linux系統管理、軟體開發和基礎設施設置,包括配置防火牆、名稱伺服器、開發Web和Android應用程式、設定VPN、Docker容器部署以及本地LLM部署(如DeepSeek)。具體AI應用包括協助編寫FTP伺服器密碼暴力破解腳本、修改和改進端口掃描軟體、研究如何利用LLM自動化滲透測試(分析Nmap掃描輸出、構建指令)。此外,AI還被用於自動化Android設備的社交媒體操作,以及研究美國聯邦國防工業、軍事網路和政府技術的公開資訊。儘管這些廣泛的AI應用提供了罕見的洞察力,但OpenAI發現AI並未為這些行為者提供他們無法從其他公開資源獲得的新穎能力。

 

「錯號行動」(Scam: Operation “Wrong Number”,可能源自柬埔寨)這是一種典型的「任務詐騙」(task scam),利用AI生成多種語言的招聘式訊息,提供高薪完成點讚社交媒體帖子等微不足道的任務,並鼓勵受害者招募他人。AI被用於在中文和其他語言之間進行會話翻譯。該行動通常遵循「引誘(ping)、激勵(zing)、詐取(sting)」的模式:首先是透過訊息(如SMS)冷接觸潛在受害者,提供看似高回報的機會;接著透過對話激發熱情,包括聲稱高額收益或提供小額預付款以建立信任,並鼓勵受害者招募新成員;最後則是詐取金錢,要求受害者支付「押金」、「加密貨幣購買」或「手續費」以解鎖更大的回報。儘管難以量化實際影響範圍,但已有證據顯示有受害者支付了款項,且社交媒體上出現了為這些公司辯護的真實用戶。OpenAI強調其政策嚴格禁止使用其工具進行欺詐或詐騙。

 

結語
持續精進防禦:AI是生態系統的一部分

 

    OpenAI表示,AI調查是一門不斷發展的學科。每一次阻斷行動都為他們提供了寶貴的經驗,以精進防禦機制。他們將持續分享研究成果,以期增強整個網路生態系統的防禦能力。報告也強調,AI只是整體生態系統的一部分,OpenAI也只是AI世界的一部分,並對Google和Anthropic等同業近期發布的威脅報告表示歡迎,認為這些報告豐富了對AI威脅格局的理解。OpenAI堅定地致力於與業界同行和當局合作,以理解AI如何影響惡意行為,並積極阻斷濫用其服務的詐騙活動,確保人工智慧能真正造福全人類。

 

 

參考資料:
OpenAI Disrupting malicious uses of AI: June 2025