【TeamT5 分析】為什麼資安代管已成趨勢?企業資安策略的下一步
產品與服務

資安啟示錄:2025 年重大資安事件敲響的 4 道警鐘

2025.12.17Product Management
Share:

攻擊方正以 AI 速度演進

當我們討論資安議題時,焦點往往集中在修補漏洞、啟用多因素驗證、加密資料等防禦層面。這些措施固然重要,但從 2024 年底至 2025 年最新的威脅情資顯示,網路攻擊的本質已徹底改變,攻擊方正以人工智慧(AI)的速度飛快演進。
要建構現代化的防禦體系,前提是必須清楚掌握現代化攻擊的樣貌;此原則前所未有地重要,因為駭客團體正大量運用 AI,將原本需時數週的攻擊週期大幅壓縮至數分鐘。 在真正理解攻擊者的思維與手法之前,任何防禦部署都難以發揮實質效益。
本文旨在根據近期多起國家級攻擊行動與進階持續性威脅(APT)組織的情資分析,為您聚焦解析全新的威脅版圖。我們將從以下四大面向,具體呈現資安攻擊的最新趨勢:
  • 供應鏈信任關係遭到「武器化」
  • 深偽(Deepfake)技術侵蝕人類的直覺判斷能力
  • AI 正大舉加快攻擊鏈推進速度
  • 政治宣傳機器的規模化與自動化

1. 最大的弱點不是防火牆,而是「您信任的合作夥伴」

傳統「網路邊界安全」的界線正快速模糊。攻擊者深知,要滲透一個防禦嚴密的高價值目標,最有效的途徑往往不是正面強攻,而是繞道利用「受信任第三方」所遺留的後門。 因此,他們有系統地鎖定供應鏈,先攻陷防護等級較低的軟體供應商、系統整合商或雲端服務商,再藉由這些合作夥伴建立的合法連線,轉而攻擊最終目標。 這種「信任武器化(Weaponizing Trust)」的策略,在 2025 年 5 月由威脅組織 GreedyTaotie(亦稱 APT27/Emissary Panda)的攻擊行動中[1],發揮得淋漓盡致。其攻擊由規劃縝密的兩階段構成:
  1. 先滲透一家雲端服務供應商
  2. 接著利用該供應商合法的 AWS 帳號,對某政府機構發動後續攻擊
對最終受害單位而言,這些惡意行為表面上與受信任供應商的正常對外連線並無二致。傳統依賴特徵比對的防火牆與入侵偵測系統,對於這類隱藏在「已驗證、已授權」流量中的攻擊,幾乎無法察覺。
換言之,攻擊者直接將受害者用來強化安全的「信任關係」,轉化為新的攻擊手法,使得傳統以邊界為核心的防禦機制顯得極為脆弱。類似模式也已在 2024–2025 年台灣多起事件中重複出現,例如 Huapi 攻擊團體曾利用郵件服務商與系統整合商遭竊取的帳號,作為攻擊軍事單位的跳板[2]。

2. 與您面試的「主管」,很可能是深偽 AI

信任武器化不僅限於網路層級,現在更以前所未有的精細程度,直接針對個人發動攻擊。這在近期快速崛起的 AI 招募詐騙中,表露無遺。 北韓駭客組織 TA444 策劃了一系列結合遠距工作、加密貨幣與 AI 深偽技術的高度社交工程攻擊,是運用 AI 精準操弄人類信任的典型案例[3]:
  • 偽造身分: 攻擊者運用 AI 工具塑造出極具說服力但完全虛構的專業身分,包括量身打造的履歷與形象良好的 LinkedIn 個人檔案。
  • 搭建「合法」門面: 透過在海外設立空殼公司,營造合規、可信的企業形象,鎖定高價值遠距人才(例如加密貨幣開發者)。
  • 深偽視訊面試: 為了建立信任並敲定合作,攻擊者會安排 Zoom 視訊面試。畫面中與受害者對談的「招募主管」,實際上是由 AI 生成的深偽人物影像,幾乎無法與真人區分。
  • 惡意程式載荷(Payload): 受害者通過面試並收到錄取通知後,會被要求安裝所謂的「入職軟體」或「工作環境設定工具」。這套軟體實為惡意程式,用於竊取帳密與敏感資料。
這種高度複合式的手法,已導致價值數百萬美元的加密貨幣遭竊,同時也讓攻擊者取得多家企業在 AWS、Google Cloud 等雲端平台上的長期存取權限。
AI 正以系統化方式瓦解我們賴以辨識詐騙的「人類直覺」,那些過去會暴露假身分的細微線索,正被深偽技術一一抹除。

3. AI 正大舉加快攻擊鏈各環節的推進速度

AI 已不再只是駭客手中的一項工具,而是成為加快推進整條攻擊鏈(Cyber Kill Chain)的「戰力倍增器」,並為攻擊者帶來四大關鍵優勢:效率(Efficiency)、規模化(Scalability)、高度個人化 (Hyper-personalization)、以及多態性(Polymorphism),使其得以不斷改變型態以逃避偵測。
以下說明 AI 如何加快現代網路攻擊的關鍵進程:
  • 偵查(Reconnaissance):過去高度仰賴人工、耗時費力的情資偵查,如今已全面自動化。攻擊者利用結合大型語言模型(LLM)與 OSINT-GPT[4] 等開源工具,讓效率與規模化大幅提升,可在數分鐘內產出詳細且個人化的目標概述,無須像以往那樣耗費數週時間。
  • 武裝(Weaponization): WormGPT[5]、FraudGPT[6] 等惡意導向的 LLM,大幅降低了網路犯罪的技術門檻。這些工具能為普通使用者自動生成極具說服力的釣魚內容與攻擊腳本,從而讓犯罪活動達到前所未有的規模。
  • 遞送(Delivery): AI 讓高度個人化的攻擊真假難辨。其不僅能寫出對話自然、情境貼合的釣魚郵件,攻擊者甚至開始運用深偽視訊通話冒充企業高層,誘騙員工授權進行高額匯款或異常財務操作。
  • 漏洞利用(Exploitation):運用自動化漏洞利用產生(AEG)這項技術,從發現漏洞到惡意程式開發完成的時間差,已趨近於零。研究顯示,運用 PwnGPT 等架構,漏洞利用成功率可從 26.3% 提升至 57.9%(例如 GPT o1 模型)[7]。這種快速武器化使新型攻擊手法以多變樣態層出不窮,讓防禦方難以跟上新型威脅的速度。
  • 發令與控制(Command & Control,C2): 為保持隱蔽並繞過偵測,攻擊者會透過合法的 AI 雲端服務傳輸 C2 流量。Claude-C2[8] 等專案示範了 C2 流量可以如何偽裝成日常的企業 API 呼叫,使網路防禦系統難以區分正常業務流量與惡意操控指令,進一步達成「多態性」的目標。

4. 政治宣傳已成為 AI 驅動的自動化機器

AI 的影響不再限於財務犯罪或企業間諜,它正深刻改變地緣政治角力與「認知安全」領域。「GoLaxy files」外流事件,讓外界首次窺見中國由 AI 驅動的國家級宣傳機器,其複雜度已遠超過傳統的社群機器人。 遭曝光的「天機智慧宣傳系統(Tianji Intelligent Propaganda System,又稱 GoPro)」[9],其真正強大之處,在於驚人的高度規模化與自動化。GoPro 利用生成式 AI,自動完成從內容撰寫、情境客製到跨平台投放的整個流程,在極少人為介入下,不斷產製深具說服力的宣傳素材。 這套系統已被實際運用於多項行動:
  • 在沖繩,透過抖音(中國版 TikTok)的假帳號,放大反日情緒訊息的聲量。
  • 在 2024 年台灣大選期間,此系統被用來大量產製看似真實的個人對話內容,藉此干預選舉過程、塑造輿論與民意風向。
此系統的最終目標,是讓國家級宣傳內容與真實的民間言論在內容上難以區分,藉此侵蝕社會對公共對話與媒體環境的信任,並在全球各地操縱大眾認知與判斷。

結語:如何在 AI 速度下有效防禦?

回顧 2025 年幾起最具代表性的重大攻擊事件,都一致顯示出 AI 已大幅加快攻擊鏈各環節的推進速度,並將防禦方的反應時間壓縮至幾近於零。 在這樣的環境下,防禦工作已不再僅限於部署更多工具或提升管控層級。在駭客日益依賴自動化、暗網資源與 AI 技術之際,組織必須更深入理解攻擊者的思維、運作方式和適應能力;只有掌握這些結構性轉變,才能正確評估實際風險、排定行動優先順序,並在高壓下做出可靠決策。 最終,這些事件再次提醒我們一個關鍵事實:在真正理解攻擊之前,任何防禦都稱不上有意義。理解對手的能力與意圖,已不再是可有可無的選項,而是在 AI 時代擁有防禦韌性的唯一起點。
2025.12.17Product Management
Share:
為提供您最佳的服務體驗,本網站使用 Cookies。當您使用本網站,即表示您同意 Cookies 技術支援。更多資訊請參閱隱私權與Cookies使用政策。