Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

Anthropic 推出「Claude Gov」:AI 如何重塑美國國安體系?

 

圖靈學院
科楠
2025-6-10

 

Anthropic 與國家安全:一次顛覆式的策略轉向

 

    2025 年 6 月 5 日,人工智慧公司 Anthropic 正式宣佈推出 Claude Gov——專為美國國防與情報機構打造的定制化 AI 服務。該版本 比一般消費者版本更能處理機密資訊,且對敏感內容的拒絕策略「放寬」,標誌著 AI 技術正進一步滲透高層國家安全領域。

 

Anthropic 強調這些模型已部署於美國機密層級的政府部門,支援從戰略規劃、威脅評估,到情報翻譯與分析等多元任務。其特點包括:

 

* 增強機密檔處理能力,允許 AI 有條件地分析機敏內容。
* 加強語境理解,特別針對國防與情報專業文本。
* 支援特定關鍵語言與方言,滿足不同情報收集需求。
* 精進網路安全資料解析能力,如網絡攻擊模式與分析等。

 

這些功能反映出 Anthropic Constitutional AI(憲法 AI)思維與安全優先原則的延伸:在國安領域中應用 AI,不是放寬底線,而是將安全設計嵌入技術架構之中。

 

國安領域的 AI 擴張:多方競合中的新戰場

 

    Anthropic 並非孤軍作戰。時至今日,AI 企業間正掀起一場 「政府導向 AI 服務」的大戰。OpenAI、Scale AI、Meta 等皆已投入。House 臺的 ChatGPT Gov 已於今年初上線,並已於聯邦、州、地方政府內被超過 90,000 名員工使用。

 

相比之下,Anthropic 在宣傳其產品已部署於「最高層級國安機構」時,卻未公開具體使用規模與案例。儘管如此,其加入 Palantir 的 FedStart 計劃,也透露出該公司正在尋求「政府通路」成為長期合作夥伴。

 

Scale AI 早在 3 月取得國防部合約,開始打造軍事 AI Agent;而類似計畫也進軍卡達等國際政府部門,形成跨國 AI 國安佈局 。AI 不再僅是科技界之爭,更是國安與外交的新戰場。

 

江湖規則變了?政府 AI 版圖與道德挑戰

 

    政府透入 AI 技術,意味深遠。你或許記得,美國司法部已因面孔辨識與預測警務系統引發多起誤判與歧視事件。AI 濫用的潛在風險,不僅是民間事件,也可能被帶進情報與軍事操作中。

 

即使 Anthropic 明訂其使用政策禁止武器製造、惡意網絡行動等用途,卻承認對 「政府特定任務可行性例外」 進行調整 。這樣的框架,表面上看似理性;但若不慎誤傷民主制度,無論是資訊誤導、系統歧視或逾權運用,都可能形成 制度性風險。

 

安全 vs. 可用:Anthropic 的技術兩難

 

    Anthropic 自家 Claude 系列最近系統性升級。5 月推出的 Claude Opus 4,是自家最強大模型,同時也引發巨大「生化武器」風險疑慮,因此被列為安全機制最高 ASL‑3 級別,並實施“prompt 分析規則”、“攻擊補丁獎勵計畫”、“強化網安”等保護措施。

 

然而,若連這樣深度的安全設計,都無法完全承保模型不被濫用,那麼在國安版本中的使用還是否可控?加之 Claude Gov 對敏感內容容忍度提高,是否拋棄了某些安全防線?成為學界、社會必須正面探討的課題。

 

跨界挑戰:政策、法規還不足

 

    至今,美國國會尚未就 AI 國安應用建立跨黨派法規框架。雖有學界學者提出 AI “incident regime” 建議,強調部署前需提交風險報告、事故通報機制與政府再檢視策略;又如 MCP(通用 API 協定)被曝出可以被利用攻擊系統 。但現實是,這些技術上的規劃仍遠未進入立法體系內。

 

On one hand,美國政府需要 AI 幫助情報分析、常態攻防與威脅預警;on the other hand,不確定的濫用、偏見崩壞民主過程與濫權破口,仍隨時可能顯現。如何在速度與風險間取得平衡?是科技界與制度設計者的急迫課題。

 

結語:AI 國安戰略骨幹重製

 

    Anthropic 的 Claude Gov,無疑是 AI 國際軍備競賽中的一環。它代表的不僅是技術進步,也是一種AI 開疆擴土的政治宣言:AI 不僅是商業產物,更是國家力量的延伸工具。

 

在未來,若缺乏公開透明的監管與機制,我們可能將迎來一個 AI-driven 的國家安全時代:速度取代穩定,效率淩駕倫理。Anthropic、OpenAI 乃至所有投身政府項目的 AI 公司,都必須承擔超越商業成功的責任。

 

最終,社會與監管部門必須建構起一套由法律、技術與公民監督共同支撐的「AI 國安邊界」。否則,AI 也許能幫助摧毀威脅,也可能成為更難抵禦的新型威脅本身。

 

 

參考資料:

1.theverge.com:Anthropic launches new Claude service for military and intelligence use

 

2.Anthropic launches new Claude service for military and intelligence use

 

3.Anthropic Unveils Claude Gov for U.S. Security Agencies

 

4.Exclusive: New Claude Model Triggers Stricter Safeguards at Anthropic  

 

5.A proposal for an incident regime that tracks and counters threats to national security posed by AI systems