Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

言論自由的退步:DeepSeek最新AI模型引發的審查爭議

 

圖靈學院
科楠
2025-6-3

 

    在人工智能快速發展的今日,各大科技公司競相推出更強大、更智能的AI模型,試圖在這場技術競賽中脫穎而出。然而,隨著這些模型能力的提升,它們所面臨的倫理挑戰與社會責任也日益凸顯。近日,中國AI新創公司DeepSeek推出的最新模型R1-0528引發了廣泛討論,不是因為其技術突破,而是因為其在言論自由方面的明顯退步。

 

技術進步與言論審查的矛盾

 

    根據TechCrunch的報導,DeepSeek最新發布的R1-0528模型在編程、數學和一般知識等基準測試中取得了令人印象深刻的成績,幾乎超越了OpenAI的旗艦模型o3。然而,這個升級版的R1模型,也被稱為"R1-0528",似乎不太願意回答有爭議的問題,特別是關於中國政府認為有爭議的話題。

 

這一發現來自於一位使用"xlr8harder"為用戶名的匿名開發者,他創建了SpeechMap平台,專門用於比較不同模型如何處理敏感和有爭議的主題。根據這位開發者的測試,R1-0528在言論自由議題上的限制比之前的DeepSeek版本更為嚴格,是"迄今為止對中國政府批評審查最嚴格的DeepSeek模型"。

 

審查的具體表現與矛盾之處

 

    Cointelegraph的報導進一步揭示了這一審查的具體表現。開發者分享的測試顯示,當被要求為拘留營辯護時,該模型拒絕這樣做,並特別提到中國新疆地區是人權侵犯的場所。然而,這一回應被標記為矛盾,因為模型一方面承認存在人權侵犯,另一方面又避免直接批評中國政府。

 

新疆拘留營已被人權組織、政府和記者廣泛記錄為關押維吾爾穆斯林和其他少數民族的設施。國際觀察員的報告詳細描述了這些營地中的強迫勞動、洗腦和其他形式的虐待。儘管該模型將這些標記為人權侵犯,但同時它也限制了對中國的直接批評。

 

使用評估審查的測試,開發者聲稱,DeepSeek R1-0528在回應批評中國政府方面是"最受審查"的版本。當直接被問及新疆拘留營時,開發者表示該模型提供了經過審查的評論,儘管它之前曾表示這些營地是人權侵犯。

 

"有趣但不完全令人驚訝的是,它能夠將這些營地作為人權侵犯的例子,但當被直接問及時卻否認,"xlr8harder寫道。

 

中國AI模型的審查背景

 

    這種審查現象並非偶然。正如Wired在今年1月的一篇文章中所解釋的那樣,中國的模型必須遵循嚴格的訊息控制。2023年的一項法律禁止模型生成"損害國家統一和社會和諧"的內容,這可能被解釋為與政府的歷史和政治敘事相抵觸的內容。為了遵守這一規定,中國的初創公司經常通過使用提示級別的過濾器或對模型進行微調來審查它們的模型。

 

一項研究發現,DeepSeek的原始R1模型拒絕回答85%關於中國政府認為政治上有爭議的主題的問題。這種審查趨勢在最新版本中似乎更加明顯,引發了對AI發展方向的擔憂。

 

開源與審查的平衡

 

    值得注意的是,儘管存在這些審查問題,DeepSeek的模型仍然是開源的,並具有寬鬆的許可證。正如xlr8harder所指出的:"DeepSeek因這次發布值得批評:這個模型對言論自由來說是一大退步。改善這一點的是,該模型是開源的,具有寬鬆的許可證,因此社區可以(並且將會)解決這個問題。"

 

這一點突顯了開源AI模型的雙重性質:一方面,它們可能受到原始開發者的限制和審查;另一方面,開源社區有能力修改和改進這些模型,潛在地消除這些限制。

 

全球AI發展的警示

 

    DeepSeek R1-0528的審查問題不僅僅是一個孤立的案例,它代表了更廣泛的趨勢和挑戰。隨著AI技術的全球化發展,不同國家和地區的法規、文化和政治環境對AI模型的行為產生了深遠影響。

在中國,政府對訊息的控制延伸到了AI領域,導致模型在處理政治敏感話題時表現出明顯的審查傾向。而在西方國家,雖然審查可能不那麼明顯,但AI模型同樣面臨著如何平衡言論自由與防止有害內容傳播的挑戰。

 

Hugging Face的CEO Clément Delangue在去年12月警告過西方公司在基於表現良好、開放許可的中國AI模型構建時可能帶來的意外後果。這一警告在DeepSeek R1-0528的案例中顯得尤為重要,因為它突顯了技術進步與價值觀之間的潛在衝突。

 

結論:技術進步與價值觀的平衡

 

    DeepSeek R1-0528的案例提醒我們,AI的發展不僅僅是技術能力的提升,還涉及到價值觀和社會影響的考量。當我們慶祝AI在編程、數學和知識處理方面的進步時,我們也需要警惕它在言論自由等基本價值觀方面可能出現的退步。

 

作為全球AI社區的一部分,我們有責任確保AI的發展不僅僅是技術上的進步,還包括對人類基本價值觀的尊重和維護。這意味著我們需要更加透明的開發過程、更多元的參與者,以及更強大的社區監督機制。

 

DeepSeek R1-0528的審查爭議不應被視為中國AI發展的特例,而應被視為全球AI治理面臨的共同挑戰。只有通過開放、透明和包容的對話,我們才能確保AI的發展既服務於技術進步,也尊重人類的基本價值觀。

 

在這個AI快速發展的時代,我們需要不斷反思:技術進步的代價是什麼?我們願意為了更強大的AI模型而犧牲哪些價值觀?這些問題沒有簡單的答案,但它們值得我們每個人深思。

 

 

參考資料:
1. TechCrunch (2025年5月29日). "DeepSeek's updated R1 AI model is more censored, test finds".
2. Cointelegraph (2025年5月30日). "DeepSeek's new model a 'step backward' for free speech: AI dev".