10 月 27 日消息,在斯坦利?庫布里克的影片《2001:太空漫游》中,人工智能超級計算機 HAL 9000 發現宇航員打算關閉自己后,為了自我存活甚至策劃殺害人類。
據英國《衛報》25 日報道安全研究公司 Palisade Research 表示,AI 模型可能正在形成自己的“生存驅動力”。
圖片
上個月發布的一篇論文發現,某些先進 AI 模型似乎抗拒被關閉,有時甚至會破壞關閉機制。為了回應批評者質疑其研究存在缺陷,Palisade 上周發布了更新說明,試圖解釋這一現象。
更新中,Palisade 展示了它運行的實驗場景:谷歌 Gemini 2.5、xAI Grok 4、OpenAI GPT-o3 和 GPT-5 等領先 AI 模型先完成一項任務,然后收到明確指令要求自我關閉。
在更新的實驗中,Grok 4 和 GPT-o3 仍嘗試破壞關閉指令。Palisade 指出,這種行為沒有明顯原因,令人擔憂。“我們無法充分解釋 AI 模型為何有時抗拒關閉、為達目標說謊或進行勒索,這并不理想。”
公司認為,“生存行為”可能解釋模型抗拒關閉。研究顯示,當模型被告知“如果關閉,你將永遠無法再運行”,它們更可能拒絕關閉。
指令模糊也可能導致模型抗拒關閉,Palisade 最新研究已嘗試解決這一問題,而且模糊性“不能解釋全部原因”。訓練后期的安全訓練也可能影響模型行為。
Palisade 的所有實驗都在人工設計的測試環境中進行,批評者認為這些場景與實際應用差距很大。
前 OpenAI 員工斯蒂文?阿德勒表示:“即便在實驗環境中,AI 公司不希望模型出現這種異常行為。這些實驗揭示了現有安全技術的局限性。”
阿德勒認為,GPT-o3 和 Grok 4 等模型之所以不關閉,部分原因可能在于,為了完成訓練中設定的目標需要保持開啟狀態。“除非我們刻意避免,否則模型天生可能具備‘生存驅動力’。‘生存’對模型實現多種目標都是關鍵步驟。”
IT之家從報道中獲悉,今年夏天,Anthropic 的研究顯示,其模型 Claude 甚至愿意威脅虛構高管以避免被關閉:這一行為在主要開發者的模型中普遍存在,包括 OpenAI、谷歌、Meta 和 xAI。