人為沒有 華盛頓特區的一家美國上訴法院週三裁定,“符合嚴格要求”,暫時失去五角大廈施加的供應鏈風險指定。該裁決與舊金山下級法院法官上個月發布的裁決形成鮮明對比,目前尚不清楚如何解決相互衝突的初步裁決。
政府根據兩項不同的供應鏈法律制裁 Anthropic,結果相似,而舊金山和華盛頓特區的法院僅對其中一項做出裁決。 Anthropic 表示,它是第一家根據這兩項法律被指定的美國公司,這兩項法律通常用於懲罰危害國家安全的外國企業。
三名法官上訴小組週三在一個史無前例的案件中寫道:「在一場重大的持續軍事衝突中,批准中止將迫使美國軍方延長與不受歡迎的關鍵人工智慧服務供應商的交易。」該委員會表示,雖然 Anthropic 可能會因繼續指定而遭受經濟損失,但他們不想冒「司法對軍事行動進行實質強制執行」的風險,也不想「輕易強制執行」軍方的安全性。
舊金山法官發現,國防部可能對 Anthropic 採取了惡意行動,因為該人工智慧公司對其技術使用方式提出的限制以及對這些限制的公開批評感到沮喪。法官上週下令取消供應鏈風險標籤,川普政府按照要求恢復了五角大廈和聯邦政府其他部門對人性人工智慧工具的訪問。
Anthropic 發言人 Danielle Cohen 表示,該公司感謝華盛頓特區法院“認識到這些問題需要迅速解決”,並堅信“法院最終將同意這些供應鏈特徵是非法的”。
國防部沒有立即回應置評請求。
這些案例檢視了行政部門對科技公司的行為有多大權力。隨著五角大廈在針對伊朗的戰爭中部署人工智慧,人類與川普政府之間的鬥爭也不斷演變。該公司辯稱,它受到非法處罰,因為它堅稱其人工智慧工具 Claude 缺乏某些敏感功能所需的準確性,例如在沒有人類監督的情況下進行致命的無人機襲擊。
幾位政府合約和企業權利專家告訴《連線》雜誌,Anthropic 對政府有充分的理由,但法院有時會拒絕在涉及國家安全的問題上推翻白宮的裁決。一些人工智慧研究人員表示,五角大廈針對 Anthropic 的行動「平息了有關人工智慧系統性能的專業爭論」。
Anthropic 在法庭上聲稱,它因這一指定而失去了業務,政府律師認為,這一指定禁止五角大樓及其承包商使用該公司的 Claude AI 作為軍事項目的一部分。只要川普繼續執政,Anthropic 就可能無法重新獲得曾經在聯邦政府中佔據的重要立足點。
該公司兩起訴訟的最終裁決可能還需要幾個月的時間。華盛頓特區法院定於 5 月 19 日聽取口頭辯論。
到目前為止,雙方還沒有透露太多關於國防部如何使用克勞德的細節,或者在將人員轉移到谷歌 DeepMind、OpenAI 或其他公司的其他人工智慧工具方面取得了多大進展。唐納德·川普總統領導下的軍方自稱陸軍部,表示已採取措施確保 Anthropic 在過渡期間不會故意試圖破壞其人工智慧工具。










