如今,波士頓動力公司的機器狗——每隻售價高達 30 萬美元——已經 他們巡邏資料中心 在美國各地,保護為大型科技公司的基因人工智慧提供動力的基礎設施這些構建世界上最強大人工智慧的公司將其保護委託給了機器人。人工智慧實際上受到人工智慧驅動的機器人的保護
這種安排有一個重要的細節:這些機器人不會自己做任何決定。他們的作用是嚴格觀察:監視、巡邏和異常檢測。他們不採取暴力或自主行動。對感知到的威脅的任何反應仍然牢牢掌握在人類手中。
不自主決策的機器人,體現了全球開發者和營運者的自覺選擇。此限制不是單一公司或司法管轄區的決定。這是一個在各個地區獨立出現的共同原則——從杜拜到紐約,再到中國城市和美國資料中心。在部署這些系統的地方,同樣的限制也適用:機器人觀察,人類決定。
基礎設施的繁榮和對監控機器人的新需求
美國科技公司是 投資數千億美元 在新的數據中心。隨著基礎設施的擴展, 對自主安全系統的需求 平行上升。全球安全機器人市場預計到 2026 年將達到 191.8 億美元,到 2033 年將翻一番,達到 453.1 億美元,複合年增長率為 13.1%。
道理很清楚。僅依靠人力來保護現代基礎設施的效率越來越低:重複性監控任務量太大,並且對持續監控的需求太大。另一方面,機器人可以處理巡邏和工業檢查,包括在對人類來說困難或危險的環境中。
同時,近年來公共空間自主系統的發展不斷增加。 2025 年 10 月, 杜拜警方推出自主巡邏機器人 在地球村娛樂中心。機器人在人群中獨立移動,捕捉 360 度影片並將其傳輸到控制中心。
一月份,一個 交通指揮機器人 首次亮相於中國蕪湖的一個繁忙十字路口。在英國,諾丁漢郡警察局 測試機器狗 在武裝圍攻和人質劫持的情況下,機器人首先進去評估情況,而有關暴力的所有決定仍由警察決定。
在這些不同的國家和體系中,有一個原則保持不變:機器人觀察,人們決定。
為什麼這裡的限制會下降?
乍一看,機器人在人類行動時進行觀察的想法似乎與許多人工智慧公司提出的公開敘述背道而馳,這些公司長期以來一直提出一條通往完全自主系統的道路。然而,在實踐中,目前的技術並不能在不引入不可接受的風險的情況下支持這種轉變。
支援大多數現代智慧系統的語言模型缺乏對物理世界的基本理解。他們不理解人類意義上的現實。這些 他們使用晶片和機率模式 來自大型資料集。顯然,這些系統擅長執行完全存在於結構化程式碼中的任務。但當面對不可預測的現實世界的複雜性時,僅靠文本是不夠的。在這些情況下,模型可能會被“欺騙”,自信地產生合理但錯誤的結果。在聊天機器人介面中,只要控制結果,這是可以管理的。在基礎設施管理或公共安全方面,後果嚴重得多。
假設有一個警察機器人在凌晨 3 點在街上巡邏,並處理無法根據訓練資料提前預測的情況。人行道上躺著一個人──是被攻擊的受害者、失去知覺的人還是醉酒的人?從表面上看,視覺訊號可能是相同的,但所需的反應卻完全不同。或者假設某人積極地試圖打開車門 – 他是偷車還是只是想進入自己的車?
在這些情況下的不實陳述可能會升級為衝突、侵犯公民權利或城市和營運商的聲譽危機。
類比自動駕駛汽車的門檻
對於我們真正追求的東西,一個有用的類比來自自動駕駛汽車。對於像 Waymo 這樣的行業領導者來說,僅僅向公眾展示他們的系統平均而言並不比人類駕駛員差還不夠。監管機構需要經過驗證的統計優勢: 更少的事故和事件 等距離。
這個門檻仍然是一個有爭議的問題,但原則很明確:錯誤的潛在危害越大,經過驗證的安全性的門檻就應該越高。對於有一天可能被授予使用暴力權利的機器人來說尤其如此。如果引入武警機器人系統,它們不僅需要展示與警官相當的可靠性,而且需要在現實世界(而不是實驗室)條件下的所有關鍵指標上展示出多倍的優勢。
目前,我們離這個極限還有很長的路要走。現代機器人警察故意不攜帶武器,主要充當巡邏車的替代品。
負責任的自治是現代規範
私部門已經慘痛地體認到,高估人工智慧的決策能力會付出高昂的代價。 2023年,瑞典金融科技公司Klarna 解僱約700名員工 在引入了一個人工智慧聊天機器人來處理他們的工作後,兩年後又悄悄地重新僱用了他們。
在所有行業中,在受控演示中表現良好的公司 遇到髒數據非標準請求和隱藏的營運成本。由於手動糾正人工智慧產生的錯誤,許多人繼續損失約 40% 的預期生產力。
只要人工智慧缺乏現實的基礎模型,幻覺仍然是一種系統特徵而不是例外,關鍵決策就必須繼續處於人類的控制之下。守衛資料中心的機器人、杜拜的自主巡邏和機械警犬不應該給人留下這樣的印象:我們正在走向一個由機器取代人類做出決策的世界。它們標誌著更現實的東西:人類和機器之間的功能分工。
最終判斷權必須掌握在責任人手中。只有在這些條件下,進步才能保持穩定和可持續。









