阿曼迪普·辛格·吉爾 (Amandeep Singh Gill) 在今年的人工智能實力指數中獲得認可,他是一小群至關重要的領導者中的一員,該群體負責塑造人工智能如何融入全球系統以及國際外交本身。作為聯合國副秘書長兼數字和新興技術特使,吉爾面臨著當今時代最複雜的政策挑戰之一:如何確保人工智能增強人性而不是破壞人性。吉爾對定義全球人工智能格局的假設、權力動態和治理障礙持坦率態度。他挑戰了人工智能將自動帶來“無限豐富”的普遍觀念,並警告說,人工智能驅動的權力和財富集中在少數人手中可能會侵蝕人類的能動性和自由。
不過,他並不悲觀。對於吉爾來說,最近較小語言模型的訓練成本下降,並且有跡象表明縮放法則可能已達到極限,這預示著人工智能未來可能會更加民主、不那麼集中化。從結合截然不同的國家人工智能能力的談判框架到解決自主武器的道德和人道主義風險,吉爾認為治理護欄是創新的關鍵基礎。 “破壞信任和安全的創新會毒害所有對人工智能感興趣的人,”他說。吉爾的工作反映了聯合國推動人工智能負責任發展、建設數字能力、促進合作以及投資於共享人力和技術基礎設施的更廣泛雄心。
您認為完全錯誤的關於人工智能的假設是什麼?
這種人工智能將通過改變人類來迎來一個無限豐富的時代 將智力轉化為商品。 “智力太便宜而無法衡量”提醒我 “電價太便宜,無法衡量”這句話來自核宣傳的鼎盛時期。
如果你必須在去年選擇一個時刻,當你想“哦,糟糕,這 改變人工智能的一切,那是什麼?
教育成本下降幾乎同時出現 更小、更高效的法學碩士(DeepSeek、Indus、WinAI)和 Ilya Sutskever 的 NeurIPS 談論縮放法則已達到穩定水平。它給了我希望 不同的長期結果是可能的,即更加民主,更少 專注、更可持續的人工智能創新生態系統。
人工智能開發的哪些方面最讓你徹夜難眠? 人們不說話?
人工智能大規模集中的社會和政治後果它將權力和財富吸引到少數人手中。我擔心之間的差距 知識的建築師和居住在建築知識空間中的人 它將破壞人類的能動性和自由。
讓擁有截然不同人工智能的國家面臨的最大挑戰是什麼 就共同框架以及如何做到這一點達成一致的能力和理念 平衡創新與安全?
這是我們在氣候等其他領域所熟悉的集體行動問題 改變。在聯合國,我們以多維度的方式解決這個問題 議程不僅涉及各國的不同優先事項,而且還涉及 私營部門等利益相關者——推進人工智能的使用、風險、治理 互操作性(私營部門感興趣)、能力建設(特別是 我們還依賴商定的規則,例如 協調觀點的人權。 創新與安全的困境是錯誤的。創新總是在護欄內取得最好的進展。破壞信任和安全的創新會毒害所有對人工智能感興趣的人
聯合國如何利用人工智能加速可持續發展進程 發展目標,特別是發展中國家的發展目標?具體AI是什麼 您見過的對橋接技術影響最大的應用程序 差距;
我們的重點是加強國家負責任地開發和部署人工智能的能力 為了可持續發展目標。能夠接受解決方案而不是 解決方案。人工智能將在無數領域產生有益的影響, 實時政府服務提供和背景、規劃和監控 基礎設施項目、擴大農業和畜牧業/漁業 管理、綠色轉型、公共衛生和診斷公平、 教育等。我們僅僅觸及了一些應用程序的表面, 例如預測糧食不安全的數據驅動人工智能工具。秘書——將軍最近關於發展人工智能能力的創新融資方案的報告 支持世界各地在關鍵因素上的緊急投資,例如 作為計算、跨領域人才和環境豐富的數據集。寬的一個 創新基地可以在靠近需求的地方釋放人工智能解決方案。
如何應對軍事人工智能應用與人工智能應用之間的緊張關係? 您論文中的人道主義關注以及您取得的進展 就致命自主武器達成國際協議?
從聯合國的角度來看,我們仍然對軍事人工智能的潛力感到擔憂 新的申請開始破壞對國際人道主義法的尊重 軍備競賽,降低衝突門檻。秘書長認為 生死決定不能委託給機器,並要求 聯合國成員國將對此類系統制定明確的禁令和法規 2026 年。
如果您的任務是使用人工智能來保護學校中的學生,您會採取什麼方法以及需要解決哪些關鍵挑戰?人工智能如何在不創造破壞教育體驗的監視環境的情況下為預防和早期干預工作做出貢獻?
我希望學生們自己思考人工智能作為應對不安全感的工具的利弊。例如,如果他們認為欺凌是一個問題,或者存在槍支或刀具暴力的風險,我會讓他們思考人工智能工具如何幫助識別受害者或肇事者,並防止欺凌或暴力。這也將使他們能夠考慮數據收集和使用或人工智能與模擬解決方案之間的權衡。
思考這個問題讓我想起卡內基梅隆大學研究人員的一項實驗,將空氣質量傳感器帶入教室。學生們對它們進行了實驗,將它們帶到停車場,發現上車和下車期間污染有所增加。他們與父母進行對話,並通過收集的數據加強對話,並改變行為以改善空氣質量。這是一個增強技術使用能力的例子,這也是我們一般應該如何處理人工智能解決方案。











