Google DeepMind和 諾貝爾獎 因為它在預測蛋白質結構的AI AlphaFold算法中的作用 60分鐘 在四月份演出。據他說,在AI的幫助下,例如Alphafold,整個疾病的末端已接觸到“可能在未來十年左右的時間裡”。這次採訪繼續。
對於那些真正從事毒品開發和疾病治療的人來說,這一說法是荒謬的。 根據 對於幾十年來一直在研究藥物檢測的醫學化學家德里克·洛(Derek Lowe),哈薩比斯(Hassabis)的陳述“讓我想花一段時間,默默地看著窗外,為自己宣告難以辨認的單詞。”但是您不必成為專家就可以識別誇張:整個疾病將超過十年是荒謬的想法。
有人認為哈薩比斯的評論只是技術領導者如何過度,可能吸引投資者和融資的另一個例子。這不像埃隆·馬斯克(Elon Musk)對火星殖民地的愚蠢預測,還是Openai的Sam Altman聲稱人工通用情報(AGI)並不遙遠?但是,儘管這種憤世嫉俗的外觀可以確定,但它使這些專家可以刪除鉤子並低估了問題。
這是明顯的當局在知識領域之外提出宏偉的主張(請參閱AI,外星人和太空旅行的Stephen Hawking)。但是似乎哈薩比留在他的車道上。他的諾貝爾語言提到新藥是阿爾法法德(Alfafold)預測的潛在好處,算法的解放伴隨著關於藥物檢測革命的無盡媒體標題。
同樣,當他在2024年諾貝爾獎獲得者杰弗裡·欣頓(Jeffrey Hinton)的同事中,Google的前人工藝術顧問 陳述 他幫助創作工作的方式類似於人類的教育,他從深刻的知識中講話。所以不要牢記 尖叫 從研究人類知識的人抗議 – 在某些情況下, 是的 太多了。
看來,這種情況似乎很奇怪,其中一些人工智能專家也反映了他們的產品:他們可以給出出色的結果,同時了解它們,最多是深度又脆弱的。
這是另一個例子:丹尼爾·科科塔(Daniel Kokotajlo),他是一名研究人員,他放棄了Openai的擔心,他對AGI的工作擔心,目前是加利福尼亞州AI期貨項目的執行董事 他說:“我們抓住了我們的AI,我們確信他們知道他們說的是錯誤的。” 他的知識,意圖和欺騙的擬人化語言表明,科科塔伊(Kokotajlo)實際上看不見該LLM。
假設這些專家知道他們在Khinton在2016年的評論中最好地說明了這一假設的危險,這要歸功於AI,“人們必須現在停止教授放射科醫生”。幸運的是,放射學專家不相信他, 雖然有些人懷疑 一個 他的言論之間的聯繫 以及醫學生關於放射學的前景的越來越多的問題。欣頓是 由於他修改了這一要求 “但是,想像一下,如果他已經得到了諾貝爾,他將有多大的力量。”哈薩比斯(Hassabis)對這種疾病的評論也是如此:當我們需要在科學和政治上完全相反的情況時,AI會做艱難工作的想法可能會引起自滿。
通常,這些“專家”的先知幾乎不會從媒體那裡獲得,我個人也可以證明,即使有些聰明的科學家也認為它們。許多政府領導人還給人的印像是,他們吞噬了技術領導人和上師矽谷的炒作。但是,我建議開始與他們的陳述(例如LLMS本身),在他檢查事實之前,對他們的表面信心呈現出膚淺的信心。
菲利普·鮑爾(Philip Ball)是位於倫敦的科學作家。他的最後一本書 生活如何運作
主題:
- 人工智慧/
- 技術