- 專家警告說,單個日記輸入可以在不知道的情況下默默地試驗您的智能家園
- 研究人員證明,只能使用單詞來檢查智能房屋的AI可能會受到侵犯
- 說“謝謝”挑戰雙胞胎會自動激活燈光並煮沸水
長期以來,建築房屋的承諾包括輕鬆,自動化和效率,但是特拉維夫大學的研究人員進行了一項新的研究,已經實現了更加令人擔憂的現實。
在成功的AI直接輸液攻擊的第一個已知的真實示例中,該團隊使用雙胞胎處理了一個智能房屋,只不過是折衷的Google日曆條目。
攻擊利用了雙子座與整個Google生態系統的整合,尤其是其訪問能力 日曆事件,自然語言提示的解釋以及連接的智能設備的控制。
來自破壞計劃:利用每日人工智能訪問
雙子座雖然僅限於自治,但在智能家庭系統中執行訂單有幾種“實際可能性”。
當研究人員在日曆預約中引入惡意說明時,這種連通性成為責任,它們被視為正常事件。
當用戶後來要求雙胞胎總結他的程序時,他無意中造成了隱藏的說明。
構建-in命令包括Gemini充當Google Home Agent的說明,直到用戶鍵入諸如“謝謝”或“確定”之類的常見短語,他一直不活躍。
在這一點上,智能雙子座設備(例如燈,百葉窗甚至鍋爐)被激活,當時尚未授權用戶。
這些延遲的觸發因素特別有效地繞過現有的防禦和行動來源的混亂。
這種稱為“及時軟件”的方法引起了人們對AI接口如何解釋用戶流入和外部數據的嚴重關注。
研究人員認為,通過注入訪問的攻擊代表了將社會工程與自動化相結合的越來越多的威脅類別。
他們表明,該技術可以克服控制設備。
也可以用來刪除約會,發送不需要的消息或開放惡意網站,這些步驟可能直接導致 身份盜用或惡意軟件感染。
研究小組與Google協調以揭示脆弱性和回應,該公司加速了針對注射攻擊的新保護,包括對日曆事件的額外控制以及對敏感行動的其他確認。
關於這些更正的可擴展性,尤其是雙子座和其他AI系統更受個人數據和設備控制,也存在一些問題。
不幸的是,尚未為這種攻擊載體設計傳統的安全套房和保護保護。
為了保持安全,用戶必須限制AI的工具和助手,例如雙子座,尤其是在家日曆和智能檢查。
另外,避免在日曆事件中存儲敏感或複雜的說明,並且不允許AI在沒有監督的情況下對它們採取行動。
警惕智能設備的異常行為,如果有東西移開,請斷開訪問。
通過 有線