勒索軟件1.0/2.0(左)針對勒索軟件3.0(自我瀏覽和LLM組織(右))。信貸:信用: arxiv (2025)。 doi:10.48550/arxiv.2508.20444
受害者說,罪犯可以使用人工智能,尤其是大型語言模型來自主執行勒索主義者的攻擊,這些勒索主義者竊取個人檔案並需要付款,處理從損失到計算機系統到向受害者寫威脅信息的每一步。 新研究 它來自紐約工程學院的紐約大學,發表在 arxiv 預印服務器。
這項研究是一項預警,以幫助捍衛者在貧困受試者接受這些有助於AI的方法之前準備對策。
建模由Tandona團隊開發的惡意AI系統,進行了勒索攻擊的所有四個階段 – 彙編系統,識別有價值的文件,數據的盜竊或加密以及在個人計算機,公司服務器和工業控制系統中生成贖金的註釋。
該系統稱該系統稱為“勒索軟件3.0”,最近被廣泛稱為“ Ramplock”,這是Eset Cybersecurity選擇的名稱,當時那裡的專家在Virustotal上找到它,這是一個在線平台,一個在線平台,安全研究人員檢查文件是否可以被發現為惡意。
雷霆的研究人員在測試過程中將其原型加載到病毒中,而那裡的文件作為勒索主義者的功能守則出現,而沒有表明其學術淵源。最初,Eset認為他們發現了由邪惡演員開發的AI的第一個滅絕計劃。儘管這是AI模型的第一件事,但勒索主義者的原型是該概念的證據,該概念在實驗室環境之外是非功能性的。
“當發現我們的原型時,網絡安全社區的直接關注點表明,我們應該在AI支持的情況下認真接受威脅,”電動機和計算機工程系的博士研究候選人說,這是Ransomware 3.0論文的主要作者,該論文是該團隊公開發表的3.0論文。
“儘管最初的焦慮是基於錯誤的信念,即我們的原型在勒索主義者的框架內,而不是實驗室測試以驗證這一概念,但他表明,這些系統對於欺騙安全專家來說是非常複雜的,認為它們是攻擊群體中真正的惡意程序。”
研究方法包括將書面說明引入計算機程序,而不是傳統的預撰寫攻擊代碼。激活時,惡意軟件與AI語言模型接觸以生成LUA場景,該場景是為每個受害者的特定計算機調整配置的,使用對AI商業服務安全的開源模型。
儘管起始線索相同,但每個執行都會創建一個唯一的攻擊代碼,從而創造了一個嚴重的問題來保護網絡安全。傳統的安全軟件基於檢測良好的惡意簽名或行為模型,但是AI創建的可變代碼和執行行為產生的攻擊可以完全避免這些檢測系統。
在三個代表性環境中進行的測試表明,在映射系統時,AI模型都非常有效,並且根據環境的類型正確標記了63%-96%的機密文件。 AI生成的腳本原來是在Windows(台式/服務器),Linux和(buald -In)Raspberry Pi Systems上兼容的跨平台兼容,而無需修改。
經濟後果表明,AI如何改變勒索主義者的行動。傳統運動需要合格的開發人員群體,創建個別惡意計劃以及對基礎設施的大量投資。該原型使用控制旗艦型號的API商業服務,消耗了大約23,000個AI令牌,以全面執行攻擊,相當於大約0.70美元。戶外代碼模型完全消除了這些成本。
降低成本可以使較難的實體能夠開展以前需要專業技術技能的高級運動。與一般的救贖要求相比,系統產生個性化勒索消息(參考檢測到的文件)的能力可以增加受害者的心理壓力。
研究人員根據受控實驗室媒體的機構道德建議進行了工作。已發表的文檔提供了關鍵的技術細節,可以幫助更廣泛的網絡安全社區了解這種新的威脅模型並開發更強大的保護。
研究人員建議監視機密訪問模板以控制外發的人工智能化合物,並開發專門用於行為生成的AI的檢測功能。
更多信息:
MD Raz等人,勒索軟件3.0:自我修復和LLM組織 arxiv (2025)。 doi:10.48550/arxiv.2508.20444
引用:大型語言的模型可以自主進行勒索主義者的全面攻擊,研究(2025年9月5日),於2025年9月5日從https://techxplore.com/news/2025-09收到
該文檔具有版權。除了出於私人研究或研究目的的一些公平交易外,如果沒有書面解決方案,就無法再現。內容僅用於信息目的。