學分:密歇根大學
使用人工智能發現一封信是一個複雜的舞蹈:要做到這一點,這意味著要確定它,同時小心地不要責怪一個人使用他。只有少數工具達到了正確的平衡。
密歇根大學的研究人員團隊說,他們已經開發了一種新的方式來說明AI撰寫的部分文本是否正在發生,這在學術和州政策中可能特別有用,因為AI的內容擴展並與人類的內容變得更不可分割。
該團隊稱其Loketropy工具為靈感來自其方法的理論基礎:它結合了概率和熵,這是兩個提供其測試的統計思想。
他們開發了“零鏡頭的統計測試”,這可以確定人類或大型語言模型的拼寫的書面部分是不需要每個人的例子進行初步培訓。
當前工具集中在LLM上,LLM是一種用於文本生產的特定類型的AI。他使用文本本身的統計屬性,例如,決定它是人性化還是機器形成多麼驚人或可預測的單詞。
在測試大規模數據集時,即使那些模型被隱藏在公眾中或開發了AI產生的文本以超過檢測方面的數據時,他們說他們的工具效果很好。當設計測試以特定的LLM作為潛在文本發生器時,它的平均準確性超過96%,錯誤指控的水平僅1%。
“我們非常願意創建一個只指著手指的探測器。AI探測器可能過於自信,這是有風險的,尤其是在教育和政治方面,”烏姆·羅斯商學院(Um Ross Business School)的博士助理塔拉·拉德瓦德(Tara Radwand)說。 “我們的目標是要注意虛假的指控,同時指出AI產生的內容具有統計信心。”
在研究人員的意外結論中,他們對可以捕捉它的語言模型不得不了解。根據拉德蘭(Radland)的說法,該測試效果很好,並且仍然效果很好,對檢測的質疑應依賴於訪問,培訓或合作。
該團隊受到正義的激勵,尤其是對外國學生而不是以母語為母語的人。新文獻表明,由於句子的語氣或結構,可以不公平地用“類似AI的”字母來標記英語的學生。
Radwand說:“我們的工具可以在發送之前以低比率,透明的方式幫助這些學生的信件。”
至於以下步驟,她和她的同事計劃擴大他們的 演示 在可以適應不同域的工具中。他們了解到,法律和科學領域以及上大學的陳述,在“謹慎”的妥協中具有不同的門檻。
人工智能探測器的關鍵使用是減少了錯誤信息在社交網絡上的傳播。一些工具故意教LLM接受極端信念並在社交網絡上傳播錯誤信息,以操縱公眾輿論。
由於這些系統可以生成大型錯誤的內容,因此研究人員說,開發可以放置在此類內容和評論上的可靠檢測工具非常重要。早期識別有助於平台限制有害敘事的覆蓋範圍,並保護公眾話語的完整性。
他們還計劃與UM企業領導者進行交談,以及接受其工具作為UM GPT和玉米人工藝術助手的補充的潛在客戶,以檢查這些工具產生的文本是否與AI的外部模型(例如Chatgpt)進行了比較。
Liketropy在密歇根州學生的跨學科統計學專題討論會上獲得了最佳演講獎,這是一個由研究生組織的年度活動。它也由巴黎婦女在機器學習和數據科學領域代表,在法國,對機器培訓感興趣的婦女社區以及進行各種事件的數據科學。
有一項研究 出版 在 arxiv 預印服務器。
更多信息:
Tara Radwand等人,使用樣品濃度的最終不等式檢測LLM產生的文本的統計測試,以檢測LLM產生的文本, arxiv (2025)。 doi:10.48550/arxiv.2501.02406
引用:開髮用於檢測AI的工具,該工具獲得了高度準確性,低水平的錯誤指控(2025年7月10日)。收到2025年7月11日
該文檔具有版權。除了出於私人研究或研究目的的一些公平交易外,如果沒有書面解決方案,就無法再現。內容僅用於信息目的。