Home 科技 歐盟還在調查 Grok 如何生成 23,000 張 CSAM 圖像

歐盟還在調查 Grok 如何生成 23,000 張 CSAM 圖像

4

歐盟已對聊天機器人 Grok 展開調查,該機器人生成有關兒童性虐待的材料。據估計,Grok 在短短 11 天內創建了 23,000 個 CSAM 圖像。

儘管無數人呼籲蘋果和谷歌暫時從 App Store 中刪除 X 和 Grok,但兩家公司都沒有這樣做……

Grock 創建了 23,000 個 CSAM 圖像。

與大多數其他人工智能聊天機器人一樣,xAI 的 Grok 能夠根據文本提示生成圖像。它可以直接在應用程序中、在線或通過 X 來執行此操作。但是,與其他服務不同,Grok 的限制極其寬鬆,導致它生成未經同意的真實人物(包括兒童)的半裸圖像。

恩傑特 報導稱,據估計,Grok 在短短 11 天內創建了大約 23,000 個 CSAM 圖像。

打擊數字仇恨中心(CCDH)公佈了其調查結果。這家英國非營利組織的調查結果基於 12 月 29 日至 1 月 9 日期間隨機抽取的 20,000 張 Grock 圖像。 CCDH 隨後根據 Grok 在此期間生成的 460 萬張圖像推斷出更廣泛的估計 (…)

在 11 天的時間裡,Grok 創作了大約 300 萬張性感圖像,其中包括大約 23,000 名兒童。

換句話說,格羅克在這 11 天的時間裡每分鐘大約生成 190 張色情圖片。其中,他每41秒就拍攝一張兒童的性感照片。

歐盟調查開啟

本月早些時候,三名美國參議員要求蘋果首席執行官蒂姆·庫克暫時將 X 和 Grok 從 App Store 中刪除,理由是“內容創作令人作嘔”。該公司尚未這樣做。

兩個國家已經屏蔽了該應用程序,加利福尼亞州和英國也已展開調查。 金融時報 據報導,歐盟也已展開調查。

這項調查於週一根據《歐盟數字服務法案》宣布,將評估 xAI 是否試圖降低在 X 上使用 Grok 工具以及傳播“可能構成兒童性虐待材料”的內容的風險。

歐盟技術負責人 Henna Virkkunen 表示:“未經同意對婦女和兒童進行性深造是一種暴力、不可接受的退化形式。”

如果一家公司被發現違反了 DSA,可能會被處以最高相當於其全球年收入 6% 的罰款。

照片由 Unsplash 上的 Logan Voss 拍攝

FTC:我們使用自動會員鏈接來產生收入。 更多的。

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here