Home 科技 歐盟也正在調查 Grok 如何產生 23,000 張 CSAM 影像

歐盟也正在調查 Grok 如何產生 23,000 張 CSAM 影像

6

歐盟已對聊天機器人 Grok 展開調查,該機器人產生有關兒童性虐待的資料。據估計,Grok 在短短 11 天內創建了 23,000 個 CSAM 影像。 更新:第二次調查已在愛爾蘭啟動,重點關注可能的隱私侵犯行為。

儘管無數人呼籲蘋果和谷歌暫時從 App Store 中刪除 X 和 Grok,但兩家公司都沒有這樣做…

Grock 創建了 23,000 個 CSAM 映像。

與大多數其他人工智慧聊天機器人一樣,xAI 的 Grok 能夠根據文字提示生成圖像。它可以直接在應用程式中、線上或透過 X 來執行此操作。但是,與其他服務不同,Grok 的限制極其寬鬆,導致它產生未經同意的真實人物(包括兒童)的半裸圖像。

恩傑特 報導稱,據估計,Grok 在短短 11 天內創建了大約 23,000 個 CSAM 影像。

打擊數位仇恨中心(CCDH)公佈了其調查結果。這家英國非營利組織的調查結果是根據 12 月 29 日至 1 月 9 日期間隨機抽取的 20,000 張 Grock 影像。 CCDH 隨後根據 Grok 在此期間生成的 460 萬張圖像推斷出更廣泛的估計 (…)

在 11 天的時間裡,Grok 創作了大約 300 萬張性感圖像,其中包括大約 23,000 名兒童。

換句話說,格羅克在這 11 天的時間裡每分鐘大約產生 190 張色情圖片。其中,他每41秒就拍攝一張兒童的性感照片。

歐盟調查開啟

本月早些時候,三名美國參議員要求蘋果執行長庫克暫時將 X 和 Grok 從 App Store 中刪除,理由是「內容創作令人作嘔」。該公司尚未這樣做。

兩個國家已經封鎖了該應用程序,加州和英國也展開調查。 金融時報 據報道,歐盟也已展開調查。

這項調查於週一根據《歐盟數位服務法案》宣布,將評估 xAI 是否試圖降低在 X 上使用 Grok 工具以及傳播「可能構成兒童性虐待材料」的內容的風險。

歐盟技術負責人 Henna Virkkunen 表示:“未經同意對婦女和兒童進行性深造是一種殘酷、不可接受的退化形式。”

如果一家公司被發現違反了 DSA,可能會被處以最高相當於其全球年收入 6% 的罰款。

照片由 Unsplash 上的 Logan Voss 拍攝

FTC:我們使用自動會員連結來產生收入。 更多的。

來源連結

LEAVE A REPLY

Please enter your comment!
Please enter your name here