數字權利、兒童安全和婦女權利組織聯盟要求蘋果對 X 和 Grok AI“立即採取行動”,幾小時後,xAI 確認 Grok 將不再編輯“穿著比基尼等暴露服裝的真實人物的圖像”,但有重大例外。以下是詳細信息。
蘋果面臨從 App Store 下架 X 和 Grok 的新壓力
最近幾天,無數 X 和 Grok 用戶要求 xAI 聊天機器人根據 X 上發布的照片剝掉女性甚至未成年女孩的衣服。
儘管 xAI 最初將這種情況確定為“安全漏洞”,但 Grok 繼續遵守以這種方式編輯圖像的眾多請求。這反過來導致 X 在多個國家被封鎖,而 xAI 在其他國家成為調查對象。
與此同時,蘋果公司面臨新的壓力,要求參議員和用戶將應用程序 X 和 Grok 從應用程序商店中刪除。今天早些時候,由 28 個數字權利、兒童安全和婦女權利組織組成的聯盟向蘋果和谷歌發出了公開信,要求兩家公司“立即採取行動,禁止基於 xAI 的大型語言模型 (LLM) Grok”進入其應用商店。
摘自一封公開信:
我們,以下簽名組織,呼籲 Apple 管理層立即採取行動,禁止 Grok(一種由 xAI 驅動的大型語言模型 (LLM))從 Apple App Store 上架。 Grok 用於創建大量未經同意的親密圖像 (NCII),包括兒童性虐待材料 (CSAM),這些內容既構成刑事犯罪,又直接違反 Apple 的應用程序審核政策。由於 Grok 可在 Grok 應用程序中使用並直接集成到 X 中,因此我們敦促 Apple 管理層立即刪除對這兩個應用程序的訪問。
和
目前來看,蘋果不僅支持NCII和CSAM,而且還從中獲利。作為致力於每個人(尤其是婦女和兒童)的在線安全和福祉以及人工智能 (AI) 道德使用的組織聯盟,我們要求 Apple 管理層緊急從 App Store 中刪除 Grok 和 X,以防止進一步的濫用和犯罪活動。
xAI 表示 Grok 將停止編輯圖像
儘管蘋果和谷歌自問題出現以來一直保持沉默,引發了嚴厲的批評,也有人猜測他們害怕激怒埃隆·馬斯克甚至特朗普總統,但 xAI 今天證實,它將更新 X 上的 Grok 帳戶,以解決該問題,至少部分解決:
@Grok 帳戶的更新
我們已採取技術措施來防止 Grok 編輯穿著暴露服裝(例如比基尼)的真人圖像。此限制適用於所有用戶,包括付費訂閱者。
此外,圖像創建和通過平台 X 上的 Grok 帳戶編輯圖像的功能現在僅適用於付費訂閱者。這增加了一層額外的保護,有助於確保試圖濫用 Grok 帳戶違反法律或我們政策的個人被追究責任。
地理塊更新
現在,我們對所有用戶通過其 Grok 帳戶和 Grok in X 創建穿著比基尼、內衣和類似服裝的真人圖像的能力進行了地理封鎖,在該行為屬於非法的司法管轄區。
毫不奇怪,快速搜索 Grok 的提及就會發現,一些 X 訂閱者已經在嘗試繞過最近引入的限制,並取得了一些成功。與此同時,非訂閱者最常收到以下消息:
圖像創建和編輯目前僅適用於經過驗證的高級訂閱者。您可以訂閱來解鎖這些功能。
意見 9to5Mac
雖然 xAI 調整了新的過濾器和規則,但這是否足以結束此事還有待觀察。
歷史表明,網絡巨魔在試圖規避安全限制方面具有令人難以置信的創造力,特別是在針對在線女性時。
考慮到 xAI 公告中的眾多例外情況,包括某些規則僅適用於 X 上的 Grok 帳戶這一事實,這很可能不會是事情的結束,特別是對於受害者而言。
無論如何,有一件事是肯定的:看到蘋果解決這個問題(至少是公開地)並希望它能自行消失是非常令人失望的。
過去幾週,每一個新的未經同意的比基尼和 CSAM 圖片都通過 iOS X 應用程序向未成年人廣泛傳播,蘋果不僅削弱了其致力於在 App Store 上創建安全環境的論點,而且還強化了一種(有時是不公平的)看法,即近年來蘋果已經完全失去了持久力。
亞馬遜上的配飾優惠
FTC:我們使用自動會員鏈接來產生收入。 更多的。










