我們都被建議不要相信我們在互聯網上看到的一切,在基因人工智能時代尤其如此。
人工智能生成視頻 它無處不在,從名人的深度假貨到 虛假的厄運顯示 到 兔子在蹦床上瘋傳的視頻。 ChatGPT 母公司 OpenAI 的 AI 視頻生成器 Sora 使區分真相與虛構變得更加困難。 Sora 2 型號 全新的社交媒體應用程序它正變得越來越複雜。
近幾個月來,類似 TikTok 的應用程序 它已經病毒式傳播與人工智能愛好者決心 尋找邀請碼。但 Sora 與任何其他社交媒體平台不同。你在 Sora 上看到的一切都是假的,所有視頻都是用人工智能創建的。我把它描述為一個 AI Deepfake發燒夢想乍一看無害,但表面之下卻潛藏著危險。
不要錯過我們任何公正的技術內容和基於實驗室的評論。 添加 CNET 作為首選 Google 來源。
從技術角度來看,Sora 視頻與競爭對手(例如)相比令人印象深刻 中途V1 和 我看到谷歌3了。它們具有高分辨率、同步聲音和驚人的創造力。 Sora 最受歡迎的功能稱為“客串”,它允許您使用其他人的肖像並將其插入到幾乎任何人工智能生成的場景中。這是一個令人印象深刻的工具,可以製作出極其逼真的視頻。
這就是為什麼這麼多專家對索拉感到擔心。該應用程序使任何人都可以輕鬆製造危險的假貨、傳播錯誤信息並模糊真假之間的界限。公眾人物和名人尤其容易受到這些深度造假的影響,工會也是如此 SAG-AFTRA推動OpenAI加強護欄。
對於科技公司、社交媒體平台和其他所有人來說,識別人工智能內容是一個持續的挑戰。但也並非完全沒有希望。要確定視頻是否是使用 Sora 創建的,需要注意以下一些事項。
尋找Sora水印
下載時,Sora iOS 應用程序中創建的每個視頻都包含水印。這是白色的 Sora 標誌——一個雲圖標——在視頻的邊緣跳動。這與 TikTok 視頻加水印的方式類似。
內容水印是人工智能公司幫助我們直觀地識別人工智能生成的內容的最重要方式之一。谷歌的雙子座 “納米香蕉”模型。例如,它會自動為其圖像添加水印。水印很棒,因為它們可以清楚地表明內容是在人工智能的幫助下創建的。
但水印並不完美。其一,如果水印是靜態的(不移動),則很容易被裁剪。即使像Sora這樣的移動水印,也有專門設計的應用程序可以刪除它們,因此水印本身並不能完全信任。當 OpenAI 首席執行官 Sam Altman 被問及此事時,他說 他說 社會必須適應一個任何人都可以製作任何人的虛假視頻的世界。當然,在 OpenAI 的 Sora 之前,還沒有一種流行的、易於訪問的、無需技巧的方法來製作這些視頻。但他的論點提出了一個有效的觀點,即需要依靠其他方法來驗證真實性。
檢查元數據
我知道,您可能認為無法檢查視頻的元數據以確定其是否真實。我明白你來自哪裡。這是一個額外的步驟,您可能不知道從哪裡開始。但這是確定視頻是否由 Sora 製作的好方法,而且比您想像的更容易。
元數據是在創建內容時自動附加到內容的信息集合。它為您提供有關如何創建圖像或視頻的更多信息。它可能包括用於拍照的相機類型、拍攝視頻的位置、日期和時間以及文件名。每張照片和視頻都有元數據,無論它是由人類還是人工智能創建的。許多人工智能生成的內容也將具有表明其人工智能起源的內容憑證。
OpenAI 是內容來源和真實性聯盟的一部分,這對您來說意味著 Sora 視頻 包括 C2PA 元數據。你可以使用它 內容真實性倡議驗證工具 檢查視頻、圖像或文檔元數據。方法如下。 (內容真實性計劃是 C2PA 的一部分。)
如何檢查照片、視頻或文檔的元數據:
1。轉到這個網址: https://verify.contentauthenticity.org/
2。上傳您要檢查的文件。
3。單擊“打開”。
4。檢查右側框中的信息。如果是由人工智能生成的,則應將其包含在內容摘要部分中。
當你通過這個工具運行 Sora 視頻時,它會說該視頻是“由 OpenAI 發布的”,並包含它是由 AI 創建的事實。所有 Sora 視頻都應包含這些憑據,以便您確認它們是使用 Sora 創建的。
與所有人工智能探測器一樣,這個工具並不完美。人工智能視頻可以通過多種方式避免檢測。如果您有其他非 Sora 視頻,它們的元數據中可能不包含必要的信號,該工具無法確定它們是否是 AI 生成的。例如,正如我在測試中證實的那樣,使用 Midjourney 製作的 AI 視頻不會突出顯示。即使視頻是由 Sora 創建的,但隨後通過第三方應用程序(例如水印去除應用程序)運行並重新上傳,該工具也不太可能將其標記為 AI。
內容真實性倡議的驗證工具正確標記了我用 Sora 製作的視頻是人工智能生成的,以及我創建該視頻的日期和時間。
搜索其他 AI 標籤並包含您自己的
如果您使用 Meta 的社交媒體平台之一,例如 Instagram 或 Facebook,您可能會得到一些幫助來確定某物是否是人工智能。元有 安裝的內部系統 幫助標記 AI 內容並對其進行標記。這些系統並不完美,但您可以清楚地看到標記帖子的標籤。 抖音 和 Youtube 對於標記人工智能內容也有類似的政策。
要知道某物是否由人工智能創造,唯一真正可靠的方法是創造者是否揭示了它。許多社交媒體平台現在提供允許用戶將其帖子標記為人工智能生成的設置。即使是在標題中簡單地註明或披露,也可以大大幫助每個人了解事情是如何發生的。
當你瀏覽《索拉》時你就會知道,沒有什麼是真實的。但是,一旦您離開應用程序並分享人工智能生成的視頻,披露視頻的創建方式就是我們的集體責任。隨著像 Sora 這樣的人工智能模型繼續模糊現實和人工智能之間的界限,我們所有人都有責任盡可能清楚地區分某件事是真實的還是人工智能。
最重要的是,保持警惕
沒有萬無一失的方法可以一眼看出視頻是真實的還是人工智能的。為了防止自己被騙,你能做的最好的事情就是不要自動、毫無疑問地相信你在網上看到的一切。跟隨你的直覺——如果某件事看起來不現實,它可能是不現實的。在這個前所未有的人工智能時代,最好的防禦措施是更仔細地檢查您觀看的視頻。不要只是快速瀏覽並思考。檢查是否有亂碼文本、消失的物體和違反物理原理的運動。如果你偶爾被搞砸了,也不要責怪自己。即使是專家也會出錯。
(披露:CNET 母公司 Ziff Davis 在 4 月份對 OpenAI 提起訴訟,指控其侵犯了 Ziff Davis 在訓練和運營其人工智能係統方面的版權。)










