Home 資訊 深度造假法律即將到來:但這些法律足夠了嗎?

深度造假法律即將到來:但這些法律足夠了嗎?

38

馴服這種被稱為人工智能的動物的眾多化身顯然仍將是一項正在進行的工作。

請注意,使用 ChatGPT 創建的此圖像僅出於代表性目的而發布。

幾個月前, 拉安賈納一部以學生政治為背景的 2013 年愛情片再次上映。

但有一個很大的區別:在原著中,由達努什飾演的英雄昆丹死了。

在這個版本中,昆丹奇蹟般地睜開了眼睛,而他的愛人佐婭(索南·卡普爾飾演)坐在他的病床邊。

新的幸福結局完全是由人工智能烹製的。

儘管影片的重新上映版本剛剛贏得了票房,但卻引發了爭議——新的高潮不是導演阿南德·拉伊(Anand L Rai)或編劇希曼舒·夏爾馬(Himanshu Sharma)想像到的。

使用人工智能創建看起來“相當真實”的音頻或視頻剪輯,引發了關於該技術重新定義電影、情節、書籍、電影角色和音樂的潛力的更大問題。

焦慮並非沒有根據:“重新想像”的另一面是濫用。

例如,你可以把話放到政治領導人的嘴裡。

在過去的 12 到 18 個月裡,大型通用語言模型 (LLM) 和小型專用語言模型 (SLM) 的音頻和視頻製作能力(區別在於大小和部署難易程度)成倍增加。

此類剪輯在“合成生成的內容”的廣泛保護下被粗略地歸類為深度假貨,已促使法院和政府採取行動。

全國許多高等法院已發布命令保護某些演員的權利。

儘管法院早在 1994 年就承認了身份權,但人工智能和深度造假帶來的威脅使得這些保護變得更加緊迫。

Karanjawala & Co. 律師事務所主要合夥人 Niharika Karanjawala Misra 表示:“人工智能的興起需要法院進行干預,以保護名人的身份和公開權,防止他們的面孔在廣告、數字平台和人工智能生成的內容中被濫用。”

電子和信息化部發布了2021年信息技術規則最新修訂草案,規定了各種控制深度假貨的措施。

政府希望在今年年底前公佈這些規則。

在10月22日發布的草案中,該部提議,所有用戶,無論他們使用什麼工具來創建合成內容以及將其上傳到哪個公共平台,都必須明確聲明使用人工智能來創建該內容。

AI 生成內容的所有此類標籤和免責聲明必須至少覆蓋所顯示內容“表面積”的 10%。

如果 AI 生成的內容也包含音頻,則標籤或免責聲明應在內容持續時間的最初 10% 內出現。

聯合電子和信息技術部長 Ashwini Vaishnaw 表示,這一政策舉措是必要的,因為包括國會議員在內的所有論壇的利益相關者都在不斷就 Deepfake 問題提供反饋。

法律和政策專家表示,雖然實施這些規則可能是一個挑戰,但該計劃的意圖似乎是積極的。

Grant Thornton Bharat 合夥人拉賈·拉希里 (Raja Lahiri) 表示:“克隆聲音、外表或其他內容的深度偽造人工智能攻擊呈增長趨勢。考慮到印度有 10 億互聯網用戶,這一點令人擔憂,並可能產生深遠影響。”

藝術表達還是扭曲?

法律專家表示,深度造假和合成內容的另一個關鍵方面是模糊了藝術表現和非法扭曲之間的界限。

例如,在他的例子中 拉安賈納 和其他電影一樣,版權歸製片人所有。

但 La Mintage Legal LLP 律師事務所董事總經理 Moksha Kalyanram Abhiramula 表示,導演和演員僅保留有限或未定義的道德或表演者權利。

其他專家表示,隨著人工智能計算價格的下降,包括演員、政治家和體育明星在內的名人很可能成為深度造假視頻的目標,這些視頻肯定會讓公眾感到困惑。

Anand and Anand 律師事務所高級合夥人薩菲爾·阿南德 (Safir Anand) 表示:“印度是一個獨特的國家,名人被視為比生命更偉大的人物,他們的個性具有巨大的商業價值。如果不制止濫用行為,他們的代言模式就會失去價值。”

BITS 法學院副教授 Anindita Jaiswal Jaishiv 表示,除了簡單的相似性之外,深度偽造的音頻和視頻還復制了不同的動作、語氣和語調。

“另一個是保護的程度,不再局限於姓名或面部相似性,而是擴展到任何可識別的特徵,例如手勢或文物,”他說。

阿比拉穆拉表示,對遺傳人工智能的直接反應將進一步加速保護個人權利的需要,這將助長深度偽造品的大規模生產和未經授權的商業利用。

專家表示,通過確保人工智能生成的內容中有清晰且不可刪除的標識符,用戶至少能夠對他們所參與的內容做出明智的選擇。

安永印度合夥人兼技術諮詢負責人 Mahesh Makhija 表示:“下一步應該是在政府和行業之間建立明確的實施標準和協作框架,以確保規則實用、可擴展,並支持印度的人工智能領導雄心。”

一些專家表示,儘管在執行規則方面面臨挑戰,但能夠輕鬆創建合成音頻和視頻內容的人工智能工具的猖獗增長將受到遏制。

“確保(法庭)命令肯定有助於快速刪除未經授權的內容。

米斯拉說:“法律後果的威脅也阻止了人們販運此類材料。”

然而,其他專家表示,政府需要澄清幾個參數,以順利、迅速地實施這些規則。

“該法律的初衷是好的,但一如既往,執行過程中會遇到挑戰。

Gartner 副總裁兼分析師阿基夫·汗 (Akif Khan) 表示:“企業將不得不增加流程和潛在成本,因為他們必須正確標記所有由人工智能生成的內容。”

汗還表示,還需要澄清政府是否會對發布的內容進行自己的分析,以檢查標籤是否正確。

挑戰

“但是,如果 SSMI (社交媒體中的重要中介)在了解其性質後不標記此類內容,那麼他​​們就有失去安全港的風險。

公共政策技術智庫“對話”的創始主任卡齊姆·里茲維表示:“挑戰在於將義務與安全港保護聯繫起來。” SSMI 是指擁有 500 萬或更多用戶的任何社交媒體平台。

IndiaLaw LLP 律師事務所合夥人 Rahul Sundaram 表示,另一個實施挑戰可能是要求平台對合成內容的用戶聲明進行可信驗證,尤其是針對複雜的深度偽造內容。

桑達拉姆表示:“雖然較大的公司可能會承擔成本,但這些義務可能會給較小的印度平台帶來沉重負擔,可能使它們在市場上處於不利地位。”

他說,這些規則還讓用戶無法抑制虛假陳述,同時將全部負擔歸咎於平台,從而造成執行不對稱,對平台無法完全控制的用戶行為進行懲罰。

馴服這種被稱為人工智能的動物的眾多化身顯然仍將是一項正在進行的工作。

專題介紹:Ashish Narsale/雷迪夫

來源連結