Adobe 的 Oriol Nieto 上傳了一段短視頻,其中包含一些場景和畫外音,但沒有音效。人工智能模型分析視頻並將其劃分為場景,應用情感標籤和每個場景的描述。然後是音效。例如,人工智能模型捕捉到一個有鬧鐘的場景,並自動生成聲音效果。他指定了一個主角(在本例中是章魚)駕駛汽車的場景,並添加了關門的聲音效果。

它並不完美。警報聲並不真實,在兩個角色擁抱的場景中,AI 模型添加了衣服故障時發出的不自然的沙沙聲。 Adobe 使用聊天界面(如 ChatGPT)來描述更改,而不是手動編輯。在汽車場景中,車內沒有任何環境聲音。 Adobe沒有手動選擇場景,而是使用聊天界面,要求AI模型為場景添加汽車音效。他成功地找到了場景,製作了音效並完美地放置了。

這些實驗性功能尚不可用,但通常可以在 Adob​​​​e 套件中使用。例如, 和諧去年,Sneaks 引入了 Photoshop 中的一項功能,可以自動將具有準確顏色和光照的元素放入場景中。現在,它在 Photoshop 中。預計它們會在 2026 年的某個時候出現。

就在 Adob​​​​e 宣布這一消息的幾個月前,視頻遊戲配音演員結束了近一年的人工智能保護罷工。一段時間以來,配音演員一直在為人工智能對業務的影響做好準備,而 Adob​​​​e 的新功能,即使它們不是從頭開始創建語音,也是人工智能正在給創意產業帶來變革的另一個指標。

來源連結