人工智能新模型 能將靜態影像動畫化

Stability AI推出AI影像模型Stable Video Diffusion。Stability AI

人工智能(AI)模型開發公司Stability AI推出AI影像模型Stable Video Diffusion,透過將既存圖像進行動畫化來產生視頻。建立於該公司目前文字轉圖像模型Stable Diffusion的Stable Video Diffusion,是開源或商業產品中少數可用的視頻生成模型。

但用戶範圍有限制。科技網站TechCrunch報道,Stability AI透露Stable Video Diffusion目前僅用於「研究預覽」,希望運行新模型的人必須同意某些條款,包括教育或創意工具、設計或其他藝術創作等Stable Video Diffusion相關預期應用,還有不該用於人物或事件之事實或真實表述等相關用途。

Stable Video Diffusion有兩種模型形式SVD和SVD-XT。首先SVD會將靜態影像轉換為14個影格的576×1024視頻;SVD-XT會使用同樣架構,但將影格增加至24個。兩者皆可產生每秒介於3至30個影格的視頻。

根據與Stable Video Diffusion一併發表的白皮書,SVD與SVD-XT最初接受數百萬部視頻的數據組訓練,然後在數十萬到約100萬部短片上進行微調。這些視頻的出處暫時無法掌握,該份白皮書暗示不少來自公開研究數據組,無法知道當中任何視頻是否有版權。如果有的話,Stability和Stable Video Diffusion用戶恐怕面臨使用權相關法律和道德挑戰。這部份時間將會證明。

不管訓練數據的出處如何,SVD和SVD-XT模型皆能產生相對較高品質的4秒短片。

TechCrunch估計,Stability網誌上的視頻範本可與Meta最近推出的視頻生成模型、谷歌或Runway與Pika Labs等AI初創公司所生成的AI例子一較高下。

TechCrunch指出,過去的AI研究預覽經常會在暗網出現,Stable Video Diffusion似乎缺乏內建內容篩選,恐怕將會被濫用。本報訊

科技-三藩市版