了解Sora,OpenAI的令人印象深刻的新興視頻生成軟件
譯文OpenAI在2021年掀起了波瀾,當時他們宣布了DALL-E,這是一款文本到圖像的生成式人工智能工具,讓測試版參與者能夠實時生成圖像。最終生成的視頻并不是很理想,當然生成近乎真實的視頻畫面,需要更多的時間。但是,盡管圖像質量很高,人們依然希望對模型進行改進。對許多人來說,第一代DALL-E就像一個初學走路的孩子第一次制作人形。沒有人期待完美,但能夠如此清晰地看到完全由計算機生成的預期主體的輪廓非常令人鼓舞。
就在2月16日,OpenAI發布了他們稱為“Sora”的新模型,該模型能夠通過輸入文本來生成視頻。目前,只有一小部分測試人員可以訪問Sora,同時他們可以確定安全限制范圍。從OpenAI分享的例子來看,其中一些視頻已經可以作為真實鏡頭傳播。特別是主題是地點、動物或物體的鏡頭。讓我們一起來看看下面的例子:
生成這段20秒視頻的提示是“一窩金毛小狗在雪地里玩耍。他們的頭從雪中伸出來,被雪覆蓋”。如果你以前使用過生成式人工智能創建圖像,你會明白較短的提示往往會產生奇怪的結果,而帶有特定圖像的冗長提示往往更接近你腦海中的畫面。盡管這個視頻令人印象深刻,但該工具的第一次迭代仍有一些信息。雪的物理性質仍然有一種不真實的感覺,因為在某些情況下它看起來會自己移動。
然而,我并沒有以日常觀看的狀態觀看這些視頻,我觀看這些視頻的目的是為了找出它們展示中的缺陷,因為我打開它們時完全知道這些是人工智能生成的視頻。我認為,一旦該工具完全發布,并且這些剪輯僅作為庫存視頻使用,大多數人將很難確定它是否是人工智能生成的。即使現在ChatGPT剛剛發布一年多,人們也很難確定文本是否是人工智能生成的,可用的檢測工具也不夠可靠。
雖然早期人工智能生成的內容對偶然發現它們的普通觀眾來說更顯而易見,但我認為未來人工智能會具有顛覆性影響。今年是美國的選舉年,隨著人工智能產生的政治錯誤信息,在向公眾發布此工具之前,OpenAI需要考慮人工智能生成視頻的道德使用問題。因為已經有利用人工智能操縱選舉的先例。但是人工智能監管能夠控制它嗎?或者任何立法都太輕、太晚了嗎?
原文標題:Meet Sora, OpenAI’s impressive new video generation tool
原文作者:Scott Thompson