周鴻祎談Sora視頻模型:中美的AI差距還在加大
來源:快科技 編輯:非小米 時間:2024-02-17 18:39人閱讀
快科技2月17日消息,OpenAI近日發布首款文生視頻模型——Sora模型,完美繼承DALL·E 3的畫質和遵循指令能力其支持用戶輸入文本描述,生成一段長達1分鐘的高清流暢視頻。
360董事長周鴻祎日前在微博發文,談到OpenAI的文字轉視頻模型Sora,他認為Sora模型意味著 AGI實現將從10年縮短到1年。
周鴻祎稱,AI不一定那么快顛覆所有行業,但它能激發更多人的創作力。
一個視頻或者電影是由無數個60秒組成的,今天Sora可能給廣告業、電影預告片、短視頻行業帶來巨大的顛覆,但它不一定那么快擊敗TikTok,更可能成為TikTok的創作工具。
周鴻祎還指出,國內大模型發展水平表面看已經接近GPT-3.5了,但實際,上跟4.0比還有一年半的差距。
OpenAl手里應該還藏著一些秘密武器,無論是GPT-5,還是機器自我學習自動產生內容,包括AIGC。
奧特曼是個營銷大師,知道怎樣掌握節奏,他們手里的武器并沒有全拿出來,這樣看來中國跟美國的Al差距可能還在加大。
此外,Open AI訓練這個模型應該會閱讀大量視頻,大模型加上Diffusion技術需要對這個世界進行進一步了解,學習樣本就會以視頻和攝像頭捕捉到的畫面為主。
一旦人工 智能接上攝像頭,把所有的電影都看一遍,把YouTube,上和TikTok 的視頻都看一遍,對世界的理解將遠遠超過文字學習。
一幅圖勝過千言萬語,而視頻傳遞的信息量又遠遠超過一幅圖,這就離AGI真的就不遠了,不是10年20年的問題,可能一兩年很快就可以實現。
分享到:
本站所有文章、數據、圖片均來自互聯網,一切版權均歸源網站或源作者所有。
如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com




