騰訊混元上線AI生成視頻並全面開源,文生視頻領域仍處於技術打磨階段
每經記者:黃婉銀 每經編輯:張海妮
12月3日,騰訊混元大模型公佈最新進展:正式上線視頻生成能力,這是繼文生文、文生圖、3D生成之後的又一里程碑。與此同時,騰訊開源該視頻生成大模型,參數量130億,是當前最大的視頻開源模型。
“用戶只需要輸入一段描述,即可生成視頻。”騰訊混元相關負責人透露,目前的生成視頻支持中英文雙語輸入、多種視頻尺寸以及多種視頻清晰度。目前該模型已上線騰訊元寶App,用戶可在AI應用中的“AI視頻”板塊申請試用。企業客戶通過騰訊雲提供服務接入,目前API同步開放內測申請。
《每日經濟新聞》記者從上述負責人處瞭解到,作爲視頻模型,騰訊混元團隊當初在進行設計時,在動作流暢性和大幅度動作上花費了很多心思。另外,現在很多視頻模型有個共同的問題就是在大幅運動的時候會出現畫面抖動,這個難題也是當時其着力解決的事情。
“我們這次模型是全部開源的,遵從混元結構體系,希望豐富社區,我們的算法模型、加速工程都會開放給社區,包括之後的圖聲視頻、驅動綁定和配樂都會按節奏去做開源。現在(AI)視頻生成其實差距還比較大,特別是在文生視頻領域,成熟度其實遠沒有到大家想象中那麼高。”上述負責人告訴記者,一個月前就已經把視頻生成模型訓練完畢,現在對外發布也是水到渠成。
目前,騰訊宣佈開源該視頻生成大模型已在Hugging Face平臺及Github上發佈,包含模型權重、推理代碼、模型算法等完整模型,可供企業與個人開發者免費使用和開發生態插件。
自年初以來,騰訊混元系列模型的開源速度不斷加快。此前,騰訊混元已經開源了旗下文生文、文生圖和3D生成大模型。至此,騰訊混元系列大模型已實現全面開源。
上述負責人補充稱,目前文生視頻仍處於着重進行技術打磨的階段。在此階段推出相關成果,也是期望對外開源,希望與社區一起協作,促使這項技術早日達到像圖像生成那樣真正可用的狀態,當下談論商業化還爲時過早。