国产成人一区二区三区久久精品 , 如果爱有天意在线观看免费完整版 , 香港战役电影完整版在线看未删减 , 夺冠电影在线观看完整版1080,国产少妇国语对白污,国产最新视频,久久色网站

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

春節(jié)AI視頻“技術(shù)擂臺”:Seedance 2.0被稱“地表最強”,可靈3.0“電影感”能否反超?實測來了

2026-02-09 20:33:59

2月4日晚間,可靈AI 3.0系列全新上線并啟動內(nèi)測,強調(diào)從“生成畫面”邁向“理解創(chuàng)作語言”。每經(jīng)記者實測顯示,其“智能分鏡”初步具備鏡頭調(diào)度意識,多語言敘事升級,“一致性”從“主題不崩壞”升至“跨模態(tài)統(tǒng)一”。不過,普通用戶使用仍有門檻,且C端普及度尚難與免費大模型抗衡。新的一年,可靈AI需扛住國內(nèi)科技大廠的強勢沖擊。

每經(jīng)記者|王郁彪    每經(jīng)編輯|余婷婷    

AI(人工智能)超級入口競賽正酣,穩(wěn)坐國內(nèi)AI商業(yè)化第一陣營的快手“可靈AI”,自然也不會放過春節(jié)前這波沖量的機會。

2月4日晚間,可靈AI官宣上線可靈AI 3.0系列——“All-in-One”多模態(tài)輸入與輸出的大一統(tǒng)模型體系,包括視頻3.0、視頻3.0 Omni與圖片3.0、圖片3.0 Omni,目前已面向黑金、鉆石、鉑金會員上線,近期將全量開放。這也意味著,可靈AI在不到兩年時間里完成了三次關(guān)鍵升級。與此前解決“多任務(wù)統(tǒng)一”與“基礎(chǔ)一致性”的可靈AI O1模型相比,可靈AI 3.0強調(diào)從“生成畫面”邁向“理解創(chuàng)作語言”。

2月9日,知名科普博主“影視颶風(fēng)”的一則評測視頻讓字節(jié)跳動旗下視頻生成模型Seedance 2.0“出圈”,評測顯示其在視頻大范圍運動、分鏡、音畫匹配等方面均有突破。游戲科學(xué)CEO(首席執(zhí)行官)馮驥當(dāng)天也在微博公開評價了Seedance 2.0,甚至直呼“當(dāng)前地表最強的視頻生成模型,沒有之一”。


圖片來源:Bilibili官網(wǎng)截圖

此外,同日還有消息稱小紅書技術(shù)團隊正研發(fā)視頻剪輯類AI產(chǎn)品OpenStoryline,目前尚在測試階段,后續(xù)或開源。雖然小紅書方面暫未回應(yīng),但國內(nèi)大模型公司這波“瘋狂更新”疊加春節(jié)“紅包大戰(zhàn)”的如期到來,無疑引爆了2026年AI競賽的整體態(tài)勢。

單純比拼模型實力的賽段或?qū)⒊蔀檫^去,搶用戶、爭入口、拼規(guī)模,已然是一場“生死戰(zhàn)”。在最新這波春節(jié)“技術(shù)擂臺”中,可靈3.0究竟有沒有機會反超?《每日經(jīng)濟新聞》記者獲得了為數(shù)不多的超前內(nèi)測名額,一測究竟。

實測可靈AI 3.0“智能分鏡”:初步具備鏡頭調(diào)度意識

據(jù)官方介紹,可靈AI 3.0系列模型不再局限于生成畫面,而是開始理解視頻創(chuàng)作本身。具體有何表現(xiàn)?可靈AI方面向《每日經(jīng)濟新聞》記者表示,這一能力主要體現(xiàn)在鏡頭關(guān)系、敘事節(jié)奏、角色邏輯與視聽語言等方面。AI視頻模型開始理解鏡頭、運鏡、節(jié)奏和上下文關(guān)聯(lián),可針對臺詞設(shè)計分鏡、搭配畫外音,對各類高階視聽語言需求均能作出響應(yīng)。

每經(jīng)記者實測了可靈AI 3.0“智能分鏡”功能,并輸入包含專業(yè)名詞的復(fù)雜提示詞:“超高速動漫戰(zhàn)斗,電影攝像機并行飛行,劇烈震動以展示規(guī)模感,運用遠、全、中、近、特寫不同景別,結(jié)合俯拍與仰拍視角?!?/p>

從生成視頻效果來看,可靈AI 3.0生成了包含全景展現(xiàn)場面、中近景聚焦角色搏斗、特寫捕捉?jīng)_擊波和面部表情的連貫視頻。打斗場面連貫性強,不再是隨機堆砌炫酷畫面,而是有意識地運用鏡頭語言來服務(wù)“戰(zhàn)斗的暴力感與規(guī)模感”這一核心敘事。

圖片來源:可靈AI3.0智能分鏡功能實測截圖

這說明可靈AI 3.0初步具備鏡頭調(diào)度意識。對于普通用戶而言,這意味著用相對專業(yè)的術(shù)語描述想法,就有可能獲得結(jié)構(gòu)成熟、富有電影感的短片,在一定程度上降低了專業(yè)敘事影像的制作門檻。

此外,在多角色、多語言敘事上,可靈AI 3.0系列模型也有升級。

這一輪測試,每經(jīng)記者輸入了簡單的提示詞:“一人說優(yōu)雅英式英語,一人說美式英語,一人穿插日語臺詞?!睆纳尚Ч軌蚩闯觯皇且舢嬐接忻黠@提升,二是支持多語言與方言混說。

圖片來源:可靈AI 3.0功能實測截圖

記者實測后發(fā)現(xiàn),視頻中不同角色說不同語言時,口型、面部肌肉運動甚至神態(tài)情緒都與語音高度匹配。這無疑將AI視頻長期“對口型”不準(zhǔn)的尷尬問題向前推進了一步。官方介紹稱,模型通過“原生跨模態(tài)音頻引擎”,實現(xiàn)了音色還原與提示詞指代的精確對齊。而官方支持中文多種方言,也為本土化內(nèi)容創(chuàng)作打開了空間。

值得注意的是,“智能分鏡”已成為快手、字節(jié)跳動本輪技術(shù)升級的重點,在科普博主“影視颶風(fēng)”最新發(fā)布的字節(jié)視頻模型Seedance 2.0的評測中,影視颶風(fēng)創(chuàng)始人Tim高度稱贊其生成視頻的精細度、分鏡連續(xù)性及音畫匹配度等。比如,Tim稱其分鏡具有“明顯的角度切換”,能夠像真人導(dǎo)演一樣不斷改變攝影機的位置,并直言其是“改變視頻行業(yè)的AI”。

“一致性”升級:從“主題不崩壞”到“角色、表演、語音、敘事的跨模態(tài)統(tǒng)一”

“一致性”幾乎是AI視頻創(chuàng)作中最難攻克的問題。其不僅包括人物主體一致性,如人物不崩壞、動作連續(xù)等,還包括時序的一致性即長鏡頭、多鏡頭銜接穩(wěn)定;場景與風(fēng)格一致性,即多風(fēng)格同框仍自然協(xié)調(diào);多語言輸出一致性,即跨語言版本仍保持視覺與角色統(tǒng)一等。

此外,商業(yè)一致性,即文字可用、不變形,商品與Logo(品牌標(biāo)志)穩(wěn)定等也同樣重要。視頻生成高度一致性的保持,是決定AI視頻是否可以實現(xiàn)“直接交付”的關(guān)鍵。

每經(jīng)記者將此前實測可靈AI 2.6模型時使用的同一提示詞——“《瘋狂動物城》里的兔子朱迪和狐貍尼克,正在跳雙人華爾茲的舞蹈,場景在水晶王宮的舞會上,添加其他舞會成員”輸入至3.0模型進行了對比測試。結(jié)果發(fā)現(xiàn),3.0模型在一致性提升方面相對明顯。

圖片來源:可靈AI 3.0功能實測截圖

首先是人物主體的一致性。記者發(fā)現(xiàn),3.0模型在快速動作時主體沒有崩壞痕跡;其次是風(fēng)格與場景一致性,2.6模型在補充“其他舞會成員”時模糊處理了場景、風(fēng)格,而3.0模型則相對保持風(fēng)格一致。此外,兩款模型在語義理解上差異明顯,3.0模型生成的主體人物更接近描述要求。同時,3.0模型的智能分鏡功能可以為靜態(tài)提示詞補充分鏡設(shè)計,讓視頻更具看點和觀感。在多角色表現(xiàn)上,3.0模型能讓角色在完成動作的同時,保持語音情緒、音色準(zhǔn)確以及風(fēng)格的相對統(tǒng)一。

圖片來源:可靈AI 3.0功能實測截圖

整體而言,在3.0體系下,“一致性”已從“主體不崩壞”升級為“角色、表演、語音、敘事邏輯的跨模態(tài)統(tǒng)一”。這使得從創(chuàng)意到成品的視頻生成流程變得相對省時省力,尤其適用于需要強表現(xiàn)力的交付場景等。對于普通C端(消費者)用戶而言,能夠快速獲得觀感良好的視頻成品,體驗感明顯提升。

對于一致性的提升,可靈AI方面告訴記者,可靈AI 3.0 是“ All-in-One”的多模態(tài)視頻模型,即通過一個模型實現(xiàn)文字、圖片、聲音、視頻等多模態(tài)信息的輸入與輸出?!癆ll-in-One”并非功能堆疊,而是通過一體化模型實現(xiàn)更為原生的多模態(tài)交互。

值得一提的是,從字節(jié)視頻模型Seedance2.0的測評效果,馮驥在微博中也提及:“AI理解多模態(tài)信息(文、畫、影、音)并整合的能力完成了一次飛躍,令人驚嘆?!?/p>

普通用戶使用門檻依然較高

整體實測下來記者發(fā)現(xiàn),對于普通C端用戶而言,這個從靜態(tài)概念到動態(tài)影片的視頻創(chuàng)作流程仍需相對專業(yè)的操作,使用起來有一定的門檻。特別是在利用3.0 Omni對內(nèi)容進行修改時,若提示詞輸入不夠?qū)I(yè),視頻往往需要反復(fù)抽卡。

每經(jīng)記者用國產(chǎn)大模型DeepSeek生成了一個復(fù)雜提示詞,實測整個視頻生成的場景推演流程。

第一步:用“圖片3.0”完成構(gòu)思。利用其“強化影視級敘事畫面”和“4K輸出”能力,生成一張電影級角色設(shè)定圖或場景氛圍圖。

圖片來源:可靈AI 3.0功能實測截圖

第二步:用“視頻3.0”實現(xiàn)動態(tài)化。將上圖作為“圖生視頻+主體參考”輸入,通過“自定義分鏡”功能精確規(guī)劃每個鏡頭的時長、景別,生成一段有敘事節(jié)奏的動態(tài)視頻。

圖片來源:可靈AI 3.0功能實測截圖

第三步:用“視頻3.0 Omni”進行替換與精修。將原生成視頻中的數(shù)字角色,替換成此前測試一致性時所用提示詞中的《瘋狂動物城》朱迪這個主體。

從視頻生成效果來看,3.0模型在“主體相似度更穩(wěn)定”“對文本指令響應(yīng)更靈敏”上有進步,復(fù)雜敘事的可控性也有一定提升。

圖片來源:可靈AI 3.0功能實測截圖

綜合來看,3.0系列這一升級更偏向可靈AI當(dāng)前主要的P端(指自媒體視頻創(chuàng)作者和廣告營銷從業(yè)者等專業(yè)用戶)用戶或?qū)I(yè)團隊,普通C端用戶很難完整執(zhí)行這個創(chuàng)作流程。對于個人創(chuàng)作者、小團隊而言,它將傳統(tǒng)流程上需要多個軟件、反復(fù)導(dǎo)入導(dǎo)出的“概念設(shè)計—預(yù)演—實拍合成”環(huán)節(jié)壓縮在單一平臺內(nèi),一定程度上降低了實驗成本等。

貼近C端市場才是可靈AI的大考

近段時間,多家國產(chǎn)大模型廠商幾乎同步更新模型進展。阿里千問、DeepSeek與月之暗面Kimi紛紛下場參賽。從此次各家更新方向來看,大模型的能力進階以及市場競爭的焦點,已然跳出了單純比拼參數(shù)與輸出表現(xiàn)的階段,邁向了工程化階段。

但與大語言模型有所不同,視頻生成模型在C端用戶特別是國內(nèi)用戶的日常使用場景中相對低頻,且天然具備更高使用門檻,可靈想要與阿里千問、騰訊元寶以及字節(jié)跳動豆包等搶食C端市場蛋糕,難度更大。

對于普通用戶而言,使用全新可靈AI 3.0模型生成一次高質(zhì)量的3秒到15秒視頻,需要耗費36至180“靈感值”(可靈AI貨幣),其在C端的普及度現(xiàn)階段依舊很難與免費的大語言模型抗衡。

隨著OpenAI正式發(fā)布第二代AI視頻生成模型Sora 2,并將視頻生成與社交互動深度融合,C端消費級應(yīng)用的落地進程明顯加快。2025年12月,阿里千問App(應(yīng)用程序)第一時間接入了萬相2.6視覺大模型,全力對標(biāo)Sora 2。記者了解到,萬相2.6支持音畫同步、多鏡頭生成及聲音驅(qū)動等功能,號稱“全球功能最全的視頻生成模型”。

快手科技創(chuàng)始人兼首席執(zhí)行官程一笑在2025年三季度財報電話會上指出,“當(dāng)前我們的主要精力依然是面向?qū)I(yè)創(chuàng)作者,但未來也會將可靈的技術(shù)能力進一步產(chǎn)品化,與社交互動結(jié)合,加速C端應(yīng)用的商業(yè)化”。從目前情況來看,上述產(chǎn)品化思路尚未落地兌現(xiàn),可靈AI仍聚焦于模型能力的進化迭代。

事實上,2025年年底,豆包已開始向抖音商城導(dǎo)流——當(dāng)用戶詢問選購意見時,豆包會直接推薦商品并附上來自抖音商城的購買鏈接。由此可見,可靈AI的產(chǎn)品化以及與整個快手生態(tài)的聯(lián)動可能會變得更加緊迫。新的一年,可靈AI還要持續(xù)面對來自阿里、字節(jié)等國內(nèi)科技大廠的輪番轟炸式“襲擊”,快手只能既快又穩(wěn)。

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

1

0