每日經(jīng)濟新聞 2026-03-27 19:43:45
每經(jīng)記者|楊卉 每經(jīng)編輯|何小桃 楊軍
記者|楊卉
編輯|何小桃 楊軍 易啟江 校對|段煉
3月27日,2026中關(guān)村論壇年會“人工智能主題日·主題論壇”在京舉辦。小米MiMo大模型負責人羅福莉出現(xiàn)在以“OpenClaw與AI開源”為主題的圓桌論壇環(huán)節(jié)。
羅福莉稱,OpenClaw(俗稱:“龍蝦”)的核心價值有兩點,第一是開源。從基座模型的角度看,這類框架一方面保證了基座大模型的下限,另一方面又拉伸了它的上限。第二是OpenClaw點燃了大家對Agent(智能體)層的想象力。在她看來,隨著大模型及Agent框架的進步,推理需求會繼續(xù)迅速增長,甚至將競爭帶到模型之外的算力、推理芯片、能源層面。
《每日經(jīng)濟新聞》記者注意到,被要求用一個詞描述未來一年大模型發(fā)展的趨勢以及自己的期待時,羅福莉選擇了“進化”。
羅福莉穿著黑白格子衫和牛仔褲,是臺上穿著最松弛的一位嘉賓。作為小米MiMo大模型負責人,她在過去數(shù)月間與團隊一起發(fā)布了多款自研模型,也因95后AI“天才少女”、前DeepSeek研究員等身份標簽備受關(guān)注。

(圖源:主辦方供圖)
談及近期大火的OpenClaw,羅福莉稱,自己將其看作Agent框架層面一個非常革命性、也非常顛覆性的事件。“雖然我知道,我身邊很多做深度Coding(編碼)的人,第一選擇可能仍然是Claude Code(Anthropic公司推出的終端AI編程助手),但我相信,只要真正用過OpenClaw,你就會很明確地感受到,這個框架在很多設(shè)計上其實是領(lǐng)先的。包括最近Claude Code的不少更新,在我看來,某種程度上也是在向OpenClaw靠近。”羅福莉稱。
以自己的使用體驗為例,羅福莉談到,OpenClaw最核心的價值有兩點。第一是開源。她進一步稱,如OpenClaw、Claude Code這樣的框架,很大的價值在于將國內(nèi)那些還沒有完全逼近閉源模型、但已經(jīng)位于開源模型賽道前列的模型,上限顯著拉高了。從基座模型的角度看,這類框架一方面保證了基座大模型的下限,另一方面又拉伸了它的上限。第二是“除此之外,我覺得它給整個社區(qū)帶來的另一個重要價值,是點燃了大家對于Agent層的想象力。”羅福莉稱。

把推理成本打下來 ,把速度提上去
被問及“小米做大模型的獨特優(yōu)勢”時,羅福莉笑著將問題退了回去。“我想先把‘小米做大模型有什么獨特優(yōu)勢’這個問題放一放。我更想談的,其實是中國大模型團隊在做基座模型這件事上的整體優(yōu)勢,因為我覺得這個話題更有普遍價值。”
據(jù)羅福莉介紹,大概從兩年前開始,她就已經(jīng)看到,中國的基座模型團隊在這個方向上出現(xiàn)了非常重要的突破:在有限算力,尤其是在NVLink(由英偉達開發(fā)的一種高速、低延遲的芯片間互連技術(shù))互聯(lián)帶寬受限的情況下,該如何突破這些硬件條件帶來的限制,做一些看起來像是在為效率妥協(xié)、但本質(zhì)上卻是模型結(jié)構(gòu)創(chuàng)新的工作,如 DeepSeek V2、V3系列中的細粒度MoE和MLA等。
“后來我們看到,這類創(chuàng)新其實帶來了一場真正的變化。”在她看來,DeepSeek的出現(xiàn),給了國內(nèi)所有基座模型團隊很大的勇氣和信心。包括DeepSeek的相關(guān)探索,Kimi的相關(guān)方案,以及小米面向下一代模型結(jié)構(gòu)所做的一些研究,都指向同一個問題:進入Agent時代之后,模型結(jié)構(gòu)到底應(yīng)該如何進一步演化。
“剛才我們一直在討論OpenClaw。只要你真正用過就會發(fā)現(xiàn),它往往是越用越好用,越用越聰明。而它成立的一個前提,就是推理階段必須擁有足夠長的context(上下文)。”
羅福莉直言,Long context (長上下文)其實已經(jīng)是一個被討論了很久的話題,但直到今天,大家才真正開始意識到,不是模型做不到百萬級甚至千萬級上下文,而是如果推理成本太高、速度太慢,這件事就沒有現(xiàn)實價值。
“所以,真正關(guān)鍵的問題是,能不能在100萬甚至1000萬級context的情況下,把推理成本打下來,把速度提上去。”在她看來,只有在這種前提下,用戶才會愿意把真正具有高生產(chǎn)力價值的任務(wù)交給模型,模型也才有機會在長上下文環(huán)境中完成更高復(fù)雜度的任務(wù)。甚至可以說,只有到了1000萬級、上億級上下文的階段,才可能真正看到模型的自我迭代能力被釋放出來。
“我們現(xiàn)在也在思考,怎樣構(gòu)造更有效的學習算法;怎樣采集在100萬、1000萬、甚至更長上下文里,真正具有長期依賴關(guān)系的文本;以及怎樣結(jié)合復(fù)雜環(huán)境,生成高質(zhì)量的軌跡數(shù)據(jù)。這些,都是我們正在持續(xù)推進的事情。”
羅福莉稱,自己看到的更長期趨勢是,隨著大模型本身在飛速進步,再疊加Agent框架的加持,推理需求一定會繼續(xù)迅速增長,這就將競爭帶到了另一個維度,模型之外的算力、推理芯片,甚至能源層面的競爭。
被要求用一個詞描述未來一年大模型發(fā)展的趨勢以及自己的期待時,羅福莉選擇了“進化”。同時,她對一年這個時間節(jié)點也表示了贊同。“我覺得,把這個問題收縮到一年的尺度非常有意義。如果把時間拉到5年,在我對AGI的理解里,很多事情幾乎已經(jīng)是必然會發(fā)生的了。”
在她看來,雖然“進化”聽起來有點抽象,但她最近對這個詞有了更具體、也更務(wù)實的理解,也于近期真正開始感受到,“自進化”其實已經(jīng)具備比較可行的實現(xiàn)路徑。她表示,隨著模型能力增強,在過去單純對話式的范式下,預(yù)訓練模型的上限其實并沒有被真正發(fā)揮出來。而今天,這個上限正在被Agent框架逐步激活。
“我們現(xiàn)在已經(jīng)摸到這個邊界了。”羅福莉稱,如果這種“自進化”機制可以持續(xù)運轉(zhuǎn),潛力將會非常大。“現(xiàn)在其實很多國內(nèi)模型已經(jīng)能夠穩(wěn)定跑上一到兩天了。當然,這和任務(wù)難度有關(guān)。”她提到,在一些確定性較強的任務(wù)上,模型已經(jīng)能自主優(yōu)化并持續(xù)執(zhí)行兩三天。
在羅福莉看來,“自進化”是一個真正可能創(chuàng)造新東西的方向,不是簡單地替代人類已有的生產(chǎn)力,而是像頂尖科學家一樣,去探索世界上原本還不存在的東西。一年前,她覺得這個過程大概要三到五年;但到了最近,反而覺得這個時間窗口應(yīng)該縮短到一到兩年。“我們可能很快就能看到,在一個很強的自進化Agent框架加持下,大模型對科學研究帶來至少指數(shù)級的加速。期待這種范式未來能夠輻射到更廣泛的學科和領(lǐng)域。"
分享結(jié)束后,人群涌向羅福莉,她在會議主辦方的引導下快速走向會場外,并以后續(xù)“有事”為由婉拒了采訪訴求,但仍有追逐者一直跟隨。一位志愿者向前對她表達了感謝,提及此前在網(wǎng)絡(luò)上受到羅福莉的文章的啟發(fā),羅福莉做了個握拳的動作,還對這名志愿者說:“加油”。
(每經(jīng)記者李少婷對本文亦有貢獻)

|每日經(jīng)濟新聞 nbdnews 原創(chuàng)文章|
未經(jīng)許可禁止轉(zhuǎn)載、摘編、復(fù)制及鏡像等使用
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP