智東西(公眾號:zhidxcom)
作者 |? 陳駿達
編輯 |? 李水青

智東西3月27日報道,今天,在中關(guān)村論壇上,智譜CEO張鵬、月之暗面CEO楊植麟(擔任主持)、小米MiMo大模型負責人羅福莉、無問芯穹CEO夏立雪和香港大學助理教授黃超罕見同臺,進行了一場圍繞開源大模型與智能體未來走向的深度對話。

這場對話以當下最火的OpenClaw切入,幾位嘉賓一致認為,智能體讓大模型真正開始“干活”了。OpenClaw可擴展大模型的能力邊界,但也對模型提出了更高要求,智譜正研究長程規(guī)劃、自我調(diào)試等能力,而羅福莉的團隊更關(guān)注通過架構(gòu)創(chuàng)新把成本降下來、速度提上去,甚至實現(xiàn)模型自進化。

基礎(chǔ)設(shè)施也得跟上智能體的節(jié)奏。夏立雪認為現(xiàn)在的算力系統(tǒng)和軟件架構(gòu)還是給人用的,不是給智能體用的,其實是用人的操作能力限制了Agent的發(fā)揮空間。因此,我們需要打造Agentic Infra。

在多位嘉賓眼中,開源是推動大模型與智能體發(fā)展的核心動力之一。香港大學助理教授黃超便認為,開源生態(tài)的繁榮是智能體從“玩一玩”走向真正“打工人”的關(guān)鍵,只有通過社區(qū)共建,才能讓軟件、數(shù)據(jù)和技術(shù)全面轉(zhuǎn)向智能體原生形態(tài),最終形成可持續(xù)的全球AI生態(tài)。

此外,幾位嘉賓還就大模型漲價、token用量爆發(fā)、AI未來12個月的關(guān)鍵詞等話題,展開討論。以下是這場圓桌論壇的核心觀點:

1、張鵬:模型變大后推理成本也會相應(yīng)提高,近期智譜的漲價策略其實是回歸到正常的商業(yè)價值上了,長期低價競爭不利于行業(yè)發(fā)展。

2、張鵬:智能體等新技術(shù)的爆發(fā)讓token用量增長了10倍,但實際需求可能增長100倍,仍有大量需求未被滿足,因此算力仍然是未來12個月內(nèi)的關(guān)鍵問題。

3、羅福莉:從基座大模型廠商的視角來看,OpenClaw保證了基礎(chǔ)大模型的下限,拉高了上限。國產(chǎn)開源模型+OpenClaw的任務(wù)完成度已經(jīng)非常接近Claude。

4、羅福莉:DeepSeek給國內(nèi)大模型廠商帶來了勇氣和信心。一些看似是“為了效率妥協(xié)”的模型結(jié)構(gòu)創(chuàng)新引發(fā)了真正的變革,讓業(yè)界在算力一定的情況下發(fā)揮出最高的智能水平。

5、羅福莉:接下來一年AGI歷程中最重要的事情是“自進化”。自進化讓大模型像頂尖科學家一樣去探索,是唯一能“創(chuàng)造新東西”的地方。小米已經(jīng)借助Claude Code+頂尖模型,將研究效率提升10倍。

6、夏立雪:當AGI時代到來時,基礎(chǔ)設(shè)施本身都應(yīng)該是智能體,自主管理整個基礎(chǔ)設(shè)施,根據(jù)AI客戶的需求去迭代基礎(chǔ)設(shè)施,實現(xiàn)自我進化、自我迭代。

7、夏立雪:OpenClaw引爆了token用量。如今的token消耗速度,就像當年3G時代手機流量剛起步時,每個月只有100M額度的那種感覺。

8、黃超:未來很多軟件都不是面向人類的,軟件、數(shù)據(jù)和技術(shù)都會編程Agent-Native的形態(tài),人類未來可能只需要使用那些“讓自己快樂的GUI”。

以下是這場圓桌論壇的完整實錄:

一、OpenClaw就是“腳手架”,大模型token消耗仍處于3G時代

楊植麟:很榮幸今天能邀請到各位重磅嘉賓,幾位嘉賓來自模型層、算力層再到agent層。今天最主要的關(guān)鍵詞是開源,然后還有agent。

第一個問題來談?wù)劕F(xiàn)在最流行的OpenClaw。大家日常使用OpenClaw或者類似的產(chǎn)品有什么覺得最有想象力或者印象深刻的點?從技術(shù)的角度來看,如何看待今天OpenClaw和相關(guān)的Agent的演進。

楊植麟主持、羅福莉張鵬拋干貨,這場“龍蝦局”把AI未來聊透了

張鵬:很早我就開始自己玩OpenClaw,當時還叫Clawbot。我自己動手來折騰,畢竟也是程序員出身,玩這些東西還是有一些自己的體驗。

我覺得OpenClaw給大家?guī)淼淖畲笸黄泣c,或者說新鮮感就在于,它不再是程序員或極客們的專利。普通人也可以比較方便地使用頂尖模型的能力,尤其是在編程和智能體方面的能力。

所以我到現(xiàn)在為止,跟大家在交流的過程當中,我更愿意把OpenClaw稱作“腳手架”。它提供的是一種可能性,在模型的基礎(chǔ)之上搭起了一個很牢固、很方便,但是又很靈活的腳手架。大家可以按照自己的意愿,去使用很多底層模型提供的新奇功能。

原來自己的想法可能會受限于不會寫代碼,或者沒有掌握其他的相關(guān)技能,今天有了OpenClaw,終于可以通過很簡單的交流就把它完成。

OpenClaw給我?guī)矸浅4蟮臎_擊,或者說讓我重新認識了這件事。

楊植麟主持、羅福莉張鵬拋干貨,這場“龍蝦局”把AI未來聊透了

夏立雪:其實我最開始用OpenClaw的時候是不太適應(yīng)的,因為我習慣于跟大模型聊天的交流方式,使用后我感覺OpenClaw反應(yīng)好慢。

但后來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不同,本質(zhì)是一個能幫我完成大型任務(wù)的“人”。我開始給它提交更復雜的任務(wù),就發(fā)現(xiàn)其實它能夠做的很好。

這件事情給我?guī)砗艽蟮母杏|。模型一開始按照token去聊天,到現(xiàn)在能夠變成一個agent,變成一個龍蝦,能夠幫你去完成任務(wù)。這件事對AI的整體想象力空間帶來很大的提升。

同時,它對于整個系統(tǒng)的能力的要求也變得很高。這也是為什么我一開始用OpenClaw,會覺得它有點卡。作為基礎(chǔ)設(shè)施層的廠商,我看到的是OpenClaw對于AI背后的大型系統(tǒng)和生態(tài)都帶來了更多的機遇和挑戰(zhàn)。

我們現(xiàn)在所有能夠用到的資源,想要支撐起這樣一個快速增長的時代是不夠的。比如說就拿我們公司來說,我們公司從一月底開始,基本上每兩周token用量就翻一番,到現(xiàn)在基本上漲了10倍。

上次見到這個速度,還是當年用3G手機消耗流量的時候。我有種感覺,現(xiàn)在的token用量,就像當年每個月只有100M手機流量的那個時代。

這種情況下,我們所有的資源都需要進行更好的優(yōu)化,進行更好的整合。讓每一個人,不僅僅在AI領(lǐng)域,而是在整個社會中的每一個人都能夠去把OpenClaw的AI能力用起來。

作為基礎(chǔ)設(shè)施的玩家,我對這個時代是非常激動、深有感觸的。我也認為這里邊有很多的優(yōu)化空間是我們?nèi)匀粦?yīng)該去探索,應(yīng)該去嘗試的。

二、OpenClaw拉高國產(chǎn)模型上限,交互模式突破意義重大

羅福莉:我自己是把OpenClaw當做agent框架演進過程中,一個極具革命性和顛覆性的事件來看待的。

其實我身邊所有在進行非常深度coding的人,他們的第一選擇還是Claude Code。但是,我相信用OpenClaw的人會感受到,它在Agent框架上的很多設(shè)計是領(lǐng)先于Claude Code的。最近Claude Code有很多更新其實都是在向OpenClaw去靠近。

我自己使用OpenClaw時的感受是,這個框架給我自己帶來更多是想象力的隨時隨地的擴展。Claude Code最開始只能在我的桌面上去延展我的創(chuàng)意,但是OpenClaw可以隨時隨地去延展我的創(chuàng)意。

OpenClaw帶來的核心價值主要有兩點。第一點是它開源。開源這件事,非常有利于整個社區(qū)深度參與進來,重視并推動這個框架的演進,這是一個很重要的前置條件。

像OpenClaw這樣的AI框架,我覺得一個很大的價值在于,它把國內(nèi)那些水平雖然接近閉源模型、但還沒完全追上的模型的上限拉到了很高。

在絕大多數(shù)場景下,你會發(fā)現(xiàn)它(國產(chǎn)開源模型+OpenClaw)的任務(wù)完成度已經(jīng)非常接近Claude的最新模型。同時,它又很好地把下限保證了——通過一套Harness系統(tǒng),或者說借助它的Skills體系等多方面的設(shè)計,保障了任務(wù)的完整度和準確率。

總結(jié)一下,從基座大模型廠商的開發(fā)者角度來看,OpenClaw保證了基礎(chǔ)大模型的下限,拉高了上限。

楊植麟主持、羅福莉張鵬拋干貨,這場“龍蝦局”把AI未來聊透了

此外,我認為它給整個社區(qū)帶來的另一個價值是,它點燃了大家的認知,讓大家發(fā)現(xiàn)在大模型之外,Agent這一層其實蘊藏著非常大的想象空間。

我最近也觀察到,社區(qū)里除了研究員之外,越來越多的人開始參與到AGI的變革中來,更多人開始接觸像Harness、Scaffold這樣更強大的Agent框架。這些人某種程度上是在用這些工具替代自己的一部分工作,同時也是在釋放自己的時間,去投入到更有想象力的事情上。

黃超:我覺得首先從交互模式來講,OpenClaw這次之所以能火,第一個原因可能是它給了一種更有“活人感”的體驗。其實我們做Agent也有一兩年了,但之前像Cursor、Claude Code這些Agent,給人的感覺更多是一種“工具感”。而OpenClaw第一次以“即時通訊軟件嵌入”的方式,讓人更有一種接近心目中“個人賈維斯”的感覺。我覺得這可能是交互模式上的一個突破。

另外一點,它給整個社區(qū)帶來的啟發(fā)是:像Agent Loop這種簡單但高效的框架,再次被證明是可行的。同時,它也讓我們重新思考一個問題:我們到底是需要一個全能型的、能做所有事情的超級智能體,還是需要一個更好的“小管家”,像一個輕量級的操作系統(tǒng)或腳手架?

OpenClaw帶來的思路是,通過這樣一個“小系統(tǒng)”或者說“龍蝦操作系統(tǒng)”和它的生態(tài),讓大家真正有“玩起來”的心態(tài),進而撬動整個生態(tài)里的所有工具。

隨著Skills、Harness這類能力的出現(xiàn),越來越多的人可以去設(shè)計面向OpenClaw這類系統(tǒng)的應(yīng)用,去賦能各行各業(yè)。我覺得這一點天然就跟整個開源生態(tài)結(jié)合得非常緊密。在我看來,這兩點是我們獲得的最大啟發(fā)。

三、GLM新模型專為“干活”打造,漲價是對正常商業(yè)價值的回歸

楊植麟:想問一下張鵬。最近看到智譜發(fā)布了新的GLM-5 Turbo模型,我理解在Agent能力上做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有提價的策略,這反映了什么樣的市場信號?

張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,這其實是我們整個發(fā)展路標中的一個階段,只是提前把它放了出來。

最主要的目的,是從原來的“簡單對話”轉(zhuǎn)向“真正干活”——這也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能幫人干活了。

但“干活”背后隱含的能力要求非常高。模型需要自己去做長程的任務(wù)規(guī)劃、不斷試錯、壓縮上下文、調(diào)試,還可能要處理多模態(tài)信息。所以它對模型能力的要求,和傳統(tǒng)面向?qū)υ挼耐ㄓ媚P推鋵嵅惶粯?。GLM-5 Turbo就是在這些方面做了專門加強,尤其是你提到的——讓它干活、跑上七十二小時,怎么能夠不停地loop,這里邊我們做了很多工作。

另外大家也很關(guān)注token消耗的問題。讓一個聰明的模型去干復雜任務(wù),token的消耗量是巨大的。普通人可能感知不深,但看賬單的時候會發(fā)現(xiàn)錢掉得特別快。所以我們在這方面也做了優(yōu)化,在面臨復雜任務(wù)時,模型能用更高效的token效率去完成??傮w上,模型的架構(gòu)還是多任務(wù)協(xié)同的通用架構(gòu),只是在能力上做了偏向性的加強。

提價這件事其實也很好解釋。剛才說了,現(xiàn)在不再是簡單地問一個問題就得到一個回答,背后的推理鏈路非常長。很多任務(wù)要通過寫代碼和底層基礎(chǔ)設(shè)施打交道,還要不斷debug、修正錯誤,消耗量非常大。完成一個復雜任務(wù)需要的token量,可能是原來回答一個簡單問題的十倍甚至百倍。

所以價格上需要有一定的提升,模型也變大了,推理成本相應(yīng)提高了。我們把它回歸到正常的商業(yè)價值上,因為長期靠低價競爭也不利于整個行業(yè)的發(fā)展。這也是我們讓商業(yè)化能形成一個良性閉環(huán),持續(xù)優(yōu)化模型能力,給大家提供更好服務(wù)的。

四、打造更高效token工廠,基礎(chǔ)設(shè)施本身也應(yīng)該是Agent

楊植麟:現(xiàn)在開源模型越來越多,也開始形成生態(tài),各種模型可以在不同的算力平臺上給用戶提供更多價值。隨著 token用量的爆發(fā),大模型也正在從訓練時代走向推理時代。想請教一下立雪,從基礎(chǔ)設(shè)施的層面來看,推理時代對于無問來說意味著什么?

夏立雪:我們是一家誕生在AI時代的基礎(chǔ)設(shè)施廠商,現(xiàn)在也在為智譜、Kimi、Mimo等提供支持,讓大家能把token工廠更高效地用起來。同時我們也在跟很多高校、科研院所合作。

所以我們一直在思考一件事:AGI時代需要什么樣的基礎(chǔ)設(shè)施?以及我們怎么一步步去實現(xiàn)和推演它。我們現(xiàn)在對短期、中期、長期不同階段需要解決的問題,已經(jīng)做好了充分準備。

當前最直接的問題,就是大家剛才聊到的——整個Open帶起來的token量暴增,對系統(tǒng)效率提出了更高的優(yōu)化需求。包括價格的調(diào)整,其實也是在這個需求下的一種應(yīng)對方式。

我們一直是通過軟硬件打通的方式來布局和解決的。比如我們接入了幾乎所有種類的計算芯片,把國內(nèi)十幾種不同的芯片和幾十個不同的算力集群統(tǒng)一連接起來。這樣能解決AI系統(tǒng)里算力資源緊缺的問題,資源不足時,最好的辦法就是先把能用上的資源都用起來,然后讓每一個算力都用在刀刃上,發(fā)揮出最大的轉(zhuǎn)化效率。

所以在這個階段,我們要解決的就是怎么打造一個更高效的token工廠。這里邊我們做了很多優(yōu)化,包括讓模型和硬件上的顯存等各種資源做最優(yōu)適配,也在看最新的模型結(jié)構(gòu)和硬件結(jié)構(gòu)之間能不能產(chǎn)生更深的化學反應(yīng)。但解決當前的效率問題,其實只是打造了一個標準化的token工廠。

楊植麟主持、羅福莉張鵬拋干貨,這場“龍蝦局”把AI未來聊透了

面向Agent時代,我們認為這還不夠。因為Agent更像一個人,可以交給它一個任務(wù)。我堅定地認為,當前很多云計算時代的基礎(chǔ)設(shè)施,是為服務(wù)一個程序、服務(wù)人類工程師設(shè)計的,而不是為AI設(shè)計的。這相當于我們做了一個基礎(chǔ)設(shè)施,上面是給人用的接口,再在上面包一層去接入Agent,這種方式其實是用人的操作能力限制了Agent的發(fā)揮空間。

舉個例子,Agent能做到毫秒級別去思考和發(fā)起任務(wù),但像K8s(kubernetes)這類底層能力,其實并沒有為此做好準備,因為人類發(fā)起任務(wù)大概是分鐘級的。所以我們需要更進一步的能力,我們把它叫“Agentic Infra”,也就是“智慧化的token工廠”,這是無問芯穹在做的事情。

更長遠地看,真正AGI時代到來時,我們認為連基礎(chǔ)設(shè)施本身都應(yīng)該是智能體。我們打造的這套工廠,也應(yīng)該是能自我進化、自我迭代的,能形成一個自主的組織。它相當于有一個CEO,這個CEO本身就是一個Agent,可能是OpenClaw,去管理整個基礎(chǔ)設(shè)施,然后根據(jù)AI客戶的需求自己去提需求、迭代基礎(chǔ)設(shè)施。這樣AI和AI之間才能更好地耦合。我們也在做一些探索,比如讓Agent之間更好地通信、做Cache to Cache這樣的能力。

所以我們一直在思考的是,基礎(chǔ)設(shè)施和AI的發(fā)展不應(yīng)該是一個隔離的狀態(tài)——我接到需求就去實現(xiàn),而是應(yīng)該產(chǎn)生非常豐富的化學反應(yīng)。這才是真正意義上的軟硬協(xié)同、算法和基礎(chǔ)設(shè)施的協(xié)同,也是無問芯穹一直想實現(xiàn)的使命。謝謝。

五、“為效率妥協(xié)”的創(chuàng)新也有意義,DeepSeek給國內(nèi)團隊帶來勇氣和信心

楊植麟:接下來想問一下福莉。小米最近通過發(fā)布新模型、開源背后的技術(shù),對社區(qū)做出了很大的貢獻。想問你,小米在做大模型方面,你覺得有什么獨特的優(yōu)勢?

羅福莉:我覺得可以先拋開小米有什么獨特優(yōu)勢這個話題,我更想聊一聊中國做大模型的團隊整體上的一個優(yōu)勢。我覺得這個話題有更廣泛的價值。

大概兩年前,中國的基座模型團隊已經(jīng)開始了非常好的突破——我們在有限的算力、尤其是在一些NVLink互聯(lián)帶寬受限的算力條件下,怎么去突破這些低端算力的限制,做一些看似是“為了效率妥協(xié)”的模型結(jié)構(gòu)創(chuàng)新,比如DeepSeek V2、V3系列,以及MoE、MLA等等。

但后來我們看到,由這些創(chuàng)新引發(fā)的是一個變革:在算力一定的情況下,怎么發(fā)揮出最高的智能水平。這是DeepSeek給國內(nèi)所有基座模型團隊帶來的勇氣和信心。雖然今天我們的國產(chǎn)芯片,尤其是推理芯片,以及訓練芯片,已經(jīng)不再受這種限制,但正是在這種限制下,催生了我們對更高訓練效率、更低推理成本的模型結(jié)構(gòu)的新探索。

就像最近出現(xiàn)的Hybrid Sparse、Linear Attention這類結(jié)構(gòu),比如DeepSeek的NSA、Kimi 的KSA,小米也有面向下一代結(jié)構(gòu)的HySparse。這些都是區(qū)別于MoE這一代結(jié)構(gòu)的、面向Agent時代去做的模型結(jié)構(gòu)創(chuàng)新。

我為什么覺得結(jié)構(gòu)創(chuàng)新如此重要?其實大家如果真正地去用OpenClaw,會發(fā)現(xiàn)它越用越好用、越用越聰明。其中一個前提是推理的上下文長度。長上下文是一個我們聊了很久的話題,但現(xiàn)在真正有模型能在長上下文下表現(xiàn)很好、性能強勁、推理成本很低嗎?

其實很多模型不是做不到1M或10M的上下文,而是因為推理1M、10M的成本太貴了、速度太慢了。只有把成本降下來、速度提上去,才能把真正高生產(chǎn)力價值的任務(wù)交給模型,才能在這種長上下文下完成更高復雜度的任務(wù),甚至實現(xiàn)模型的自迭代。

所謂模型的自迭代,就是它可以在一個復雜環(huán)境里,依靠超長的上下文完成對自我的進化。這種進化可能是對Agent框架本身的,也可能是對模型參數(shù)本身的——因為我認為上下文本身其實就是對參數(shù)的一種進化。所以怎么實現(xiàn)一個長上下文的架構(gòu),怎么在推理側(cè)做到長上下文高效推理,是一個全方位的競爭。

除了我剛剛提到的預(yù)訓練階段做好long-context-efficient的架構(gòu)——這大概是我們一年前就開始探索的問題?,F(xiàn)在真正要做到在長程任務(wù)上的穩(wěn)定性和高上限的效果,是我們在后訓練階段正在迭代的創(chuàng)新范式。

我們在想怎么構(gòu)造更有效的學習算法,怎么采集到真實環(huán)境下、在1M、10M、100M上下文里真正具有長期依賴關(guān)系的文本,以及結(jié)合復雜環(huán)境產(chǎn)生的軌跡數(shù)據(jù)。這是我們后訓練正在做的事情。

但更長期來看,由于大模型本身的飛速進步,加上Agent框架的加持,就像立雪說的,推理需求在過去一段時間已經(jīng)有近十倍的增長。那么今年整個token用量的增長會不會到100倍?

這里邊又進入另一個維度的競爭——算力,或者說推理芯片,甚至再往下到能源。所以我覺得,如果大家一起思考這個問題,我可能會從大家身上學到更多。謝謝。

六、Agent有三大關(guān)鍵模塊,多Agent爆發(fā)將帶來沖擊

楊植麟:非常有洞察的分享。下面想問一下黃超,你開發(fā)過像Nanobot這樣很有影響力的Agent項目,也有很多社區(qū)的粉絲。想問你從Agent的Harness或者應(yīng)用層面來看,接下來有哪些技術(shù)方向是你覺得比較重要、值得大家關(guān)注的?

黃超:我覺得如果把Agent的技術(shù)抽象出來,關(guān)鍵就是Planning、Memory和Tool Use這幾個模塊。

楊植麟主持、羅福莉張鵬拋干貨,這場“龍蝦局”把AI未來聊透了

先說Planning。現(xiàn)在的問題主要是在長程任務(wù)或者非常復雜的上下文中,比如500步甚至更長的步數(shù),很多模型不一定能做很好的規(guī)劃。我覺得本質(zhì)上是模型可能不具備這類隱性知識,尤其是在一些復雜的垂直領(lǐng)域。所以未來可能需要把各種復雜任務(wù)的知識固化到模型里,這可能是一個方向。

當然,Skill、Harness在某種程度上也在緩解Planning帶來的錯誤,因為它提供了高質(zhì)量的Skill,本質(zhì)上也是在引導模型去完成一些比較難的任務(wù)。

再說Memory。Memory給人的感覺是,它好像總是存在信息壓縮不準確、檢索不準的問題。特別是在長程任務(wù)和復雜場景下,Memory的壓力會暴增?,F(xiàn)在像OpenClaw這類項目,大家用的其實都是最簡單的文件系統(tǒng)式的 Markdown格式的Memory,通過共享文件來做。未來Memory可能會走向分層設(shè)計,也需要讓它變得更通用。

老實講,現(xiàn)在的Memory機制很難做到通用——因為Coding場景、Deep Research場景、多模態(tài)場景,它們的數(shù)據(jù)模態(tài)差別很大,怎么對這些Memory做好的檢索和索引,同時又保持高效,這永遠是一個權(quán)衡。

另外,現(xiàn)在OpenClaw讓大家創(chuàng)建Agent的門檻大幅降低之后,未來可能不止一個“龍蝦”。我看到Kimi也有Agent Swarm這樣的機制出來,未來每個人可能會有“一群龍蝦”。

相比于單個龍蝦,一群龍蝦帶來的上下文暴增是可以想象的,這對Memory的壓力會非常大?,F(xiàn)在其實還沒有一套很好的機制去管理這種“一群龍蝦”帶來的上下文,尤其是對復雜Coding、科研發(fā)現(xiàn)這類場景,不管是模型還是整個Agent架構(gòu),壓力都很大。

再說Tool Use,也就是Skill這塊。Skill現(xiàn)在存在的問題,其實和當初MCP的問題類似——MCP當時有質(zhì)量不保障、安全風險等問題?,F(xiàn)在Skill也一樣,看似有很多Skill,但高質(zhì)量的很少,低質(zhì)量的Skill會影響Agent完成任務(wù)的準確度。另外還有惡意注入的問題。所以從Tool Use來看,可能需要靠社區(qū)把整個Skill生態(tài)做得更好,甚至讓Skill能在執(zhí)行過程中自我進化出新的Skill。

總的來說,從Planning、Memory到Tool Use,這些是當下Agent存在的一些痛點,也是未來可能的方向。

七、未來12個月關(guān)鍵詞:生態(tài)、可持續(xù)token、自進化與算力

楊植麟:可以看到兩位嘉賓從不同視角討論了一個共同的問題——隨著任務(wù)復雜度增加,上下文會暴漲。從模型層面可以提升原生上下文長度,從Agent Harness層面,像Planning、Memory、Multi-Agent這樣的機制,也能在特定模型能力下支持更復雜的任務(wù)。我覺得這兩個方向接下來會產(chǎn)生更多化學反應(yīng),進一步提升任務(wù)的完成能力。

最后我們來一個開放式的展望。請各位用一個詞來描述接下來12個月大模型發(fā)展的趨勢以及你的期望。這次先從黃超開始。

黃超:12個月在AI這個領(lǐng)域看起來好遙遠,都不知道12個月之后會發(fā)展成什么樣。

楊植麟:本來這里寫的是五年,我改掉了。

黃超:對,哈哈。我想到的一個詞是“生態(tài)”?,F(xiàn)在OpenClaw讓大家很活躍,但未來Agent真的要成為“打工人”,而不只是大家玩一玩、圖個新鮮感。未來應(yīng)該讓它真正沉淀下來,成為搬磚的工具、成為真正的coworker。這需要整個生態(tài)的努力,尤其是開源,把技術(shù)探索和模型技術(shù)都開源出來之后,需要整個社區(qū)一起共建——不管是模型的迭代,還是Skill平臺的迭代,還有各種工具,都需要更好地面向龍蝦去創(chuàng)造生態(tài)。

一個比較明顯的趨勢是,未來的軟件還會是給人用的嗎?我相信未來很多軟件可能都不一定是面向人類的——因為人類需要的是GUI,而未來可能是面向Agent原生的使用。有趣的是,人可能只去用那些讓自己快樂的GUI。而現(xiàn)在整個生態(tài)又從GUI、MCP轉(zhuǎn)到了CLI的模式。這就需要生態(tài)把軟件系統(tǒng)、數(shù)據(jù)、各種技術(shù)都變成Agent Native的形態(tài),這樣整個發(fā)展才會更加豐富。

羅福莉:把問題縮小到一年,我覺得非常有意義。如果五年的話,從我心目中AGI的定義來看,我覺得已經(jīng)實現(xiàn)了。所以如果用一句話描述接下來一年AGI歷程里最關(guān)鍵的事情,我認為是“自進化”。

這個詞聽起來有點玄幻,過去一年大家也多次提到。但我最近對它有更深的體會,或者說對“自進化”怎么做,有了更務(wù)實、更可行的方案。原因在于,有了強大的模型之后,我們在Chat范式下根本沒有發(fā)揮出預(yù)訓練模型的上限,而Agent框架把這個上限激活了。當我們讓模型執(zhí)行更長時間的任務(wù)時,發(fā)現(xiàn)它可以自己去學習和進化。

一個簡單的嘗試是:在現(xiàn)有的Agent框架里給它加上一個可驗證的條件限制,再給它設(shè)一個Loop,讓模型不停地去迭代優(yōu)化目標,就會發(fā)現(xiàn)它能持續(xù)拿出更好的方案。這種自進化現(xiàn)在其實已經(jīng)能跑一兩天了,當然跟任務(wù)難度有關(guān)。比如在一些科學研究上——探索更好的模型結(jié)構(gòu),因為模型結(jié)構(gòu)有評估標準,比如更低的PPL——在這種確定性的任務(wù)上,我們發(fā)現(xiàn)它已經(jīng)能自主優(yōu)化和執(zhí)行兩三天了。

所以從我的角度看,自進化是唯一能“創(chuàng)造新東西”的地方。它不是替代我們現(xiàn)有的人的生產(chǎn)力,而是像頂尖科學家一樣,去探索世界上還沒有的東西。一年前我會覺得這個時間線要拉到三到五年,但最近我覺得確實應(yīng)該縮小到一到兩年。可能很快我們就能用大模型疊加一個強大的自進化Agent框架,實現(xiàn)對科學研究至少指數(shù)級的加速。

最近我已經(jīng)發(fā)現(xiàn),我們組里做大模型研究的同學,他們的workflow是高度不確定、高度創(chuàng)造性的,但借助Claude Code加上頂尖模型,我們的研究效率已經(jīng)提升了近十倍。我很期待這種范式輻射到更廣泛的學科和領(lǐng)域,所以我覺得“自進化”非常重要。

夏立雪:我的關(guān)鍵詞是“可持續(xù)token”。我看到整個AI的發(fā)展還在一個長期持續(xù)的過程中,我們也希望它有長久的生命力。從基礎(chǔ)設(shè)施的角度看,一個很大的問題是資源終究是有限的。

就像當年講可持續(xù)發(fā)展一樣,我們作為一個 token工廠,能否持續(xù)、穩(wěn)定、大規(guī)模地提供token,讓頂尖模型真正能為更多的下游服務(wù),是我們看到的一個很重要的問題。

我們需要把視角放寬到整個生態(tài)——從能源到算力,再到token,最終到應(yīng)用,形成可持續(xù)的經(jīng)濟化迭代。我們不僅要把國內(nèi)的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能打通和整合。

我也覺得“可持續(xù)”其實是在把中國特色的token經(jīng)濟學做起來。過去我們講Made in China,把中國低價的制造能力變成好的商品輸出到全球。

現(xiàn)在我們要做的是“AI Made in China”——把中國在能源等方面的優(yōu)勢,通過token工廠可持續(xù)地轉(zhuǎn)化成優(yōu)質(zhì)的token,輸出到全球,成為世界的token工廠。這是我今年想要看到的、中國給世界的人工智能帶來的價值。

張鵬:我就簡短一點。大家都在仰望星空,我就落地一點。我的關(guān)鍵詞是“算力”。

剛才也說了,所有技術(shù)、智能體框架讓大家創(chuàng)造力和效率提升了十倍,但前提是大家能真正用得起來。你不能一個問題提出去,讓它思考半天也不給答案,那肯定不行。也因為這樣,很多研究的進展、很多想做的事情都會受阻。

前兩年我記得有位院士在中關(guān)村論壇上說了一句話:“沒卡沒感情,談卡傷感情?!蔽矣X得今天又到了這個地步,但情況又不一樣了。現(xiàn)在我們進入了推理階段,需求真的在爆發(fā)——十倍、百倍地增長。剛才你說用量漲了十倍,那其實需求可能是一百倍呢?還有大量的需求沒被滿足,怎么辦?我們大家可能一起來想想辦法。