4月21-22日,GenAICon 2026 | 2026中國(guó)生成式AI大會(huì)(北京站)將在北京富力萬(wàn)麗酒店正式舉行。中國(guó)生成式AI大會(huì)已成功舉辦四屆,現(xiàn)已成為國(guó)內(nèi)人工智能領(lǐng)域最具影響力的產(chǎn)業(yè)峰會(huì)之一。

本次大會(huì)由智一科技旗下智東西聯(lián)合智猩猩發(fā)起主辦,為期兩天,由開幕式+專題論壇+研討會(huì)+交流晚宴+展覽區(qū)組成,將以“奔赴AGI 重塑未來(lái)”為主題,邀請(qǐng)70+位重量級(jí)嘉賓與會(huì)帶來(lái)致辭、報(bào)告、演講和對(duì)話。

其中,開幕式將于4月21日上午在主會(huì)場(chǎng)+分會(huì)場(chǎng)一拉開帷幕;4月21日下午主會(huì)場(chǎng)將進(jìn)行AI算力基礎(chǔ)設(shè)施專題論壇,大模型專題論壇、AI智能體專題論壇則將于4月22日在主會(huì)場(chǎng)依次進(jìn)行。

同時(shí),大會(huì)首次開設(shè)了六場(chǎng)閉門技術(shù)研討會(huì),分別于分會(huì)場(chǎng)一和分會(huì)場(chǎng)二進(jìn)行。

分會(huì)場(chǎng)一將于4月21日下午進(jìn)行大模型記憶技術(shù)研討會(huì),4月22日則將依次進(jìn)行LLM強(qiáng)化學(xué)習(xí)技術(shù)研討會(huì)、LLM推理系統(tǒng)技術(shù)研討會(huì);分會(huì)場(chǎng)二將于4月21日下午進(jìn)行生成式世界模型技術(shù)研討會(huì),4月22日則將依次進(jìn)行OpenClaw技術(shù)研討會(huì)、視頻生成技術(shù)研討會(huì)。其中,研討會(huì)主要向持有大會(huì)通票和貴賓票的觀眾開放。

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

今年,在大會(huì)同期也設(shè)有人工智能創(chuàng)新展覽區(qū),以標(biāo)展形式為主,將展示人工智能產(chǎn)業(yè)鏈優(yōu)秀企業(yè)的創(chuàng)新技術(shù)、產(chǎn)品與方案,展商預(yù)計(jì)將覆蓋大模型、AI智能體、AIGC應(yīng)用與AI Infra等方向。

今天起,將陸續(xù)揭曉此次六場(chǎng)研討會(huì)板塊的議程,首先公布的是大模型記憶技術(shù)研討會(huì)。其他研討會(huì)、論壇、開幕式的議程也會(huì)陸續(xù)公布。

一、大模型記憶技術(shù)研討會(huì)議程出爐 聚焦解鎖超級(jí)智能的新共識(shí)

AI的記憶能力,正成為繼Scaling之后解鎖超級(jí)智能(ASI)的新共識(shí),開始掀起AI領(lǐng)域新一輪熱潮。

去年下半年谷歌發(fā)布重磅論文“Nested Learning: The Illusion of Deep Learning Architectures”,提出一種全新的學(xué)習(xí)范式——嵌套學(xué)習(xí),引入HOPE架構(gòu)開啟了LLM記憶能力的新紀(jì)元。這篇論文更是被譽(yù)為“Attention is all you need”的V2版本。

也在去年底,清華大學(xué)唐杰教授在年終感悟中,更是指出“實(shí)現(xiàn)模型記憶成為一個(gè)必須做的事情”,并強(qiáng)調(diào)“這也是一個(gè)模型應(yīng)用到真實(shí)環(huán)境必須有的能力。”

進(jìn)入2026年,DeepSeek開年發(fā)表的關(guān)于引入Engram模塊以實(shí)現(xiàn)條件記憶的論文,不僅引發(fā)了AI圈的廣泛熱議,而是將大模型記憶的研究推向了新高度。而隨后在國(guó)內(nèi)外掀起巨大熱潮的OpenClaw,其亮點(diǎn)之一仍然是記憶。

而隨著國(guó)內(nèi)更多AI大廠、創(chuàng)業(yè)公司的持續(xù)涌入這一領(lǐng)域,更是推動(dòng)從前沿研究、工程開發(fā)到產(chǎn)品實(shí)踐等多方面的全面突破和百花齊放。

在上述背景下,大模型記憶技術(shù)研討會(huì)將在此次大會(huì)同期舉行。這場(chǎng)研討會(huì)將在大會(huì)首日下午的分會(huì)場(chǎng)一進(jìn)行,由主題報(bào)告+圓桌Panel兩個(gè)環(huán)節(jié)組成。

目前,大模型記憶技術(shù)研討會(huì)邀請(qǐng)到記憶張量聯(lián)合創(chuàng)始人兼CTO、上海算法創(chuàng)新研究院大模型中心技術(shù)負(fù)責(zé)人、研究員李志宇,EverMind CEO兼盛大集團(tuán)副總裁鄧亞峰,阿里國(guó)際AIB團(tuán)隊(duì)算法專家、UMEM主要作者蘭天,騰訊混元大模型團(tuán)隊(duì)Principal Researcher王鍇,阿里云高級(jí)技術(shù)專家馬騰,智悅云創(chuàng)及太憶TiMEM.ai創(chuàng)始人余宣慶等六位技術(shù)大咖與研究人員作為報(bào)告嘉賓帶來(lái)分享。

研討會(huì)的完整議程也已出爐。

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

二、六位技術(shù)大咖與研究人員將分享 報(bào)告主題和概要搶先了解

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

嘉賓:記憶張量聯(lián)合創(chuàng)始人兼CTO、上海算法創(chuàng)新研究院大模型中心技術(shù)負(fù)責(zé)人、研究員 李志宇

簡(jiǎn)介:李志宇,博士,上海市東方英才拔尖人才,記憶張量(上海)科技有限公司聯(lián)合創(chuàng)始人兼CTO、上海算法創(chuàng)新研究院大模型中心技術(shù)負(fù)責(zé)人、研究員。長(zhǎng)期從事預(yù)訓(xùn)練和大模型應(yīng)用方向的研發(fā)技術(shù)攻關(guān),主要研究方向包括大模型記憶增強(qiáng)、高效評(píng)估與應(yīng)用算法。曾在阿里巴巴、小紅書等頭部科技企業(yè)帶隊(duì)承擔(dān)多個(gè)核心算法方向,技術(shù)成果服務(wù)于商品評(píng)價(jià)、雙十一大促、營(yíng)銷廣告等超大規(guī)模業(yè)務(wù)場(chǎng)景,累計(jì)帶來(lái)數(shù)十億營(yíng)收,影響用戶近億人次,并獲得雙十一技術(shù)突破獎(jiǎng)。近年來(lái),先后和團(tuán)隊(duì)提出了首個(gè)記憶分層的創(chuàng)新架構(gòu)大模型,以及業(yè)內(nèi)首個(gè)大模型記憶操作系統(tǒng)(MemOS),MemOS開源7個(gè)月累計(jì)獲得Star數(shù)超6100+,開發(fā)者數(shù)超11000+,為大模型的記憶增強(qiáng)落地提供了可行的探索路徑。相關(guān)大模型技術(shù)成果已在中國(guó)銀行、招商證券、中國(guó)電信、新華社等多家國(guó)央企落地應(yīng)用。當(dāng)前已在Patterns(Cell Press)、NeurIPS、ICLR、ACL和TKDE等國(guó)際會(huì)議期刊發(fā)表論文70余篇、授權(quán)專利10余項(xiàng)?,F(xiàn)任中國(guó)中文信息學(xué)會(huì)信息檢索專委會(huì)委員、大模型與生成專委會(huì)委員,相關(guān)研究工作入選《麻省理工科技評(píng)論》封面報(bào)道、《機(jī)器之心》、《量子位》和《PaperWeekly》的頭條報(bào)道,并多次登頂Huggingface熱點(diǎn)論文Top1。

主題:《記憶工程體系設(shè)計(jì)與關(guān)鍵技術(shù)挑戰(zhàn):以MemOS為例》

概要:隨著大模型和智能體逐步進(jìn)入真實(shí)業(yè)務(wù)環(huán)境,系統(tǒng)所面臨的核心問(wèn)題,已經(jīng)不再只是“能不能回答”,而是“能不能持續(xù)地記住、調(diào)用、更新并治理知識(shí)與經(jīng)驗(yàn)”。在這一背景下,記憶正從附屬能力走向系統(tǒng)能力,成為影響智能體長(zhǎng)期一致性、任務(wù)連續(xù)性、個(gè)性化服務(wù)與可控演化的關(guān)鍵基礎(chǔ)設(shè)施。如何構(gòu)建一套可寫入、可檢索、可更新、可治理的記憶體系,正在成為大模型工程落地中的重要課題。本次分享以MemOS為例,圍繞“記憶工程體系設(shè)計(jì)與關(guān)鍵技術(shù)挑戰(zhàn)”展開系統(tǒng)介紹,重點(diǎn)討論面向長(zhǎng)期智能的記憶分層架構(gòu)、記憶寫入與組織、記憶檢索與調(diào)度、記憶更新與演化、記憶治理與安全控制等核心問(wèn)題。同時(shí),也將結(jié)合實(shí)際工程經(jīng)驗(yàn),分析當(dāng)前記憶系統(tǒng)在落地過(guò)程中面臨的若干關(guān)鍵挑戰(zhàn),包括記憶污染與沖突、長(zhǎng)期一致性衰減、跨任務(wù)復(fù)用困難、成本與時(shí)延約束,以及隱私、權(quán)限與合規(guī)治理等問(wèn)題。希望通過(guò) MemOS 的實(shí)踐,進(jìn)一步說(shuō)明:在大模型時(shí)代,記憶不應(yīng)只是外掛模塊,而應(yīng)被建設(shè)為支撐長(zhǎng)期智能體演化的基礎(chǔ)設(shè)施層。

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

嘉賓:EverMind CEO兼盛大集團(tuán)副總裁 鄧亞峰

簡(jiǎn)介:鄧亞峰,畢業(yè)于清華大學(xué),正高級(jí)工程師,擁有二十余年人工智能算法及產(chǎn)品研發(fā)經(jīng)驗(yàn)。現(xiàn)任EverMind CEO兼盛大集團(tuán)副總裁。曾任360集團(tuán)副總裁、人工智能研究院院長(zhǎng)兼搜索事業(yè)部總經(jīng)理,科創(chuàng)板首家AI上市公司格靈深瞳CTO。榮獲2021年中國(guó)人工智能年度十大風(fēng)云人物,教育部技術(shù)發(fā)明獎(jiǎng)二等獎(jiǎng)。長(zhǎng)期致力于大語(yǔ)言模型、計(jì)算機(jī)視覺(jué)及AI for Science等領(lǐng)域的研究與應(yīng)用,帶領(lǐng)團(tuán)隊(duì)多次在國(guó)際國(guó)內(nèi)主流AI評(píng)測(cè)中獲得佳績(jī);累計(jì)申請(qǐng)發(fā)明專利160余項(xiàng)(已授權(quán)98項(xiàng)),發(fā)表論文50余篇(含10篇Nature子刊)。

主題:《數(shù)字“龍蝦”的蛻變:EverOS長(zhǎng)期記憶驅(qū)動(dòng)下的智能體進(jìn)化論》

概要:在本talk中,首先會(huì)結(jié)合OpenClaw和近期行業(yè)的熱點(diǎn)事件,闡述未來(lái)Agent的發(fā)展趨勢(shì);其核心認(rèn)知是,從通用大模型向具備長(zhǎng)期記憶和自我演進(jìn)能力的Agent跨越,正是當(dāng)前最具商業(yè)和技術(shù)落地價(jià)值的深水區(qū)。在基礎(chǔ)模型蓬勃發(fā)展之上,Agent的核心價(jià)值和壁壘將主要取決于長(zhǎng)期記憶能力。其次,將遞進(jìn)介紹長(zhǎng)期記憶的價(jià)值:如何更高效地利用上下文(Efficiency);如何記住用戶偏好(Alignment);如何形成自我演進(jìn)(Evolution)。進(jìn)一步,結(jié)合我們?cè)陂L(zhǎng)期記憶方向所做的主要工作,特別是EverOS(定位為AI時(shí)代的長(zhǎng)期記憶操作系統(tǒng))和MSA(Memory sparse attention)Model,講述我們?cè)谙嚓P(guān)方向取得的技術(shù)進(jìn)展,以及對(duì)未來(lái)技術(shù)發(fā)展趨勢(shì)的認(rèn)知。最后,將結(jié)合具體的案例說(shuō)明長(zhǎng)期記憶的用戶價(jià)值。

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

嘉賓:阿里國(guó)際AIB團(tuán)隊(duì)算法專家、UMEM主要作者 蘭天

簡(jiǎn)介:蘭天,畢業(yè)于北京理工大學(xué),現(xiàn)任阿里國(guó)際AI Business團(tuán)隊(duì)算法專家,聚焦于Long-horizon Agent相關(guān)技術(shù)的前沿研究與業(yè)務(wù)落地。在ICLR、NeurIPS、ACL、EMNLP、TOIS等頂級(jí)學(xué)術(shù)會(huì)議與期刊上發(fā)表多篇代表性工作,包括Copy is all you need、Block-attention、Contrastive search等,Google學(xué)術(shù)累計(jì)引用量1500余次。在人工智能與自然語(yǔ)言處理領(lǐng)域擁有扎實(shí)的學(xué)術(shù)積累與豐富的工業(yè)界實(shí)戰(zhàn)經(jīng)驗(yàn),當(dāng)前致力于推動(dòng)大模型與復(fù)雜Agent技術(shù)在真實(shí)業(yè)務(wù)場(chǎng)景中的技術(shù)演進(jìn)與創(chuàng)新應(yīng)用。

主題:《UMEM:打破Agent“死記硬背”困局的可泛化記憶框架》

概要:當(dāng)前LLM Agent的長(zhǎng)期記憶系統(tǒng)存在一個(gè)致命缺陷:過(guò)度擬合當(dāng)前任務(wù)。現(xiàn)有方法只要能解決當(dāng)下問(wèn)題,就會(huì)把所有細(xì)節(jié)(包括噪聲)存入記憶庫(kù),導(dǎo)致嚴(yán)重的”死記硬背”現(xiàn)象——遇到稍微變化的新任務(wù),Agent便無(wú)法應(yīng)對(duì)。核心問(wèn)題在于:傳統(tǒng)方法將記憶提取視為靜態(tài)過(guò)程,僅通過(guò)提示詞驅(qū)動(dòng),缺乏面向未來(lái)任務(wù)的泛化優(yōu)化。我們提出UMEM(Unified Memory Extraction and Management),首次實(shí)現(xiàn)記憶提取與管理的端到端聯(lián)合優(yōu)化。核心創(chuàng)新包括:(1)語(yǔ)義鄰域建模:構(gòu)建與當(dāng)前問(wèn)題相似的Top-N查詢簇,模擬”未來(lái)可能遇到的相似任務(wù)”;(2)邊際效用獎(jiǎng)勵(lì):只有當(dāng)記憶在整個(gè)鄰域上都能提升性能時(shí),模型才獲得高分;(3)GRPO優(yōu)化算法:端到端訓(xùn)練記憶提取策略,確保記憶的泛化能力。在5個(gè)權(quán)威基準(zhǔn)上的驗(yàn)證結(jié)果:(1)多輪交互任務(wù)(ALFWorld)成功率提升10.67%(61.11%→71.78%);(2)單輪推理任務(wù)平均提升5.82%,顯著超越ReMem、Memp等強(qiáng)基線;(3)跨模型泛化:小模型訓(xùn)練的記憶優(yōu)化器可直接賦能更強(qiáng)模型。當(dāng)前UMEM的技術(shù)方案已經(jīng)應(yīng)用于部分真實(shí)Agent相關(guān)業(yè)務(wù)場(chǎng)景,實(shí)現(xiàn)效率提升和Agent能力自演進(jìn)。

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

嘉賓:騰訊混元大模型團(tuán)隊(duì)Principal Researcher 王鍇

簡(jiǎn)介:王鍇現(xiàn)在擔(dān)任騰訊混元大模型團(tuán)隊(duì)Principal Researcher,致力于利用神經(jīng)網(wǎng)絡(luò)參數(shù)生成技術(shù)提升大模型的通用能力和個(gè)性化水平。他博士畢業(yè)于新加坡國(guó)立大學(xué),研究方向?yàn)樯窠?jīng)網(wǎng)絡(luò)參數(shù)生成和Efficient AI。谷歌學(xué)術(shù)引用6900余次,其中一作引用3000+。在ICLR,NeurIPS,ICML,CVPR,ICCV會(huì)議上發(fā)表論文40余篇。曾獲得AISG Singapore Ph.D.Fellowship,中國(guó)政府獎(jiǎng)學(xué)金等。博士期間曾指導(dǎo)多名本科生以第一作者身份發(fā)表頂會(huì)論文,并成功推薦多名優(yōu)秀學(xué)子赴美國(guó)頂尖高校計(jì)算機(jī)系攻讀直博項(xiàng)目。

主題:《混元無(wú)相:大模型的函數(shù)式神經(jīng)記憶框架》

概要:隨著基礎(chǔ)模型從離線預(yù)測(cè)器向持續(xù)運(yùn)行的系統(tǒng)演進(jìn),持續(xù)學(xué)習(xí)與即時(shí)個(gè)性化已成為核心架構(gòu)需求。然而,當(dāng)前主流的模型微調(diào)方法(如SFT或LoRA)仍局限于“靜態(tài)參數(shù)記憶”范式——試圖用單一的共享參數(shù)空間來(lái)滿足復(fù)雜多變、甚至相互沖突的部署目標(biāo)。我們的研究表明,在面對(duì)異構(gòu)任務(wù)時(shí),這種單點(diǎn)參數(shù)優(yōu)化不可避免地會(huì)導(dǎo)致梯度沖突、模型性能妥協(xié)或過(guò)度特化。為了突破這一瓶頸,本次報(bào)告將介紹一種全新“記憶優(yōu)先(Memory-first)”適配框架——混元無(wú)相(HY-WU,Weight Unleashing)。混元無(wú)相將記憶機(jī)制重構(gòu)為一種神經(jīng)網(wǎng)絡(luò)模塊,實(shí)現(xiàn)了函數(shù)式(算子級(jí))記憶。該框架摒棄了傳統(tǒng)的靜態(tài)權(quán)重覆蓋,引入了一個(gè)基于Transformer的參數(shù)生成器。它能根據(jù)輸入實(shí)例(如圖像與文本指令),即時(shí)(on-the-fly)合成專屬的低秩(LoRA)權(quán)重更新,并在前向傳播中注入凍結(jié)的骨干網(wǎng)絡(luò),從而在無(wú)需測(cè)試時(shí)優(yōu)化的前提下,實(shí)現(xiàn)實(shí)例級(jí)的算子特化。我們將以“圖像編輯”這一具有高度沖突性目標(biāo)的任務(wù)作為壓力測(cè)試場(chǎng)。通過(guò)嚴(yán)格的沖突控制實(shí)驗(yàn)和梯度分析,我們證實(shí)了混元無(wú)相成功避免了靜態(tài)共享適配帶來(lái)的結(jié)構(gòu)性妥協(xié);同時(shí),生成的參數(shù)空間展現(xiàn)出了高度結(jié)構(gòu)化的語(yǔ)義流形,證明其性能增益源于正確的“條件-參數(shù)”路由,而非單純的參數(shù)量堆疊?;煸獰o(wú)相證明了模型適配可以被重新定義為“學(xué)習(xí)向參數(shù)族映射的路由問(wèn)題”,而不是尋找單一的妥協(xié)解。這將為大模型演進(jìn)提供一條互補(bǔ)的新路徑:即為結(jié)構(gòu)化的、可路由的函數(shù)式記憶分配算力,在不破壞基礎(chǔ)能力的前提下,實(shí)現(xiàn)無(wú)限的個(gè)性化特化。

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

嘉賓:阿里云高級(jí)技術(shù)專家 馬騰

簡(jiǎn)介:馬騰博士是阿里云高級(jí)技術(shù)專家,在阿里云主要從事大模型推理軟件棧的開發(fā)和研究工作,并共同創(chuàng)建了大模型KVCache開源項(xiàng)目Mooncake(5K Star),目前Mooncake已經(jīng)有阿里云/清華/月之暗面/螞蟻/字節(jié)/趨境科技等多方參與,并且成功接入vLLM/SGLang/TRT-LLM/Dynamo等社區(qū),同時(shí)他也是SGLang,RBG等社區(qū)的Committer。他在SOSP,ASPLOS,ATC,SC,Eurosys,VLDB,TPDS等頂級(jí)會(huì)議和期刊上發(fā)表論文二十余篇,相關(guān)成果授權(quán)美國(guó)/中國(guó)專利10項(xiàng)。他曾入選CCF系統(tǒng)軟件專委會(huì)優(yōu)秀博士論文激勵(lì)計(jì)劃,擔(dān)任PPoPP,FAST,DASFAA,TPDS,ICME,TC,JSC等國(guó)際會(huì)議/期刊的程序委員會(huì)成員和審稿人。

主題:《記憶感知驅(qū)動(dòng)的多智能體推理優(yōu)化》

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!

嘉賓:智悅云創(chuàng)及太憶TiMEM.ai創(chuàng)始人 余宣慶

簡(jiǎn)介:余宣慶,智悅云創(chuàng)及太憶TiMEM.ai創(chuàng)始人,中國(guó)科學(xué)院自動(dòng)化研究所直博生,主要研究方向?yàn)榇笳Z(yǔ)言模型、時(shí)態(tài)知識(shí)圖譜推理與認(rèn)知計(jì)算,以主要作者在ACL、EMNLP等國(guó)際頂級(jí)會(huì)議發(fā)表論文多篇并擔(dān)任ACL會(huì)議審稿人,參與國(guó)家級(jí)重點(diǎn)科研項(xiàng)目,擁有知識(shí)圖譜相關(guān)軟件著作權(quán),長(zhǎng)期從事大模型與知識(shí)圖譜、時(shí)序數(shù)據(jù)交叉領(lǐng)域研究和轉(zhuǎn)化,曾獲評(píng)GSEA全球?qū)W生企業(yè)家獎(jiǎng)中國(guó)區(qū)20強(qiáng),項(xiàng)目曾獲訊飛AI開發(fā)者大賽大模型教育賽道冠軍、企業(yè)已在地方股權(quán)交易所大創(chuàng)板掛牌。

主題:《持續(xù)觀察、反思學(xué)習(xí)并預(yù)測(cè)未來(lái)的類腦認(rèn)知引擎》

三、大會(huì)報(bào)名火熱進(jìn)行中 六場(chǎng)研討會(huì)邀你參與

大會(huì)設(shè)置了大會(huì)通票、貴賓票和觀眾票。其中,大會(huì)通票、貴賓票均需購(gòu)買,觀眾票則為免費(fèi)票,申請(qǐng)后需經(jīng)審核通過(guò)方可參會(huì)。各類門票的詳細(xì)權(quán)益可通過(guò)文末左下角「閱讀原文」,直達(dá)官網(wǎng)進(jìn)行了解。

大模型記憶技術(shù)研討會(huì)是本次大會(huì)的六場(chǎng)研討會(huì)之一,將于4月21日在分會(huì)場(chǎng)一下午進(jìn)行。六場(chǎng)研討會(huì)主要向持有大會(huì)通票貴賓票的觀眾開放。

希望參加研討會(huì)的朋友,可以掃描下方二維碼,添加小助手“泡泡”進(jìn)行購(gòu)票,已添加過(guò)“泡泡”的老朋友,可以給“泡泡”私信,發(fā)送“GenAI26”即可報(bào)名。

大模型記憶研討會(huì)議程公布,龍蝦記憶、Engram、混元無(wú)相與MemOS等技術(shù)全解析!