智東西(公眾號(hào):zhidxcom)
作者 | 王涵
編輯 | 冰倩

智東西3月24日?qǐng)?bào)道,今天,京東技術(shù)團(tuán)隊(duì)正式公布京東云“龍蝦天團(tuán)”:京東云基于JoyAI大模型,推出了OpenClaw(昵稱(chēng):龍蝦)輕量云主機(jī)一鍵部署、一體機(jī)、云上SaaS版等產(chǎn)品,以及CodingPlan大模型套餐包。

據(jù)京東團(tuán)隊(duì)統(tǒng)計(jì),京東云“龍蝦”系列產(chǎn)品上線(xiàn)后,近一周token調(diào)用量環(huán)比增長(zhǎng)455%。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

同時(shí),京東首次開(kāi)源了通用基礎(chǔ)大模型JoyAI-LLM Flash的Instruct版本,該模型參數(shù)量為48B,激活3B參數(shù),在性能測(cè)試上超過(guò)了GLM-4.7 Flash(non-thinking)等同等規(guī)模模型。

開(kāi)源地址:

https://huggingface.co/jdopensource/JoyAI-LLM-Flash-Base

https://huggingface.co/jdopensource/JoyAI-LLM-Flash

數(shù)字人方面,京東自研JoyAvatar數(shù)字人視頻生成框架發(fā)布,其核心通過(guò)雙教師DMD后訓(xùn)練、動(dòng)態(tài)CFG調(diào)制、歷史幀+偽幀專(zhuān)屬模型結(jié)構(gòu)三大創(chuàng)新技術(shù),解決文本控制弱、多模態(tài)控制信號(hào)沖突、長(zhǎng)視頻生成能力不足等痛點(diǎn)問(wèn)題。目前,該框架性能超越Omnihuman-1.5、KlingAvatar 2.0等國(guó)際SOTA模型。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

具身智能方面,京東透露,其將成為全球最大的具身智能數(shù)據(jù)公司。京東將于一年內(nèi)積累500萬(wàn)小時(shí)人類(lèi)真實(shí)場(chǎng)景視頻數(shù)據(jù),兩年內(nèi)積累超1000萬(wàn)小時(shí)優(yōu)質(zhì)數(shù)據(jù),同步實(shí)現(xiàn)采集機(jī)器人本體數(shù)據(jù)100萬(wàn)小時(shí),并且將建成全球規(guī)模最大、場(chǎng)景最全的具身智能數(shù)據(jù)采集中心。

一、京東推出龍蝦一體機(jī),已在輕量云主機(jī)預(yù)置OpenClaw應(yīng)用鏡像

目前,京東云已在輕量云主機(jī)預(yù)置OpenClaw應(yīng)用鏡像,支持三步部署,開(kāi)發(fā)者無(wú)需手動(dòng)搭建運(yùn)行環(huán)境。京東團(tuán)隊(duì)透露,最新數(shù)據(jù)顯示,京東云OpenClaw云服務(wù)用戶(hù)規(guī)模單周增長(zhǎng)超300%,云端部署需求還在不斷上升。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

面向中大型企業(yè)OpenClaw部署需求,京東云還正式推出了OpenClaw一體機(jī),相關(guān)方人稱(chēng)其具備三大優(yōu)勢(shì):首先是零代碼開(kāi)箱即用,3分鐘即可上崗;其次是原生開(kāi)源生態(tài)融合;第三,支持官方持續(xù)更新。

當(dāng)前,京東云OpenClaw一體機(jī)有三大硬件規(guī)格:

  • 標(biāo)準(zhǔn)版型號(hào)1:數(shù)據(jù)安全合規(guī),支持超80人同時(shí)使用,日均處理Tokens 10億+。
  • 標(biāo)準(zhǔn)版型號(hào)2:追求高模型精準(zhǔn)度和并發(fā)的中大型企業(yè),兼顧性能與隱私,支持50人同時(shí)使用,日均處理Tokens 5億+。
  • 個(gè)人版:本地閉環(huán)OpenClaw和模型,適合5人及以下團(tuán)隊(duì)同時(shí)使用,日均處理Tokens 3.5億+。

二、京東開(kāi)源通用基礎(chǔ)大模型,引入“纖維叢”數(shù)學(xué)工具

京東首次開(kāi)源了通用基礎(chǔ)大模型JoyAI-LLM Flash的Instruct版本,該模型參數(shù)量為48B,激活3B參數(shù),公開(kāi)測(cè)試基上,超過(guò)了GLM-4.7 Flash(non-thinking)等同等規(guī)模模型。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

在算法上,JoyAI-LLM Flash將幾何流形學(xué)中“纖維叢”這一數(shù)學(xué)工具引入強(qiáng)化學(xué)習(xí),提出了創(chuàng)新的強(qiáng)化學(xué)習(xí)技術(shù)——FiberPO。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

在激活參數(shù)保持3B的前提下,該模型通過(guò)動(dòng)態(tài)稀疏路由實(shí)現(xiàn)更高計(jì)算效率,稀疏比例優(yōu)于GLM-4.7-Flash等模型。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

在代碼方面, 基于稀疏優(yōu)化+訓(xùn)推協(xié)同技術(shù),JoyAI-LLM Flash在輔助代碼開(kāi)發(fā)時(shí),響應(yīng)速度超越同級(jí)別小參數(shù)量模型,讓程序員可以“邊寫(xiě)邊調(diào)”。

基于預(yù)訓(xùn)練+多輪微調(diào),模型對(duì)編程語(yǔ)法、多語(yǔ)言適配(React/Vue等)、代碼邏輯的理解足夠精準(zhǔn),生成的代碼可直接復(fù)用。

在智能體方面,JoyAI-LLM Flash可以低成本快速適配用戶(hù)復(fù)雜業(yè)務(wù)場(chǎng)景。目前京東JoyAI大模型技術(shù)已經(jīng)在超過(guò)2000+場(chǎng)景應(yīng)用,融入京東“超級(jí)供應(yīng)鏈”。據(jù)京東團(tuán)隊(duì)透露,京東內(nèi)部運(yùn)行的智能體數(shù)量已超5萬(wàn)個(gè)。

三、唇形同步、身份穩(wěn)定達(dá)商用級(jí),京東自研數(shù)字人框架超越Omnihuman

京東自研JOYAvatar數(shù)字人視頻生成框架,在分布匹配蒸餾(DMD)后訓(xùn)練框架中,引入音頻、文本兩個(gè)專(zhuān)屬教師模型,實(shí)現(xiàn) “音視頻同步能力” 和 “文本控制能力” 的分離式監(jiān)督、融合式學(xué)習(xí)。

該框架無(wú)需新增訓(xùn)練數(shù)據(jù),即可將通用視頻大模型的文本可控性遷移到數(shù)字人模型中,讓數(shù)字人精準(zhǔn)響應(yīng)復(fù)雜動(dòng)作、鏡頭交互等指令。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

該框架根據(jù)視頻生成的去噪時(shí)間步,動(dòng)態(tài)調(diào)整文本、音頻的無(wú)分類(lèi)器指導(dǎo)尺度:生成早期優(yōu)先根據(jù)文本控制信號(hào)確定數(shù)字人的動(dòng)作框架,生成后期優(yōu)先根據(jù)音頻控制信號(hào)確保唇形同步。

通過(guò)Frame pack歷史幀編碼模塊+偽最后一幀策略, 該框架構(gòu)建專(zhuān)屬長(zhǎng)視頻生成模型結(jié)構(gòu),突破傳統(tǒng)數(shù)字人模型 “生成時(shí)長(zhǎng)短、幀閃爍、身份漂移” 的技術(shù)限制,支持30秒以上長(zhǎng)視頻生成,并且可以全程保持身份穩(wěn)定、動(dòng)作流暢。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

在客觀(guān)量化指標(biāo)評(píng)測(cè)中,JoyAvatar在唇形同步、身份穩(wěn)定與動(dòng)作自然度上達(dá)到商用級(jí)水準(zhǔn)。其中唇形同步相似度Sync-C達(dá)5.57,高于Omnihuman-1.5、KlingAvatar2.0及商用模型 HeyGen。JoyAvatar的手部關(guān)鍵點(diǎn)置信度HKC為0.87,保證了肢體動(dòng)作的自然流暢。

劉強(qiáng)東的“龍蝦天團(tuán)”來(lái)了!首次開(kāi)源通用基礎(chǔ)大模型

JoyAvatar可快速落地電商服務(wù)、智能客服、內(nèi)容創(chuàng)作等核心場(chǎng)景:

  • 京東內(nèi)部場(chǎng)景:數(shù)字人主播(直播間復(fù)雜動(dòng)作、多主播互動(dòng))、智能客服(多角色智能問(wèn)答)、京東云生態(tài)(為客戶(hù)提供數(shù)字人技術(shù)底座)等;
  • 通用產(chǎn)業(yè)場(chǎng)景:影視動(dòng)畫(huà)(快速生成卡通人物 / 非人類(lèi)主體視頻)、線(xiàn)上會(huì)議(虛擬分身多輪對(duì)話(huà))、教育科普(虛擬講師復(fù)雜動(dòng)作演示)、文旅文創(chuàng)(數(shù)字文旅形象定制)等場(chǎng)景。

四、京東JoyInside開(kāi)發(fā)平臺(tái)上線(xiàn),提供AI能力+硬件模組

京東推出的JoyInside面向硬件終端提供智能化適配能力,支持?jǐn)M人化交互與多人群適配。

2026年初,該能力新增社交玩法并升級(jí)語(yǔ)音合成技術(shù),與京東京造聯(lián)動(dòng)搭建跨品類(lèi)智能硬件互聯(lián)體系,實(shí)現(xiàn)設(shè)備互通,并擴(kuò)展至八大方言識(shí)別交互。截至目前,JoyInside已接入近百家家電家居品牌、超40家機(jī)器人及AI玩具廠(chǎng)商。

此外,京東還推出“JoyInside開(kāi)發(fā)平臺(tái)”,提供低代碼可擴(kuò)展環(huán)境及“搭建環(huán)境+AI能力+硬件模組+產(chǎn)業(yè)資源”的一站式解決方案:

  • 面向大眾與設(shè)計(jì)師:提供可視化工具與即插即用模組;
  • 面向開(kāi)發(fā)者:支持定制與外部Agent集成;
  • 面向廠(chǎng)商:通過(guò)便捷API助力老硬件低成本智能化升級(jí),并對(duì)接京東零售渠道與營(yíng)銷(xiāo)資源。

結(jié)語(yǔ):京東正以完整技術(shù)棧加速AI規(guī)?;涞?/h2>

依托累計(jì)超1700億元的技術(shù)投入,京東已形成從京東云算力底座、JoyAI系列基礎(chǔ)模型,到智能體、數(shù)字人、附身智能的完整技術(shù)矩陣。

這一立體化布局,不僅推動(dòng)京東內(nèi)部海量業(yè)務(wù)場(chǎng)景的智能化升級(jí),更以開(kāi)放生態(tài)加速AI從技術(shù)突破走向普惠應(yīng)用。