智東西(公眾號(hào):zhidxcom)
作者 | 李水青
編輯 | 漠影

智東西9月29日?qǐng)?bào)道,剛剛,DeepSeek正式發(fā)布DeepSeek-V3.2-Exp模型,官方App、網(wǎng)頁(yè)端、小程序均已同步更新為該版本,同時(shí)API大幅度降價(jià)。

剛剛,DeepSeek新模型自砍一刀!大降價(jià)50%,華為寒武紀(jì)已適配

▲DeepSeek-V3.2-Exp的Hugging Face頁(yè)面截圖

DeepSeek-V3.2-Exp的一大亮點(diǎn)是價(jià)格暴降。在新的價(jià)格政策下,開(kāi)發(fā)者調(diào)用DeepSeek API的成本將降低50%以上。

據(jù)悉,DeepSeek-V3.2-Exp API的輸入價(jià)格由0.5元/百萬(wàn)tokens降低為0.2元/百萬(wàn)tokens(緩存命中),由4元/百萬(wàn)tokens降低為2元/百萬(wàn)tokens(緩存未命中),輸出價(jià)格由12元/百萬(wàn)tokens降低為3元/百萬(wàn)tokens。

剛剛,DeepSeek新模型自砍一刀!大降價(jià)50%,華為寒武紀(jì)已適配

▲DeepSeek-V3.2-Exp的全新價(jià)格政策

這得益于新模型服務(wù)成本的大幅降低。V3.2-Exp是一個(gè)實(shí)驗(yàn)性(Experimental)的版本,作為邁向新一代架構(gòu)的中間步驟,在V3.1-Terminus的基礎(chǔ)上引入了一種稀疏注意力機(jī)制(DeepSeek Sparse Attention,DSA),針對(duì)長(zhǎng)文本的訓(xùn)練和推理效率進(jìn)行了探索性的優(yōu)化和驗(yàn)證。

據(jù)悉,DSA首次實(shí)現(xiàn)了細(xì)粒度稀疏注意力機(jī)制,在幾乎不影響模型輸出效果的前提下,實(shí)現(xiàn)了長(zhǎng)文本訓(xùn)練和推理效率的大幅提升。

剛剛,DeepSeek新模型自砍一刀!大降價(jià)50%,華為寒武紀(jì)已適配

▲DeepSeek-V3.2-Exp相比V3.1-Terminus效率提升

為了嚴(yán)謹(jǐn)?shù)卦u(píng)估引入稀疏注意力帶來(lái)的影響,DeepSeek特意把DeepSeek-V3.2-Exp的訓(xùn)練設(shè)置與V3.1-Terminus進(jìn)行了嚴(yán)格的對(duì)齊。在各領(lǐng)域的公開(kāi)評(píng)測(cè)集上,DeepSeek-V3.2-Exp的表現(xiàn)與V3.1-Terminus基本持平。

剛剛,DeepSeek新模型自砍一刀!大降價(jià)50%,華為寒武紀(jì)已適配

▲DeepSeek-V3.2-Exp與V3.1-Terminus測(cè)評(píng)表現(xiàn)對(duì)比

DeepSeek-V3.2-Exp一經(jīng)發(fā)布,就在外網(wǎng)社交平臺(tái)X等炸開(kāi)了鍋。有網(wǎng)友對(duì)“成本降低50%”表示贊嘆,也有網(wǎng)友對(duì)DeepSeek“周更”的節(jié)奏表示滿(mǎn)意,還有更多網(wǎng)友催更DeepSeek新一代模型R2及V4,并期待DeepSeek打敗OpenAI。

剛剛,DeepSeek新模型自砍一刀!大降價(jià)50%,華為寒武紀(jì)已適配

▲社交平臺(tái)X網(wǎng)友熱議DeepSeek-V3.2-Exp

國(guó)產(chǎn)AI芯片公司紛紛第一時(shí)間宣布完成DeepSeek-V3.2-Exp的適配。

華為發(fā)文宣布,昇騰已快速基于vLLM/SGLang等推理框架完成適配部署,實(shí)現(xiàn)DeepSeek-V3.2-Exp 0day支持,并面向開(kāi)發(fā)者開(kāi)源所有推理代碼和算子實(shí)現(xiàn)。其在128K長(zhǎng)序列下能夠保持TTFT低于2秒、TPOT低于30毫秒的推理生成速度。

剛剛,DeepSeek新模型自砍一刀!大降價(jià)50%,華為寒武紀(jì)已適配

▲華為計(jì)算官方公眾號(hào)發(fā)文

寒武紀(jì)也發(fā)文宣布,其已同步實(shí)現(xiàn)對(duì)深度求索公司最新模型DeepSeek-V3.2-Exp的0day適配,并開(kāi)源大模型推理引擎vLLM-MLU源代碼。DeepSeek-V3.2-Exp疊加寒武紀(jì)的極致計(jì)算效率,可大幅降低長(zhǎng)序列場(chǎng)景下的訓(xùn)推成本。

剛剛,DeepSeek新模型自砍一刀!大降價(jià)50%,華為寒武紀(jì)已適配

▲寒武紀(jì)開(kāi)發(fā)者公眾號(hào)發(fā)文

作為一個(gè)實(shí)驗(yàn)性的版本,DeepSeek-V3.2-Exp雖然已經(jīng)在公開(kāi)評(píng)測(cè)集上得到了有效性驗(yàn)證,但仍然需要在用戶(hù)的真實(shí)使用場(chǎng)景中進(jìn)行范圍更廣、規(guī)模更大的測(cè)試,以排除在某些場(chǎng)景下效果欠佳的可能。

為方便用戶(hù)進(jìn)行對(duì)比測(cè)試,DeepSeek-V3.1-Terminus臨時(shí)保留了額外API訪(fǎng)問(wèn)接口,保留到北京時(shí)間2025年10月15日23:59。

用戶(hù)只需修改base_url=”https://api.deepseek.com/v3.1_terminus_expires_on_20251015″ 即可訪(fǎng)問(wèn)V3.1-Terminus,調(diào)用價(jià)格與 V3.2-Exp相同。

DeepSeek-V3.2-Exp模型現(xiàn)已在Hugging Face與魔搭開(kāi)源。

HuggingFace地址:

https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp

ModelScope地址:

https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2-Exp

論文地址:

https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf

結(jié)語(yǔ):DeepSeek再降大模型落地門(mén)檻,國(guó)產(chǎn)芯片加速適配

DeepSeek的模型迭代速度正在加快。就在9月22日晚間,其剛剛發(fā)布了DeepSeek-V3.1-Terminus,優(yōu)化了編程、搜索智能體等表現(xiàn)。僅僅一周后,DeepSeek-V3.2-Exp隨之發(fā)布,帶來(lái)了大幅降低的成本體驗(yàn)。

這預(yù)示著DeepSeek的下一代模型很快就要到來(lái)了,此前已有外媒報(bào)道稱(chēng),DeepSeek今年年底即將推出Agent模型。值得一提的是,我們看到DeepSeek不僅上線(xiàn)阿里魔搭社區(qū),并立馬適配華為昇騰、寒武紀(jì)等國(guó)產(chǎn)AI芯片,或許意味著其快速迭代及落地應(yīng)用與國(guó)產(chǎn)AI芯片聯(lián)系更加緊密。