智東西(公眾號:zhidxcom)
作者 | 陳駿達(dá)
編輯 | 心緣

DeepSeek漲價了。

智東西8月23日報道,8月21日,DeepSeek在其公眾號官宣了DeepSeekV3.1的正式發(fā)布,還宣布自9月6日起,DeepSeek將執(zhí)行新價格表,取消了今年2月底推出的夜間優(yōu)惠,推理與非推理API統(tǒng)一定價,輸出價格調(diào)整至12元/百萬tokens。這一決定,讓使用DeepSeek API的最低價格較過去上升了50%。

DeepSeek在業(yè)內(nèi)曾有“價格屠夫”的稱號,在2024年5月憑借DeepSeek-V2,將API價格降至輸入1元/百萬tokens、輸出2元/百萬tokens的行業(yè)低價,一石激起千層浪。

僅在當(dāng)月,就有智譜、字節(jié)、阿里、百度、訊飛、騰訊等廠商跟進降價,最高降幅達(dá)到80%-97%,還有部分廠商直接將輕量級模型免費開放,掀起一場持續(xù)半年多的大模型價格戰(zhàn)。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲2024年5月部分廠商發(fā)布的大模型降價通知

然而,在2025年,卻有越來越多的廠商選擇了停止降價。在國內(nèi),“大模型六小虎”中,已有智譜、月之暗面、MiniMax、階躍星辰4家對部分API價格進行上調(diào),百川智能、零一萬物2家保持價格不變;阿里、字節(jié)、騰訊、百度、科大訊飛、商湯等大廠們廣泛采用階梯定價策略,或是拉開“推理”與“非推理”模式差距。行業(yè)的整體API價格趨于穩(wěn)定,部分產(chǎn)品還出現(xiàn)了明顯上浮。

國際廠商雖然仍在宣稱智能將越來越便宜,但實際情況卻是,過去一年OpenAI、Anthropic、谷歌等企業(yè)的API價格基本原地踏步,甚至有小幅上漲。與此同時,訂閱方案越來越貴,頂級模型幾乎被鎖在200美元/月及以上的高價檔里,xAI甚至推出了300美元/月的訂閱方案。

在這樣的背景下,DeepSeek漲價只是更大規(guī)模行業(yè)趨勢的一個縮影:當(dāng)前,大模型價格的下行速度正逐漸放緩,頂級AI服務(wù)不再無限下探,反而開始呈現(xiàn)趨于穩(wěn)定,略有回升的態(tài)勢。

以下數(shù)據(jù)均收集于公開渠道,如有錯漏歡迎指正。

一、DeepSeek、大模型六小虎API價格普漲,但有兩家近1年沒改價

大模型價格戰(zhàn),曾經(jīng)是2024年國內(nèi)AI圈最火的關(guān)鍵詞之一,大模型API的價格曾經(jīng)一度降至每百萬tokens幾毛錢。然而,進入2025年后,這一降價趨勢卻基本停滯,尤其是對于那些最先進的模型而言。

以DeepSeek為例,去年年底DeepSeek-V3剛剛發(fā)布時,DeepSeek進行了45天的限時優(yōu)惠,結(jié)束后,DeepSeek-Chat API(非推理API)中輸出價格從2元恢復(fù)到8元;這一API的價格將于今年9月份進一步上浮50%,至12元。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

Deepseek-Reason API(推理API)的價格則相對穩(wěn)定,并且會在今年9月份將輸出價格從16元降至12元。不過,總體來看,DeepSeek API的價格還是呈上漲趨勢。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲DeepSeek API價格變動情況(智東西制圖)

大模型六小虎中,智譜、月之暗面、百川智能、MiniMax、階躍星辰、零一萬物的價格,在2025年1季度之后,基本沒有出現(xiàn)明顯的下降。

智譜上一代GLM-4模型的API定價不區(qū)分輸入輸出與輸入token數(shù)量,統(tǒng)一為5元/百萬tokens。而其今年7月發(fā)布的GLM-4.5模型,在去除模型發(fā)布之初的限時優(yōu)惠政策后,高速推理版本(GLM-4.5-X)的輸出價格最高可達(dá)到64元/百萬tokens。

即使是按照最低檔計價(使用GLM-4.5,輸出長度小于32K,輸出長度小于0.2K,推理速度為30-50tokens/秒),其輸出價格也從5元/百萬tokens變成了8元/百萬tokens。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲GLM-4.5定價情況(圖源:智譜開放平臺官網(wǎng))

月之暗面2024年8月正式推出企業(yè)API,彼時在128K上下文場景中,其輸入輸出定價均為60元/百萬tokens,在業(yè)內(nèi)屬于較高水平。

今年4月,月之暗面對部分API價格進行了調(diào)整,使用其最新K1.5模型的API輸出價格降至30元/百萬tokens,但在Kimi K2推出后,128K上下文場景中的高速輸出價格又回調(diào)至64元/百萬tokens。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲月之暗面Kimi大模型API定價變化,選取的數(shù)據(jù)均為最高檔次定價(智東西制圖)

百川智能已經(jīng)長期沒有對API價格進行調(diào)整,旗艦?zāi)P虰aichuan4的調(diào)用價格自2024年5月發(fā)布以來,一直維持在輸入輸出均為100元/百萬tokens的水平。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲百川智能API價格表(圖源:百川智能)

2024年8月,MiniMax對其當(dāng)時的旗艦文本生成模型abab-6.5s進行了大幅度的降價,輸入和輸出價格均統(tǒng)一為1元/百萬tokens。不過,目前這一模型在其API開放平臺上已不可見。

MiniMax新一代文本生成模型MiniMax-Text-01(2025年1月發(fā)布)的定價為輸入1元/百萬tokens,輸出8元/百萬tokens;而其推理模型MiniMax-M1(2025年6月發(fā)布)的價格則采用階梯定價,最高價格為輸入2.4元/百萬token, 輸出24元/百萬token。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲MiniMax大模型API定價變化趨勢,選取的數(shù)據(jù)均為最高檔次定價(智東西制圖)

階躍星辰以多模態(tài)為特色。今年4月,該公司發(fā)布了Step-R1-V-Mini多模態(tài)推理模型,輸出價格為8元/百萬tokens。其7月發(fā)布的新一代多模態(tài)推理模型Step 3調(diào)整為階梯定價,輸入≤4k的價格基本持平或略有下調(diào),在最高檔(4k < 輸入≤ 64k)的價格有一定上漲,輸出價格為10元/百萬tokens。同時,Step 3最大上下文窗口為64K,較Step-R1-V-Mini的100K有所縮小。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲階躍星辰大模型API定價變化趨勢,選取的數(shù)據(jù)均為最高檔次定價(智東西制圖)

零一萬物于2024年10月發(fā)布Yi-Lighting,價格為0.99元/百萬tokens,此后未再更新API中的模型價格。如今調(diào)用Yi-Lighting時,還會根據(jù)用戶輸入智能路由到DeepSeek-V3、Qwen-30B-A3B等模型。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲零一萬物大模型API定價表(圖源:零一萬物)

二、多家大廠細(xì)化定價規(guī)則,有模型輸出超300字就得加錢

更為“財大氣粗”的大廠們,也在2025年放緩了模型降價的腳步。

字節(jié)跳動在2024年5月首次推出豆包Pro家族,小于32K上下文的豆包通用模型Pro輸入價格僅為0.8元/百萬tokens,輸出價格為2元/百萬tokens。字節(jié)跳動火山引擎總裁譚待在發(fā)布會上稱,這一定價“比行業(yè)價格低99.3%”。這次發(fā)布也將大模型價格戰(zhàn)推至輿論的風(fēng)口浪尖。

在32K上下文的場景下,2025年1月發(fā)布的豆包1.5 Pro與2025年7月的豆包1.6,維持了豆包通用模型Pro的價格水平。

不過,字節(jié)進一步細(xì)化了定價規(guī)則,根據(jù)輸入、輸出兩個變量調(diào)整定價。當(dāng)模型輸出超過200個token(約為300個漢字)時,豆包1.6的輸出價變?yōu)?元/百萬tokens,輸入價不變。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲豆包1.6階梯定價細(xì)則(圖源:火山方舟)

從初代豆包Pro,到豆包1.5 Pro,再到豆包1.6,字節(jié)豆包大模型API的最高價變化趨勢如下:

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲字節(jié)跳動豆包大模型API定價變化趨勢,選取的數(shù)據(jù)均為最高檔次定價(智東西制圖)

阿里巴巴通過阿里云百煉對外提供大模型API服務(wù),由于阿里旗下的大模型數(shù)量眾多,更新頻率較快,且有開源版與商業(yè)版之分,全部統(tǒng)計將略顯龐雜。智東西主要追蹤了2025年以來其主力商業(yè)API服務(wù)之一Qwen-Plus的價格變化。

可以看到,Qwen-Plus在今年4月份新版本推出,并引入思考與非思考模式的區(qū)別后,思考型輸出的價格來到了非思考輸出的4倍。

今年7月版本更新后,Qwen-Plus全面采用階梯定價的形式,128K輸入以下的調(diào)用價格與4月份定價持平,但當(dāng)輸入量超過128K時,價格出現(xiàn)明顯上漲,最高輸出價格達(dá)到了64元/百萬tokens。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲阿里Qwen-Plus API價格變動情況(智東西制表)

2024年7月,百度宣布將其旗艦?zāi)P虴RNIE 4.0降價,以輸入40元/百萬tokens、輸出120元/百萬tokens的價格對外提供服務(wù),百度后續(xù)逐漸將ERNIE 4.0的推理價格降至業(yè)內(nèi)常見的輸入4元/百萬tokens、輸出16元/百萬tokens(未查詢到這一降價的具體時間),今年3月推出的ERNIE 4.5維持了這一定價,沒有繼續(xù)下降。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲ERNIE 4.0、ERNIE 4.5模型價格(圖源:百度)

騰訊是國內(nèi)幾家大廠中少數(shù)仍在逐漸下調(diào)大模型API價格的企業(yè)。2024年9月,騰訊發(fā)布了混元Turbo大模型,定價為輸入15元/百萬tokens、輸出50元/百萬tokens,在當(dāng)時屬于較高水平。

不過,目前混元Turbo的價格已經(jīng)降至輸入2.4元/百萬tokens、輸出9.6元/百萬tokens,2025年3月發(fā)布的混元TurboS價格則降至輸入0.8元/百萬tokens、輸出2元/百萬tokens。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲部分騰訊混元大模型的價格(圖源:騰訊云)

科大訊飛的API服務(wù)按照token包計費,不區(qū)分輸入輸出,不同套餐折合后的token單價不同。

按照價格區(qū)間的中值計算,2024年1月推出的星火3.5的價格約為25元/百萬tokens,同年6月推出的星火4.0價格約為60元/百萬tokens,同年10月發(fā)布的星火4.0 Turbo,以及2025年1月升級后的新版星火4.0 Turbo,都維持了這一價格。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲訊飛星火3.5、星火4.0、星火4.0 Turbo價格變化(智東西制圖)

不過,訊飛也推出了一款基于全國產(chǎn)算力訓(xùn)練的深度推理大模型星火X1,其價格約為11元/百萬tokens。

商湯旗艦?zāi)P腿杖招孪盗械腁PI價格從2024年5月的20元/百萬tokens,回落至2025年4月的9元/百萬tokens,今年7月最新發(fā)布的SenseNova-V6.5 Pro維持了這一價格。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲對應(yīng)模型分別為日日新SenseChat-5-1202、SenseNova-V6-Pro、SenseNova-V6.5 Pro,均為當(dāng)時商湯已發(fā)布的最先進模型(智東西制圖)

三、海外大模型廠商“說一套做一套”,訂閱方案漲至200美元級別

國際主流大模型廠商之間,雖沒有出現(xiàn)明顯的價格戰(zhàn)現(xiàn)象,但“鼓吹”智能的成本將不斷降低,是海外AI圈幾位大咖們最熱衷的話題之一。

今年7月,OpenAI聯(lián)合創(chuàng)始人、首席執(zhí)行官Sam Altman說道:“智能的價格將低到無法計量,我們能將每個單位的智能的成本,每年降低至原來的1/10,至少持續(xù)5年。”

2024年9月,谷歌首席執(zhí)行官Sundar Pichai分享了同樣的觀點:“在不久的將來,智能將像空氣一樣豐富,并且基本上對所有人免費?!?/p>

近期,The Information的統(tǒng)計數(shù)據(jù)揭示了一個與上述觀點相悖的現(xiàn)實,海外主要大模型廠商的API價格在2024年7月后的1年多時間里,就沒有出現(xiàn)明顯的下降,甚至還有輕微的漲幅。

例如,OpenAI的GPT系列模型每百萬tokens的價格,自從2024年底降至12.5美元之后,便沒有繼續(xù)大幅度下探,目前維持在11.25美元的水平。

Anthropic的Claude 3、Claude 4系列模型,自推出以來就從未降價。

谷歌的Gemini Pro模型的調(diào)用價格出現(xiàn)上漲,從Gemini-1.5 Pro的12.5美元/百萬tokens漲至17.5美元/百萬tokens。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲最先進的通用模型價格近期基本沒有出現(xiàn)下降(圖源:The Information)

過去一年中,多家海外頭部AI公司還相繼推出了月費超過200美元的高階訂閱方案。

OpenAI與Anthropic均推出了200美元/月的訂閱檔位;谷歌最新的AI Ultra捆綁包定價為249.99美元/月;xAI旗下的Grok更進一步,將其頂級訂閱方案設(shè)定為300美元/月的高價。

這些高端訂閱服務(wù)的共同特點是:用戶只有支付超高額的月費,才能使用到各家在發(fā)布會上展示的跑分最高、性能最強的旗艦?zāi)P?。無論是更強的推理能力、更長的上下文窗口,還是更精準(zhǔn)的代碼或復(fù)雜任務(wù)處理能力,均被保留在付費墻之后,高性能模型成為高付費用戶專屬的資源。

那么,究竟是什么原因,導(dǎo)致了過去一段時間內(nèi)AI服務(wù)價格下降趨勢的明顯停滯,甚至出現(xiàn)逆向走高呢?

四、算力、數(shù)據(jù)、人才價格持續(xù)推高,大模型玩家們也要考慮ROI

大模型廠商們在算力、數(shù)據(jù)以及人才等方面的巨大投入,驅(qū)動了過去1年AI模型性能的飛速提升。

算力方面,GPU的租賃價格目前已經(jīng)趨于穩(wěn)定。智東西收集的數(shù)據(jù)顯示,2024年9月左右,AWS、微軟Azure、谷歌云等主流公有云上的H100每卡時租賃價格大約在5-11美元的區(qū)間。

今年,根據(jù)算力市場數(shù)據(jù)分析公司Silicon Data的GPU價格指數(shù),H100已經(jīng)基本穩(wěn)定在每卡時租賃價格2-3美元的區(qū)間,沒有出現(xiàn)價格的大幅度波動。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲H100 GPU租賃價格(圖源:Silicon Data)

同時,新一代大模型無論是在訓(xùn)練還是推理階段,算力需求都在不斷增加。在與相對穩(wěn)定的GPU價格復(fù)合后,算力成本成為限制AI服務(wù)價格繼續(xù)下探的“硬門檻”之一。

數(shù)據(jù)也是當(dāng)今大模型訓(xùn)練中不可忽視的成本項。起初,由于監(jiān)管缺位,大模型訓(xùn)練數(shù)據(jù)的獲取成本相對較低。隨著相關(guān)訴訟增多和合規(guī)審查趨嚴(yán),為了避免與數(shù)據(jù)所有者發(fā)生法律糾紛,廠商開始主動與企業(yè)簽訂合同,購買授權(quán)數(shù)據(jù)。

例如,據(jù)《華爾街日報》報道,OpenAI與美國出版集團News Corp簽署的5年數(shù)據(jù)使用協(xié)議金額可能高達(dá)2.5億美元;谷歌則與美國的貼吧類平臺Reddit達(dá)成AI使用內(nèi)容許可協(xié)議,路透社報道稱,其每年價格約為6000萬美元。

與此同時,這些模型背后人才的價格,也在水漲船高。

在國內(nèi),獵聘大數(shù)據(jù)研究院7月份發(fā)布的《2025上半年人才供需洞察報告》顯示當(dāng)前國內(nèi)AI人才缺口已突破500萬,AI技術(shù)人員平均年薪為32.35萬元,50萬年薪以上的AI技術(shù)崗占比高達(dá)31.03%。AI技術(shù)人才的期望年資甚至高于如今的平均年資,為44.09萬元。

大洋彼岸,硅谷的AI人才爭奪戰(zhàn)打得火熱。除了那些數(shù)億美元的個別案例之外,AI人才的整體薪資水平也明顯高于其他行業(yè)。國際職場平臺Levels.FYI上的數(shù)據(jù)顯示,在舊金山灣區(qū),ML/AI工程師的薪資中位數(shù)要比所有軟件工程師的薪資中位數(shù)高13%左右。考慮到所有軟件工程師的統(tǒng)計范疇內(nèi)包含了ML/AI工程師,后者的薪資優(yōu)勢可能更大。

大模型價格戰(zhàn)逆轉(zhuǎn)?深扒17家廠商最新定價,竟有超7成在漲價

▲美國舊金山灣區(qū)ML/AI工程師薪資(圖源:Levels.FYI)

五、訂閱模式面臨服務(wù)成本考驗,成本控制迫在眉睫

打造大模型的成本越來越高昂,而隨著推理模型范式的興起,以及Agent等長序列任務(wù)的出現(xiàn),用戶的用量正在不斷攀升。大模型訂閱就像是一張“無限流量卡”,用戶用得越多,大模型廠商們提供服務(wù)的成本便越高,有部分廠商已經(jīng)被用戶逼到了入不敷出的程度。

本月,Anthropic旗下的Claude Code編程Agent便取消了200美元/月訂閱方案的無限調(diào)用大模型權(quán)限,原因是有用戶幾乎24小時不停地使用大模型,為這些用戶提供AI服務(wù)的成本已經(jīng)達(dá)到了每月數(shù)萬美元,遠(yuǎn)超訂閱方案的定價。

Anthropic更是在發(fā)布會上宣稱,Claude 4 Opus能連續(xù)7小時工作,完成編程類任務(wù)。按照Claude 4 Opus大約50 tokens/秒的推理速度計算,這一任務(wù)大約會用掉126萬個token,成本約113.4美元。

面臨高昂的服務(wù)成本,大模型廠商們紛紛祭出各種手段來降低開支。

DeepSeek在其最新一代模型中提出了多種降本方法。例如,在對DeepSeek-V3.1進行思維鏈壓縮訓(xùn)練后,模型推理時輸出token數(shù)可減少20%-50%,且各項任務(wù)的平均表現(xiàn)與DeepSeek-R1-0528持平。這意味著DeepSeek的聊天機器人,能在不影響

DeepSeek-V3.1還在一個模型內(nèi)支持了思考模式與非思考模式,開發(fā)者可通過特定標(biāo)簽控制推理的開關(guān),進一步節(jié)省API使用成本。

騰訊混元降本的思路是架構(gòu)創(chuàng)新。在混元TurboS上,騰訊融合了兩種架構(gòu),讓Transformer的上下文理解力與Mamba的長序列處理能力結(jié)合,實現(xiàn)性能與效率的平衡。

OpenAI在GPT-5上采取了“模型自動路由”的方式:判斷任務(wù)的復(fù)雜度,將相對簡單的需求分配給輕量模型處理,從而節(jié)省算力資源。托管GPT-5的微軟Azure稱,這一方式最高可將推理成本削減60%。

然而,問題的關(guān)鍵在于:大模型廠商和云服務(wù)提供商的成本下降,并不必然傳導(dǎo)為終端用戶與企業(yè)的使用成本下降。當(dāng)前,如何在高昂的前期研發(fā)與部署投入后,將千億美元級別的AI投資真正轉(zhuǎn)化為商業(yè)價值,已成為所有大模型玩家必須回答的問題。

結(jié)論:大模型價格還有下探空間嗎?

未來,大模型價格的下降還存在幾條路徑。一方面,隨著模型平均性能的提升,未來經(jīng)過優(yōu)化的中低端廉價模型,也可高效解決特定任務(wù)。此外,隨著大模型、芯片領(lǐng)域的基礎(chǔ)研究不斷進步,新的技術(shù)路徑持續(xù)涌現(xiàn),或許能在不犧牲效果的前提下,進一步壓縮訓(xùn)練與推理的單位成本。

從產(chǎn)業(yè)發(fā)展的角度來看,大模型價格的階段性停滯或是回升有其價值。這為廠商回收前期巨額研發(fā)與基礎(chǔ)設(shè)施投入,維持可持續(xù)創(chuàng)新提供了緩沖期,也能推動市場加速探索明確的商業(yè)化場景和付費模式。產(chǎn)業(yè)有望借此機會,營造更為成熟、健康的生態(tài)。