「豆包」拉低價格線 全球大模型開卷性價比

0 評論 1068 瀏覽 2 收藏 8 分鐘

豆包大模型將大模型用價拉至行業(yè)新低,國內(nèi)各大模型廠商紛紛跟進(jìn)降價,百模大戰(zhàn)也隨著集體降價進(jìn)入了新階段。

大模型也開始打起價格戰(zhàn)。

5月15日,字節(jié)跳動旗下火山引擎發(fā)布豆包大模型,除了針對C端用戶的豆包APP可免費使用該模型的應(yīng)用外,豆包大模型將B端用價拉至行業(yè)最低。

按照火山引擎總裁譚待的說法,豆包主力模型(≤32K)在企業(yè)市場的定價只有0.0008元/千Tokens,0.8厘就能處理1500多個漢字,比行業(yè)便宜99.3%。

豆包以高性價比亮相之前,通義千問、智普AI、DeepSeek等國內(nèi)很多大模型都開始“卷”起價格,百模大戰(zhàn)也隨著集體降價進(jìn)入了新階段。正如譚待所說,降低成本是推動大模型快進(jìn)到“價值創(chuàng)造階段”的一個關(guān)鍵因素。

一、「豆包」將B端用價拉至行業(yè)新低

豆包大模型的前身是云雀大模型,也是2023年8月字節(jié)跳動旗下發(fā)布的首個基于Transformer架構(gòu)的大模型。半年后,豆包大模型不僅出了全家桶,還將針對行業(yè)B端用戶降價。

豆包主力模型在企業(yè)市場的定價只有0.0008元/千Tokens,0.8厘就能處理1500多個漢字,比行業(yè)便宜99.3%。據(jù)此計算,1塊錢就能買到豆包主力模型的125萬Tokens的用量,大約為200萬個漢字,相當(dāng)于三本《三國演義》。而128K的豆包通用模型也只需要0.005元/千Tokens,比行業(yè)價格低95.8%。

要知道GPT-4 Turbo 輸入1000 Tokens為0.01美元,輸出1000 Tokens價格為0.21元。相比之下,字節(jié)跳動直接把價格“打骨折”,堪稱AI界的拼多多。

不止“豆包”,國內(nèi)不少大模型都在降價。

不久前,百度發(fā)布了文心大模型輕量版,其中ERNIE Tiny版本的價格降到了0.001元每千Tokens,相當(dāng)于1元100萬Tokens。

今年5月,智譜AI的大模型商用價格也大幅降價。入門級產(chǎn)品GLM-3 Turbo模型調(diào)用價格下調(diào)80%,從5元/百萬Tokens降至1元/百萬Tokens,足以讓更多企業(yè)和個人都能用上這款入門級產(chǎn)品。

智譜AI的大模型的價格

5月6日,國內(nèi)知名私募巨頭幻方量化旗下的AI公司DeepSeek發(fā)布全新第二代MoE大模型DeepSeek-V2,DeepSeek-V2 API定價為每百萬Tokens輸入1元、輸出2元(32K上下文)。

5月9日,阿里云正式發(fā)布通義千問2.5,根據(jù)OpenCompass的測評結(jié)果,通義千問2.5得分追平GPT-4 Turbo,與此同時,個人用戶可從App、官網(wǎng)和小程序免費使用。

5月14日,騰訊的混元文生圖大模型直接開源,免費商用。

在海外,OpenAI剛剛發(fā)布的GPT-4o也大幅度降價,不僅供所有用戶免費使用,在API調(diào)用方面也比去年11月發(fā)布的GPT-4-turbo降價一半,但速度提升兩倍。這是OpenAI大模型產(chǎn)品的第三次降價。

法國人工智能企業(yè)Mistral AI大模型Mistral Large的輸入、輸出價格目前也比GPT-4 Turbo便宜約20%,一度引起廣泛關(guān)注。

無論國內(nèi)還是海外,大模型正在集體降價。

二、大模型降本,應(yīng)用落地增效??

各個廠商“價格戰(zhàn)”已經(jīng)開打,而在大半年前,人們獲知的常識是大模型訓(xùn)練很燒錢,為何僅僅半年時間,廠商們就能將價格“打下來”、紛紛卷了起來?

火山引擎總裁譚待認(rèn)為,降低成本是推動大模型快進(jìn)到“價值創(chuàng)造階段”的一個關(guān)鍵因素。對于中小型企業(yè)客戶而言,調(diào)用大模型的一個重要考慮就是成本。譚待透露,字節(jié)跳動在模型結(jié)構(gòu)、訓(xùn)練、生產(chǎn)等各種技術(shù)層面有很多優(yōu)化手段能夠?qū)崿F(xiàn)降價。

OpenAI CEO Sam Altman也為人們不用在ChatGPT上看廣告就能使用它而感到驕傲, “我們的一個關(guān)鍵使命就是將AI產(chǎn)品免費提供給人們?!?/p>

的確,低價正在幫助大模型研發(fā)企業(yè)抓住市場機會,以占據(jù)一席之地。而用戶體量的增加也能反過來幫助研發(fā)訓(xùn)練出更好模型。那么,大模型的訓(xùn)練成本真的降低了嗎?

去年GPT-4發(fā)布時,Sam Altman曾透露,OpenAI 最大模型的訓(xùn)練成本“遠(yuǎn)遠(yuǎn)超過了5000萬美元”。據(jù)斯坦福大學(xué)發(fā)布的《2024年人工智能指數(shù)報告》估算,OpenAI的GPT-4訓(xùn)練成本為7800萬美元。

高昂的大模型訓(xùn)練成本也直接推高的使用費用,直接將很多企業(yè)用戶阻攔在外。

不過,研究人員們正在尋找更低成本的訓(xùn)練方法。去年,新加坡國立大學(xué)和清華大學(xué)的研究者提出了一個名為 VPGTrans 框架,以極低成本訓(xùn)練高性能多模態(tài)大模型,相比于從頭訓(xùn)練視覺模塊,VPGTrans 框架可以將 BLIP-2 FlanT5-XXL 的訓(xùn)練開銷從 19000 +人民幣縮減到不到1000元。

國產(chǎn)大模型中,研發(fā)人員也各個方面找到降本增效的辦法。DeepSeek-V2提升數(shù)據(jù)集質(zhì)量、優(yōu)化架構(gòu)后,AI異構(gòu)計算平臺“百舸”將訓(xùn)練和推理場景的吞吐量最高提升30%和60%。

除了訓(xùn)練過程外,一些大模型訓(xùn)練的基礎(chǔ)設(shè)施——芯片也在降價,比如英偉達(dá)AI芯片Nvidia A100的降價直接將大模型訓(xùn)練成本降低了約60%。

大模型價格戰(zhàn)最直接的影響就是應(yīng)用落地開始提速。豆包平臺上,已經(jīng)有超過800萬個智能體被創(chuàng)建。GPT Store已有超過300萬個依托GPT模型的APP被創(chuàng)建。

僅半年時間,砸錢拼大模型性能的時代似乎已經(jīng)是過去式?,F(xiàn)如今,市場用戶也隨著各家大模型的降價更看重誰家大模型又實惠又好用。這將推動大模型應(yīng)用更快在場景和商業(yè)上實現(xiàn)落地。

本文由人人都是產(chǎn)品經(jīng)理作者【元宇宙日爆】,微信公眾號:【元宇宙日爆】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!