梁文鋒“反對”張一鳴
DeepSeek創(chuàng)始人梁文鋒憑借“小力出奇跡”的技術(shù)路線,正在挑戰(zhàn)字節(jié)跳動張一鳴所代表的“大力出奇跡”的商業(yè)哲學。本文將探討DeepSeek如何通過優(yōu)化訓練策略、降低成本,以及開源策略,成功推出性能卓越的多模態(tài)大模型Janus-Pro,并在AI領域引發(fā)廣泛關注。
眼下最受關注的AI新星、DeepSeek創(chuàng)始人梁文鋒,正在與張一鳴背道而馳的道路上一騎絕塵。
1月28日,DeepSeek發(fā)布新一代多模態(tài)大模型Janus-Pro,分為7B(70億)和1.5B(15億)兩個參數(shù)量版本,且均為開源。
新模型一經(jīng)發(fā)布,就登上了知名AI開源社區(qū)Hugging Face的模型熱門榜。目前,在Hugging Face收錄的40多萬個模型中,熱門榜前五中,DeepSeek獨占其四。
據(jù)DeepSeek介紹,相比去年11月發(fā)布的JanusFlow,Janus-Pro優(yōu)化了訓練策略、擴展了訓練數(shù)據(jù),模型也更大,在多模態(tài)理解和文本到圖像的指令跟蹤功能方面,均取得重大進步,同時還增強了文本到圖像生成的穩(wěn)定性。
與先前引發(fā)全球AI圈轟動的R1大模型類似,Janus-Pro同樣是“小力出奇跡”的成果。
根據(jù)DeepSeek發(fā)布的測試結(jié)果,這款文生圖大模型在多項基準測試中表現(xiàn)出色,甚至強于OpenAI旗下的DALL-E 3,以及Stable Diffusion。
亦有用戶指出,Janus-Pro談不上全面超越DALL-E 3,后者在許多測試中依然更強,輸出圖像分辨率也明顯優(yōu)于Janus-Pro的384×384像素。盡管如此,Janus-Pro以70億的最大參數(shù)量,與120億參數(shù)的DALL-E 3打得有來有回,依然展現(xiàn)了不俗潛力。
“小力出奇跡”的策略,DeepSeek已經(jīng)屢試不爽。
本月早些時候,DeepSeek發(fā)布R1大模型。作為一款開源模型,R1在數(shù)學、代碼、自然語言推理等任務上的性能,號稱可以比肩OpenAI當前最強的o1模型正式版。o1發(fā)布于2024年9月,此前從未被國內(nèi)AI公司迫近,直到R1橫空出世。
更重要的是,DeepSeek只花費了相當于OpenAI零頭的資金、資源,就拿出了堪與o1比肩的產(chǎn)品。
DeepSeek并未公布R1的訓練成本??晒﹨⒖嫉氖?,去年12月底,DeepSeek發(fā)布V3模型,與OpenAI的GPT-4o性能接近,使用2048塊英偉達H800芯片,耗費約560萬美元。相比之下,GPT-4o使用上萬塊英偉達H100芯片(性能優(yōu)于H800),訓練成本約1億美元。
V3、R1不到一個月接連降生,除了震動業(yè)界,也讓AI時代的賣卡王者閃了腰。
1月27日美股交易中,英偉達股價暴跌17%。一天之內(nèi),英偉達市值蒸發(fā)5940億美元(約合4.3萬億人民幣),相當于跌掉了一個騰訊加一個美團。
但長期來看,芯片依然是AI大模型的發(fā)展基石,英偉達作為這一領域技術(shù)壁壘最堅固的公司,“賣鏟者”的長期價值依然堅挺。
面對DeepSeek 沖擊波和其“小力出奇跡”的方法論,篤信并踐行“大力出奇跡”的字節(jié)跳動難免有點尷尬。
自從2023年大舉進軍AI大模型以來,字節(jié)一邊揮舞著支票簿,全球大手筆求購芯片;一邊快速擴充AI業(yè)務矩陣,先后發(fā)布十幾款大模型,外加十幾個AI應用。無論是資金、資源、人才投入,還是AI產(chǎn)品矩陣和業(yè)務條線的數(shù)量,字節(jié)均遙遙領先其他國內(nèi)大廠。
時至今日,字節(jié)在AI大模型領域的“大力出奇跡”收到了一些效果。根據(jù)量子位智庫的數(shù)據(jù),截至2024年11月底,字節(jié)旗下豆包APP的累計用戶超1.6億,日活躍用戶接近900萬,全球范圍內(nèi)僅次于ChatGPT。
但“小力出奇跡”的DeepSeek,讓字節(jié)看似無可置疑的“大力”打法遭遇“破壁人”。
字節(jié)此前依靠“大力出奇跡”,在短視頻、電商、本地生活、游戲、AI等領域開疆拓土。但DeepSeek證明,在技術(shù)創(chuàng)新的加持下,“小力”同樣可以創(chuàng)造“奇跡”,這不僅揭示了一條新的技術(shù)路線,也蘊含著新的商業(yè)哲學。
在這一層意義上,梁文鋒隔空“反對”張一鳴。DeepSeek不僅在AI技術(shù)和產(chǎn)品上打破了舊思維,也在不經(jīng)意間點破了“大力出奇跡”并非放諸四海皆準的商業(yè)真理。
01
在Janus-Pro發(fā)布前,“小力出奇跡”的R1追平了o1,已經(jīng)讓一眾科技大佬驚嘆不已。同樣“小力”的Janus-Pro,有多厲害?
先看成本。
根據(jù)DeepSeek披露的信息,新模型使用一種輕量級的分布式訓練框架,1.5B參數(shù)模型大約需要使用128張英偉達A100芯片訓練7天,體量更大的7B參數(shù)模型則需要256張A100芯片,以及14天訓練時間。
以此推算,依靠大幅壓縮芯片使用量和訓練時間,Janus-Pro的模型訓練成本(不含購買芯片等費用)可低至數(shù)萬美元,相當于一輛新能源車的價格。
在大模型訓練成本動輒以億為單位的大環(huán)境中,區(qū)區(qū)數(shù)萬美元,太省錢了。再看性能。
據(jù)介紹,Janus-Pro是一種自回歸框架,它將多模態(tài)理解和生成統(tǒng)一起來,將視覺編碼解耦,以實現(xiàn)多模態(tài)理解和生成。它通過將視覺編碼解耦為單獨的路徑來解決以前方法的局限性,同時仍然使用單一、統(tǒng)一的轉(zhuǎn)換器架構(gòu)進行處理。這種解耦不僅緩解了視覺編碼器在理解和生成中的角色沖突,還增強了框架的靈活性。
倘若看不懂上面這些拗口的技術(shù)名詞,不妨參考DeepSeek提供的幾個實例。文生圖方面,輸入“一條金色的尋回犬安靜地躺在木質(zhì)門廊,周圍灑滿秋天落葉”,或是“一個有雀斑的年輕女人戴著草帽,站在金色麥田中”,Janus-Pro生成的圖片都像模像樣。
至于圖生文,扔給Janus-Pro一張黃昏湖景照片,提問“猜猜這是哪里”,Janus-Pro能夠判斷出這是杭州西湖,甚至點出了圖中著名景點三潭印月島。最后看落地。
Janus-Pro繼承了DeepSeek的優(yōu)良傳統(tǒng):開源。它使用MIT協(xié)議(限制最少的開源協(xié)議之一),個人、中小企業(yè)可以省不少錢。另有AI開發(fā)者認為,由于模型體量小,Janus-Pro可以在PC端安裝、本地運行,有望進一步降低使用成本。
DeepSeek再度證明,“小力”做出來的東西,并不意味著技術(shù)落后、產(chǎn)品拉胯,更不一定摳摳搜搜,三步一個付費提示,五步一個月卡優(yōu)惠。
而在時間維度上,“小力”甚至并不一定會比“大力”跑得更慢。
根據(jù)公開信息,DeepSeek于2024年前后推出Janus,同年11月迭代至JanusFlow。兩個月后,Janus-Pro上線,在部分指標上已經(jīng)具備與DALL-E 3扳手腕的能力。
Janus-Pro橫空出世,揭示了大模型的各項成本——尤其是芯片成本——是可以被大幅壓縮的?;蛘哒f,OpenAI、谷歌、字節(jié)們打慣了富裕仗,過于“奢侈”和依賴“大力出奇跡”了。
有趣的是,在創(chuàng)下美國上市公司有史以來最大的市值蒸發(fā)幅度后,英偉達回應稱,“DeepSeek是一項卓越的人工智能進展”,同時不忘給自己做廣告,稱“推理過程需要大量英偉達GPU和高性能網(wǎng)絡”。
被別人隔空暴打,還得強顏歡笑,對老黃來說也是頭一遭。
02
Janus-Pro再度展示DeepSeek“小力出奇跡”的威力。相比之下,國外秉持“大力出奇跡”的OpenAI,近期卻多少有點兒翻車。
比如文生視頻大模型,去年2月OpenAI掏出Sora震驚全場,隨后卻是長達10個月的“閉門造車”。中美兩國的AI公司紛紛趁機追趕。
到了12月,Sora總算正式上菜,價格昂貴,效果卻一言難盡,被不少用戶吐槽甚至不如開源模型。谷歌抓住機會,掏出自家的Veo 2與Sora對比,貼臉嘲諷。
盡管丟掉了先發(fā)優(yōu)勢,OpenAI仍然沒有放棄堆芯片、堆算力的“大力”路線。
前幾天,OpenAI拉著軟銀、甲骨文等公司,宣布要成立AI公司“星際之門”,未來四年投資5000億美元,用于AI基礎設施。OpenAI“一生黑”馬斯克第一時間潑冷水,聲稱“他們實際上沒有錢”,并言之鑿鑿稱軟銀能夠確保的資金遠低于100億美元。
與OpenAI相比,字節(jié)對于“大力出奇跡”的玩法更加精通,效果也好得多。
比如字節(jié)AI的核心產(chǎn)品——豆包大模型,在知識、代碼、推理等多項公開測評基準上,最新的1.5 Pro版本得分優(yōu)于GPT-4o,以及DeepSeek-V3。換言之,豆包1.5 Pro的性能同樣位列全球大模型第一陣營。
不過,字節(jié)為AI大模型投入的成本同樣驚人。
就在DeepSeek成為焦點的這幾天,字節(jié)被曝出今年將投入超120億美元用于AI基礎設施。其中,55億美元將被用于購買芯片,68億美元將被用于海外投資。
字節(jié)隨后回應稱,相關消息并不準確。字節(jié)非常重視AI領域的發(fā)展與投入,但相關預算與規(guī)劃傳聞并不正確。
AI大模型技術(shù)仍處于快速迭代階段,公司投入巨資研發(fā)、訓練的新模型,可能幾個月甚至幾個星期后就不再領先。這意味著,如果字節(jié)沿著“大力出奇跡”的思路做AI,每年都需要砸下巨資。
這或許也從側(cè)面解釋了,字節(jié)發(fā)展AI大模型,為何從一開始就格外注重商業(yè)化。
背靠抖音、今日頭條、飛書等業(yè)務板塊,字節(jié)AI大模型不愁找客戶,豆包使用量節(jié)節(jié)攀升。字節(jié)火山引擎總裁譚待曾透露,去年5月豆包大模型日均tokens為1200億,12月15日突破4萬億,7個月里增長超過33倍。
另據(jù)界面援引知情人士言論稱,豆包大模型經(jīng)過多次降價后,毛利潤率依然為正;豆包1.5 Pro的毛利潤率高達50%。
但上述知情人士透露,由于研發(fā)投入巨大,字節(jié)AI大模型業(yè)務仍處于虧損。只有持續(xù)擴大應用側(cè)的模型調(diào)用規(guī)模,才能長期攤銷掉研發(fā)成本。也就是說,字節(jié)仍然需要繼續(xù)推動“降價-拉來更多客戶-獲得更高收入-提高利潤空間-降價”的飛輪。
相比之下,DeepSeek背靠的幻方量化是國內(nèi)頂級私募之一,并不缺少資金。但DeepSeek不僅不燒錢,還想辦法改進技術(shù)來省錢,最終實現(xiàn)“小力出奇跡”。
DeepSeek去年初露崢嶸后,OpenAI的奧特曼在社交媒體上發(fā)帖,暗中吐槽V3大模型缺少真正的創(chuàng)新,只是在復制有效的東西。
從技術(shù)角度來看,奧特曼這番話未必毫無道理;但從技術(shù)理念和企業(yè)哲學來看,DeepSeek無疑給AI大模型領域注入了新鮮空氣。它不僅“小力出奇跡”,更“節(jié)省出奇跡”“開源出奇跡”。這套不講“傳統(tǒng)武德”的組合拳,已經(jīng)讓買芯片、堆算力的外國同行閃了腰,也讓字節(jié)的“大力出奇跡”路線值得再度審視。
03
字節(jié)是“大力出奇跡”打法的受益者。如今,DeepSeek卻成了它的“破壁人”。
“大力出奇跡”打法的基本邏輯是,找到最熱的賽道,快速推出產(chǎn)品,然后注入遠超對手的資金和流量,將其“催熟”,從而占據(jù)優(yōu)勢市場地位、獲得超額回報。字節(jié)的主要業(yè)務——今日頭條、抖音、TikTok等業(yè)務,都在“大力”的推動下,成為各自領域的領頭羊。
2024年,字節(jié)的“大力出奇跡”依然在延續(xù)。
比如紅果短劇,據(jù)QuestMobile測算,2024年3月,紅果短劇的MAU約為5400萬;當年11月,已經(jīng)突破1.4億,凈增約9000萬。一年增長近億MAU,紅果短劇顯然離不開抖音乃至整個字節(jié)的托舉。
在海外,號稱“海外版小紅書”的Lemon8,也在TikTok面臨危局時大規(guī)模投流,下載量暴增,一度被視為字節(jié)的海外B計劃。
而在AI領域,浙商證券在去年底的一份報告中估算,2024年字節(jié)在AI上的資本開支高達800億元,接近百度、阿里和騰訊的總和(約 1000 億元)。預計2025年,這一數(shù)字將翻倍至1600億元,其中AI算力采購900億元,數(shù)據(jù)中心基建和網(wǎng)絡設備則占700億元。
字節(jié)“大力出奇跡”吃過不少敗仗,比如游戲、教育、PICO等。但作為字節(jié)的底層方法論之一,“大力出奇跡”并沒有被舍棄。同時,紅果短劇等新產(chǎn)品的成功,也證明這套方法論仍然有效。
但“大力出奇跡”要想充分發(fā)揮威力,需要外部環(huán)境存在這樣的特征:技術(shù)創(chuàng)新的重要性,遠不如資金資源。
在技術(shù)發(fā)展平穩(wěn)期,企業(yè)往往會發(fā)現(xiàn)自己身處這樣的環(huán)境。近些年,移動互聯(lián)網(wǎng)技術(shù)基本沒有大突破,哪家公司錢更多、資源更豐富,就更有能力搶占更多市場和利潤。“大力出奇跡”不僅有效,幾乎成為不得不選的答案。
但一旦技術(shù)有了飛躍式突破,資金資源就會退居次席。這樣的故事,已經(jīng)在新能源車、商業(yè)航天領域發(fā)生過,如今正在AI大模型賽道重演。
在這一層意義上來說,“小力出奇跡”的DeepSeek,打破了字節(jié)乃至中國互聯(lián)網(wǎng)的執(zhí)念和迷思。R1等新模型的強力表現(xiàn),讓技術(shù)再度壓倒流量、資金、人力等,成為企業(yè)和行業(yè)發(fā)展的主要驅(qū)動力。
家底豐厚的DeepSeek并非被迫省錢,而是有意控制投入,將“小力出奇跡”視為一種更高層次的商業(yè)哲學,而非應對資金緊張的舉措。這也意味著,大模型并非只是“大廠游戲”。中小廠完全可以用更少的芯片和費用,做出更好的產(chǎn)品,進而得到市場和投資者的認可。
相對應的是,AI大模型公司的發(fā)展?jié)摿屯顿Y價值,也不應與所持有的芯片數(shù)量強綁定。“小力出奇跡”的價值不僅在于技術(shù),也讓大廠主導的“大力”商業(yè)邏輯和價值體系發(fā)生動搖。
在科幻小說《三體》中,人類為了應對外星威脅,炮制各類耗費巨大的戰(zhàn)略計劃,卻被小小的“破壁人”一語點破。而在商業(yè)世界中,忙于“大力出奇跡”的字節(jié)、OpenAI們,正在與DeepSeek扮演的“破壁人”正面相遇。
參考資料:
字母榜,《DeepSeek推翻兩座大山》
騰訊科技,《省錢也是技術(shù)活:解密DeepSeek的極致壓榨術(shù)》
人人都是產(chǎn)品經(jīng)理,《霸榜全球 AI 產(chǎn)品 Top100、重啟 App 工廠,熟悉的字節(jié)跳動又回來了》
鞭牛士,《字節(jié)跳動今年計劃斥資120億美元用于AI芯片》
鈦媒體,《DeepSeek除夕炸場!開源多模態(tài)模型發(fā)布,僅128顆A100訓練,英偉達市值減4.3萬億》
作者:彥飛 編輯:王靖
本文由人人都是產(chǎn)品經(jīng)理作者【字母榜】,微信公眾號:【字母榜】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于CC0 協(xié)議
- 目前還沒評論,等你發(fā)揮!