大模型圈最新現(xiàn)狀:一半在用DeepSeek,另一半在玩“顏文字”?
在人工智能的大模型領(lǐng)域,東方的力量正在崛起,與西方科技巨頭形成激烈競(jìng)爭(zhēng)。本文將帶您深入了解大模型圈的最新現(xiàn)狀,特別是DeepSeek和阿里通義千問(wèn)開源的系列模型如何在全球AI模型性能榜單上嶄露頭角。
這兩天的大模型圈子,可謂是熱鬧非凡。
一邊,DeepSeek憑借其低成本、高性能的亮眼表現(xiàn),吸引著無(wú)數(shù)目光,各路技術(shù)大牛紛紛點(diǎn)贊。
而另一邊,社交媒體和技術(shù)論壇上卻開始流行起各種奇特的“顏文字”,比如“QwQ”、“QVQ”,不明所以的人可能一臉懵,但懂行的人都知道,這指的正是阿里通義千問(wèn)開源的系列模型。
今年9月,阿里發(fā)布通義千問(wèn)新一代開源模型Qwen2.5系列,一口氣推出了從0.5B到72B參數(shù)的不同規(guī)模版本,覆蓋了各種應(yīng)用需求,成功躋身全球頂尖開源模型行列,多模態(tài)、多語(yǔ)言能力樣樣不落,成了不少企業(yè)和開發(fā)者的心頭好。
不僅如此,Qwen團(tuán)隊(duì)最近也動(dòng)作頻頻,接連開源了幾款頗具亮點(diǎn)的 AI 模型,持續(xù)引發(fā)關(guān)注。
Qwen團(tuán)隊(duì)的命名風(fēng)格也是相當(dāng)“抽象”:QVQ,“兩眼瞪”;QwQ,像是鍵盤上不小心蹭了一下。
這是什么代碼世界的顏文字?
似乎技術(shù)大牛們?cè)趪?yán)肅的科研之余,偷偷藏了一點(diǎn)“皮”。
也許,Qwen的命名哲學(xué)就是:名字隨意,能打才是硬道理?
提起生成式 AI,大家的目光似乎總離不開大洋彼岸的科技巨頭:OpenAI、谷歌、Meta。
但最近,AI圈子里卻頻頻閃現(xiàn)一些來(lái)自東方的身影,比如DeepSeek和阿里的通義千問(wèn)Qwen,它們正在各大AI模型性能榜單上攻城略地,成為焦點(diǎn)。
要知道,過(guò)去我們聊到國(guó)產(chǎn)大模型,總感覺(jué)帶著點(diǎn)“追趕者”的陰影。
但現(xiàn)在這樣的中國(guó)開源力量,正在用實(shí)力證明自己不再是看客,而是足以和OpenAI、Meta這些巨頭勁旅掰手腕的角色。
Hugging Face 2024 年年度盤點(diǎn)數(shù)據(jù)就很有意思:Qwen2.5-1.5B-Instruct 的下載量占比高達(dá) 26.6%,碾壓了Llama 3 和 Gemma這些明星開源模型。
下載量這東西,雖然不能完全等同于“最強(qiáng)實(shí)力”,但絕對(duì)是人氣的硬指標(biāo)。
Qwen2.5-1.5B-Instruct的超高下載量,證明了其在當(dāng)前時(shí)間節(jié)點(diǎn)上的廣泛應(yīng)用和高人氣,也反映出中國(guó)公司開發(fā)的開源大模型正在國(guó)際舞臺(tái)上展現(xiàn)出越來(lái)越強(qiáng)的影響力,實(shí)際上,Hugging Face平臺(tái)上 2023年下載量最高的開源模型,同樣來(lái)自中國(guó)社區(qū),是智源研究院BGE-base。
對(duì)于Qwen的亮眼表現(xiàn),國(guó)外網(wǎng)友也是喜聞樂(lè)見,甚至已經(jīng)開始玩梗了:扎克伯格可能正偷偷瞅著你用Qwen而不是 Llama?!?/p>
一、圣誕大禮包QvQ,首個(gè)開源多模態(tài)推理模型
網(wǎng)友們開始用上的包括Qwen團(tuán)隊(duì)送上的圣誕禮物:QVQ-72B-Preview。這是一款能夠分析圖像并進(jìn)行推理的全新開源模型。雖然還處于實(shí)驗(yàn)階段,但初步測(cè)試表明,它在視覺(jué)推理任務(wù)中表現(xiàn)相當(dāng)出色。
QVQ通過(guò)逐步思考來(lái)解決問(wèn)題,類似于OpenAI的o1或Google的Flash Thinking等能夠“逐步思考”的模型。
用戶扔給它一張圖和一些指令,系統(tǒng)會(huì)分析信息,在必要時(shí)花時(shí)間進(jìn)行反思,并以每個(gè)預(yù)測(cè)的置信度分?jǐn)?shù)提供答案。
在底層架構(gòu)上,QVQ-72B-Preview 基于 Qwen 現(xiàn)有的視覺(jué)語(yǔ)言模型 Qwen2-VL-72B 構(gòu)建,并增添了思考與推理的能力,這使它成為首個(gè)此類開源模型。
開發(fā)者在Macbook Pro上運(yùn)行QVQ在基準(zhǔn)測(cè)試中,開源的QVQ全面超越了其前身Qwen2-VL-72B-Instruct,達(dá)到了與閉源模型如 OpenAI 的 o1 和 Claude 3.5 Sonnet 相近的準(zhǔn)確水平。
QVQ-72B-Preview 的基準(zhǔn)測(cè)試結(jié)果
在實(shí)際測(cè)試中,一位網(wǎng)友拍了一張紐約地鐵照片考驗(yàn)QVQ,并提問(wèn)“如果我要去唐人街,我該在這站下車嗎?”用戶最終表示模型做出了正確的判斷,結(jié)合問(wèn)題進(jìn)行了有效的推理。
二、獲陶哲軒點(diǎn)贊的開源推理模型QwQ
時(shí)間再往前推,2024年11月28日,Qwen團(tuán)隊(duì)還開源了一款專注于推理能力的AI模型 QwQ-32B-Preview。
這是Qwen團(tuán)隊(duì)發(fā)布的首個(gè)開源推理模型,旨在增強(qiáng)AI推理能力。
盡管參數(shù)量?jī)H為32B,但在 GPQA、AIME、MATH-500 和 LiveCodeBench 等多個(gè)評(píng)測(cè)中,QwQ 都取得了不俗的成績(jī),甚至在部分測(cè)試中超越了超越了o1。
QwQ具備深度自省能力,能夠質(zhì)疑自身假設(shè)并進(jìn)行深思熟慮的自我對(duì)話,從而解決復(fù)雜問(wèn)題。
雖然QwQ目前還處于實(shí)驗(yàn)階段,但它展現(xiàn)出的強(qiáng)大分析能力和獨(dú)特的推理方式,已經(jīng)吸引了不少目光,甚至連數(shù)學(xué)界的大牛陶哲軒都公開點(diǎn)贊,說(shuō)它的表現(xiàn)超越了以往的所有開源模型。
在 AIMO(AI 數(shù)學(xué)奧林匹克)挑戰(zhàn)賽中,Qwen 系列模型也成為了參賽者們最常用的模型之一,位列前三。
AIMO使用最多的模型排名前三均為Qwen
“開放權(quán)重、價(jià)格低、基礎(chǔ)能力突出,這樣的推理模型誰(shuí)不喜歡呢”。
三、Qwen2.5-Coder:開源界的“代碼扛把子”?
Qwen2.5 系列的發(fā)布,尤其是 Qwen2.5-Coder 的亮相,在AI圈內(nèi)引發(fā)了一波討論。
盡管模型體積相對(duì)較小,但Qwen 2.5 Coder32B在HumanEval 等編程基準(zhǔn)測(cè)試中仍能與前沿模型相媲美。
有海外技術(shù)博主就吐槽,現(xiàn)在大家好像都盯著 OpenAI、谷歌、Anthropic 這些巨頭的動(dòng)態(tài),卻忽略了Qwen這個(gè)“狠角色”。人家可是第一個(gè)能跟Claude Sonnet和GPT-4o正面硬剛,還能在你電腦上本地運(yùn)行的開放權(quán)重模型。這可不僅僅是跑分好看而已,很多體驗(yàn)過(guò)的人都說(shuō)“真香”。
相比之下,DeepSeek的模型雖然也很牛,但體積太大,本地跑起來(lái)有點(diǎn)費(fèi)勁(彼時(shí)deepseek v3還未發(fā)布)。Qwen2.5-Coder 的出現(xiàn),對(duì)于開源社區(qū)來(lái)說(shuō)絕對(duì)是個(gè)大新聞。
更良心的是,阿里還把技術(shù)報(bào)告完完整整地公開了,沒(méi)有藏著掖著,與社區(qū)共享這份成果。
還有開發(fā)者基于Qwen2.5-Coder做了AI 的視頻編輯器Video Composer,用戶可以通過(guò)拖放素材(如圖片、視頻和音頻),并使用自然語(yǔ)言,讓Qwen2.5-Coder生成新視頻(基于 FFMPEG 技術(shù))。
四、滿足多樣化需求,全球化的Qwen
Qwen的另一大優(yōu)勢(shì)在于它的“平易近人”。
Qwen2.5 系列不僅面向技術(shù)專家或大型企業(yè),它的設(shè)計(jì)初衷是讓廣大用戶都能輕松使用。
從資源受限設(shè)備適用的 0.5 億參數(shù)版本,到企業(yè)級(jí)應(yīng)用所需的 720 億參數(shù)版本,提供了豐富的選擇,滿足不同需求。
在日本,阿里云與東京大學(xué)初創(chuàng)企業(yè) Lightblue 合作,旨在提升其日語(yǔ)大型語(yǔ)言模型(LLMs)。Lightblue 借助阿里云的架構(gòu)及 Qwen LLM技術(shù),對(duì)模型進(jìn)行了優(yōu)化,從而提高了東亞語(yǔ)言的準(zhǔn)確性。
知名投資人Coinbase前CTOBalaji Srinivasan也公開認(rèn)可了 Qwen 的多模態(tài)和多語(yǔ)言能力。現(xiàn)在,全球各地的工程師幾乎都可以輕松訪問(wèn)Qwen的各類模型。
更難得的是,Qwen在處理多種語(yǔ)言方面表現(xiàn)出色,即使是一些全球AI訓(xùn)練數(shù)據(jù)比較少的“小語(yǔ)種”,比如緬甸語(yǔ)、孟加拉語(yǔ)和烏爾都語(yǔ),它也能應(yīng)對(duì)。
相比之下,Meta的開源AI模型Llama主要還是針對(duì)英語(yǔ)應(yīng)用為主。
不少日本開發(fā)者在認(rèn)真研究 Qwen2.5 的技術(shù)報(bào)告
五、中國(guó)AI開源勢(shì)力崛起
Qwen等中國(guó)AI模型的崛起,為國(guó)內(nèi)企業(yè)提供了更多選擇和可能性。在當(dāng)前國(guó)際環(huán)境,意義更加凸顯。更關(guān)鍵的是,它們不僅僅是一個(gè)“備胎”選項(xiàng),而是正在證明自己有實(shí)力與美國(guó)頂尖技術(shù)掰手腕。
Qwen的意義,也不僅僅體現(xiàn)在技術(shù)上,其背后代表的開放、協(xié)作,這說(shuō)明中國(guó)在AI領(lǐng)域并沒(méi)有掉隊(duì),反而通過(guò)開源展現(xiàn)出了強(qiáng)勁的競(jìng)爭(zhēng)力。
事實(shí)證明,所謂的GPU限制并沒(méi)有阻礙中國(guó) AI 的發(fā)展。如果這個(gè)勢(shì)頭保持下去,中國(guó)很有可能在LLM市場(chǎng)占據(jù)更重要的地位。
當(dāng)開源模型比 Meta(發(fā)布帶有特殊 Llama 研究許可的模型)還要開放,當(dāng)大家都能用上性能不輸甚至更強(qiáng)的開源模型時(shí),誰(shuí)會(huì)不樂(lè)于使用呢?
CNBC 近期也發(fā)文指出,中國(guó)在LLM方面取得了顯著進(jìn)展,Qwen、DeepSeek等模型在某些方面已經(jīng)超越了美國(guó)的競(jìng)爭(zhēng)對(duì)手。
中國(guó)公司正積極擁抱開源模式,推動(dòng)AI技術(shù)的發(fā)展和應(yīng)用,以促進(jìn)創(chuàng)新并擴(kuò)大全球影響力。
文章認(rèn)為,中國(guó)正在AI領(lǐng)域快速崛起,其AI模型已經(jīng)具備相當(dāng)?shù)膰?guó)際競(jìng)爭(zhēng)力,并且正在努力構(gòu)建自主可控的AI生態(tài)。
Hugging Face的 CEO Clem在其2025年AI預(yù)測(cè)中甚至提到,中國(guó)將開始引領(lǐng)人工智能競(jìng)賽,這主要得益于其在開源人工智能競(jìng)賽中的領(lǐng)先地位。
Sam Altman最近在“感嘆”:復(fù)制相對(duì)容易,而做全新且有風(fēng)險(xiǎn)的事情極其困難。
不過(guò)他也表示,成功的個(gè)體研究人員理應(yīng)獲得贊譽(yù),因?yàn)檫@“是世界上最酷的事”。
評(píng)論區(qū)里,Vaibhav Srivastav回應(yīng)到,公開的共享不應(yīng)被忽視,并點(diǎn)名Qwen和DeepSeek團(tuán)隊(duì),他們同樣值得喝彩。
開放的心態(tài),加上對(duì)工程實(shí)踐的重視,正在加速中國(guó)AI行業(yè)的發(fā)展。
曾經(jīng)被認(rèn)為會(huì)因半導(dǎo)體限制和計(jì)算能力受限而受阻的中國(guó)AI產(chǎn)業(yè),正以開源模型為代表向世界證明,它有能力與全球頂尖水平同臺(tái)競(jìng)技,并在全球范圍內(nèi)創(chuàng)造更大的價(jià)值。
作者|周一笑
本文由人人都是產(chǎn)品經(jīng)理作者【硅星人】,微信公眾號(hào):【硅星人Pro】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來(lái)自Unsplash,基于 CC0 協(xié)議。
- 目前還沒(méi)評(píng)論,等你發(fā)揮!