人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

2 評論 1987 瀏覽 4 收藏 12 分鐘

近期,ChatGPT出現(xiàn)了新的趨勢,它開始逐漸向大模型相關(guān)的在線教育應(yīng)用行業(yè)發(fā)展。這不僅會導(dǎo)致在線教育要面臨重塑,而且整個(gè)教育產(chǎn)業(yè)都要面臨巨大挑戰(zhàn)。本文作者分析了AI技術(shù)在教育領(lǐng)域的發(fā)展,感興趣的童鞋不妨來看看。

大模型的顛覆和變革,還只是開始。

ChatGPT一炮而紅,重塑搜索、辦公協(xié)同等多個(gè)場景和行業(yè)后,在線教育,被視為最重要的垂直場景——畢竟大語言模型展示出的能力,正是之前在線教育、AI老師所亟需的。

而且這種趨勢已經(jīng)開始,背靠大模型相關(guān)的在線教育應(yīng)用,已經(jīng)率先在海外火爆。

看過來!讓GPT化身二次元美少女AI家教來講數(shù)學(xué)題的方案,每步都有解法,再不用擔(dān)心看見參考答案的“略”字:

人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

基礎(chǔ)到某個(gè)三角函數(shù)的定義,復(fù)雜到不同的解題方法與技巧,都能得到答案:

人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

這就是最近在海外火爆的AI解題類應(yīng)用,背后App已經(jīng)在App store商店教育分類板塊刷榜。

這種火爆在情理之中:背靠LLM,加上二次元畫風(fēng)頗似《原神》——不得不說,真實(shí)拿捏住了流量密碼。

在這之前,在線教育行業(yè)的主流“AI家教”,背后的本質(zhì)只是推薦算法,換句話說,就是推薦錄好的教學(xué)視頻或解題方法,但無法針對視頻和方法中的某些細(xì)節(jié)給出解答。

而現(xiàn)在,LLM涌現(xiàn)的解題準(zhǔn)確性和語言理解能力,開始對之前可望不可即的技術(shù)實(shí)現(xiàn)帶來了突破——不是在線教育面臨重塑,是整個(gè)教育產(chǎn)業(yè)正在面臨重塑。

01 背后技術(shù)原理:GPT+在線教育=?

二次元美少女家教身后,就是LLM在AI自動解題方面發(fā)揮著作用。

基本思路是在原有流程的一頭一尾,接入LLM,與原有流程中的CLM(可計(jì)算語言模型,Computational Language Model)形成Joint Model模式。

CLM,相比其他AI模型展現(xiàn)出不錯(cuò)的邏輯能力,不過它在語言理解能力和輸出等方面,遇上如今包括GPT-4在內(nèi)的大語言模型還是相形見絀。

Joint Model模式,就是讓LLM提供NLP能力,CLM提供邏輯推理能力。

人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

也就是說,現(xiàn)在的整個(gè)AI解題的過程是這樣的:

題干輸入——LLM處理文本——CLM解題——LLM形成文本——講解輸出

二者結(jié)合,能完成的推理任務(wù)比單個(gè)模型處理的更復(fù)雜,并在必要時(shí)收集相關(guān)數(shù)據(jù)。

由是,AI家教能很好地理解題干內(nèi)容,從而提供講解。

在兩端接入LLM之前,這條AI解題流程也能利用CLM,提供AI家教所需的數(shù)理邏輯和推理能力。

主要依靠CLM對文本信息進(jìn)行數(shù)據(jù)升維,把一維文字信息進(jìn)行高維展開,讓機(jī)器在同一時(shí)間接受文本背后諸如實(shí)體、關(guān)系、參數(shù)、知識等多維度的隱含信息,理解題干背后最終想要求解的東西是什么。

再對CLM進(jìn)行“部分不召回”設(shè)定,即“不能保證100%做對的題,AI不會輸出結(jié)果”,從而保證AI家教的講解和最終答案一定正確。

人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

這也能解釋為什么現(xiàn)在的Joint Model模式中,對LLM的應(yīng)用重點(diǎn)在NLP領(lǐng)域,而非邏輯和推理能力上——

GPT-3.5起,大模型毫無征兆地涌現(xiàn)出數(shù)理邏輯和推理能力,但它們既不穩(wěn)定,也不絕對可靠,AI家教無法在接入后直接落地使用。

與其執(zhí)著于糾正LLM的“胡說八道”,不如轉(zhuǎn)而重點(diǎn)利用它相對穩(wěn)定發(fā)揮的NLP能力。

02 二次元美少女AI家教背后是誰

有意思的是,這位AI家教背后還是一家中國公司。

來自悉之智能,2017年成立,核心創(chuàng)始團(tuán)隊(duì)都來自清北。

創(chuàng)始人兼CEO孫一喬,清華大學(xué)電子系2017屆學(xué)生,在校期間參與搭建清華XLP超限學(xué)習(xí)團(tuán)隊(duì),并深度參與校內(nèi)某院系課程體系深度改革,帶領(lǐng)數(shù)十人搭建了清華大學(xué)首個(gè)自適應(yīng)學(xué)習(xí)引擎。

聯(lián)合創(chuàng)始人兼CPO代佩霖,北京大學(xué)金融系畢業(yè),曾入選福布斯亞洲30 under30;算法合伙人林東生,也畢業(yè)于清華大學(xué)電子系,是悉之智能自研CLM背后的發(fā)明者之一。

幾位合伙從一開始?xì)⑷階I教育行業(yè),就主攻自動解題。

入局之初,還算趕上了個(gè)好時(shí)候,加上是國內(nèi)第一家做出多模態(tài)解題家教的公司,成立次年就拿下新東方旗下“東方新創(chuàng)” 的1000萬元天使輪融資。等到2020年,公司已完成近億元A輪融資。

直到2021年經(jīng)歷雙減風(fēng)暴……

好在雙減來臨的同月,仍然順利拿到2000萬美金的A+輪融資,投資方是啟明、經(jīng)緯和真格等一線VC。

但是,公司業(yè)務(wù)重心不得不開始向海外市場轉(zhuǎn)移。

等到在新的市場站穩(wěn)腳跟開拓市場,涌現(xiàn)邏輯能力的ChatGPT卻突然現(xiàn)世,突破了業(yè)界的傳統(tǒng)認(rèn)知,也打亂了他們的陣腳:

我們原本以為AI不會這么快出現(xiàn)邏輯能力。

不僅低估了OpenAI在GPT系列上的進(jìn)度,還低估了GPT涌現(xiàn)出的能力的強(qiáng)度。

早些時(shí)候,谷歌用一個(gè)36B的LaTeX數(shù)據(jù)集Fine-tuning PaLM540B,在MATH上取得了50分。同一測試集上選出CLM覆蓋的高中數(shù)學(xué)部分,悉之智得分在70分左右。

“比谷歌最引以為傲的PaLM得分高,也高于市場上的Photomath等產(chǎn)品,包括ChatGPT3.5最開始的解題能力得分也低于我們?!睂O一喬邊笑著復(fù)盤邊揮舞胳膊,外化他的興奮。

人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

結(jié)果GPT-4光速出現(xiàn),出場即碾壓所有玩家的解題能力。

但他好像并不沮喪,“這一波就是全世界看OpenAI裝逼嘛,驚得谷歌的下巴都掉下來了”。孫一喬的邏輯里,OpenAI虐了全世界,悉之智能的AI又能虐其他人,“沒什么不值得驕傲的。”

他還笑著補(bǔ)充,自家AI能力也不是為了刷榜好看,主要是能落到教育AI行業(yè)應(yīng)用,這才是“至關(guān)重要”。

孫一喬很愛笑,熟悉他的人都這么說,尤其是在談到GPT系列對傳統(tǒng)帶來顛覆性影響和可能性的時(shí)候。

3月底,歐盟批準(zhǔn)谷歌收購了我們在國際市場上最大的競爭對手,也是傳統(tǒng)解題公司的代表——PhotoMath。

每每提到這點(diǎn),孫一喬都嘴角上揚(yáng),難掩興奮,要埋下頭用雙手捂臉數(shù)秒來平復(fù)心情。

PhotoMath納入谷歌麾下,有了技術(shù)、資金靠山,也代表著PhotoMath的一條快讀通道被封死了——這家數(shù)學(xué)應(yīng)用程序公司接入GPT-4及后續(xù)GPT系列API的可能性幾乎為零。

但是GPT和CLM的組合,可以讓解題能力繼續(xù)突破。

這也是孫一喬“不沮喪”的數(shù)據(jù)支撐。在一個(gè)GPT-4解題率為82%的測試集上,悉之最新fine-tuning GPT的Joint Model最新解題率在92%。

究其原因,他的解釋是Joint Model天然包含大量解耦好的NLP任務(wù),最新工作中,團(tuán)隊(duì)把之前基于Bert的CLM換為fine-tuning后的GPT,將GPT作為預(yù)訓(xùn)練模型,將CLM作為邏輯校驗(yàn)?zāi)P?,繼續(xù)提高解題上限。

人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

孫一喬還表示,LLM不只提升AI家教背后模型的NLP能力,對多模態(tài)交互也有不少幫助

現(xiàn)在的AI家教形象,比以前聲音更好聽,形象也更好看。在接下來的計(jì)劃中,對話交互能力也將得到增強(qiáng),在授課過程中隨時(shí)提問,都能得到AI家教的解答。

計(jì)劃中,旗下AI家教還會拓展數(shù)學(xué)之外的學(xué)科版圖,也將開啟新一輪的融資。

人美聲甜GPT,數(shù)學(xué)題哪里不會講哪里

深陷雙減風(fēng)暴之后,教育底色的公司們都逐漸找到了新的打法。

?改弦更張的,如新東方,在直播領(lǐng)域大殺四方;繼續(xù)探索在線教育之路的,悉之智能利用LLM提升解題能力,優(yōu)化多模態(tài)交互,據(jù)悉,猿輔導(dǎo)也已經(jīng)用AIGC在傳統(tǒng)教育領(lǐng)域?qū)ふ倚碌臋C(jī)會。

LLM能力應(yīng)用在教育領(lǐng)域后,不知道繼續(xù)深耕在線教育的這些公司里,誰又是新一輪的最大贏家?

作者:衡宇

來源公眾號:量子位(ID:QbitAI),追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破

本文由人人都是產(chǎn)品經(jīng)理合作媒體 @量子位 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于CC0協(xié)議。

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 請問博主,用魔法棒后進(jìn)入GPT-4即可使用?

    來自廣東 回復(fù)
  2. 這樣對接的成本會不會很高?如果一個(gè)用戶是學(xué)霸他刷了一天的題,花的token豈不是很多

    來自廣東 回復(fù)