我的AI產(chǎn)品經(jīng)理轉(zhuǎn)型之路
在當(dāng)今快速發(fā)展的人工智能領(lǐng)域,轉(zhuǎn)型成為AI產(chǎn)品經(jīng)理已成為許多專業(yè)人士的職業(yè)發(fā)展選擇。這不僅是一個挑戰(zhàn),也是一次深入了解AI技術(shù)、應(yīng)用和商業(yè)潛力的機(jī)會。本文將為你提供一個全面的指南,從基礎(chǔ)的AI知識學(xué)習(xí)到實際的應(yīng)用實踐,再到開發(fā)自己的AI產(chǎn)品,每一步都為你指明了方向。
接下來的這篇內(nèi)容,我足足花了將近一年的時間去籌備和積累!ta將會是三白過去一年所有AI知識的匯總沉淀,以及個人轉(zhuǎn)型AI產(chǎn)品經(jīng)理路上的關(guān)鍵總結(jié)。
過去一年多里整個商業(yè)世界都在討論AI,而對我而言,個人認(rèn)為AI未來對我們的影響,不亞于當(dāng)年移動互聯(lián)網(wǎng)對我們的影響,具體可能會體現(xiàn)在我們的職業(yè)方向或者創(chuàng)業(yè)方向上,AI可能是我們提升職業(yè)競爭力以及尋找創(chuàng)業(yè)方向的關(guān)鍵點,作為一個互聯(lián)網(wǎng)行業(yè)的產(chǎn)品經(jīng)理,我覺得自己有必要向AI產(chǎn)品經(jīng)理轉(zhuǎn)型,這是職業(yè)競爭的必要,同時也是我自己的興趣所在,所以在一年前我就深深的意識到深入了解AI的重要性;
和大部分人一樣,相信過去一年很多人都會有AI學(xué)習(xí)的焦慮癥,去年的時候我特別希望能夠有一個類似AI學(xué)習(xí)地圖之類的東西,能夠指導(dǎo)我快速深入的學(xué)習(xí)AI,但是作為一個新興的事物,我找了很久,市面上基本沒有這樣的內(nèi)容,大部分的都是碎片化的信息。
經(jīng)過自己一年多的摸索和積累,雖然自認(rèn)為已經(jīng)了解了很多AI相關(guān)知識,但是我還是覺得太過零散,我想要把這些碎片化的知識系統(tǒng)性的組織起來,自己輸出一個類似AI學(xué)習(xí)地圖或者學(xué)習(xí)系統(tǒng)之類的東西,最好是能做到通過一篇文章,系統(tǒng)深入的學(xué)習(xí)AI,避免那些想要學(xué)習(xí)了解AI的朋友像無頭蒼蠅一樣看見什么信息都啃,卻不知道啃到什么時候才算到頭;所以這篇文章,會是一個“從AI小白到專家的學(xué)習(xí)成長路徑的內(nèi)容”,也會是一個“傳統(tǒng)產(chǎn)品經(jīng)理向AI產(chǎn)品經(jīng)理轉(zhuǎn)型的學(xué)習(xí)路徑”,我將分享如何從一個AI小白慢慢成為至少有一定專業(yè)度、符合自己標(biāo)準(zhǔn)的“專家”(以專家自詡可能會有些不要臉,和市面上很多真正的高手相比還算不上,這里主要以我個人的標(biāo)準(zhǔn),能達(dá)到自己滿意的認(rèn)知程度即可),或者從一個傳統(tǒng)互聯(lián)網(wǎng)產(chǎn)品經(jīng)理逐步轉(zhuǎn)型成為一個AI產(chǎn)品經(jīng)理。
為了學(xué)習(xí)AI,過去1年我做了哪些事情?
在過去的一年多里,為了想辦法讓自己從一個AI小白,到逐步成長成為達(dá)到我自己標(biāo)準(zhǔn)的專家,并順利轉(zhuǎn)型成為AI產(chǎn)品經(jīng)理,我做了如下幾件自認(rèn)為比較重要的事情:
- 理解語言:投入的大量的時間學(xué)習(xí)和理解AI相關(guān)的知識,包括大模型技術(shù)以及AI應(yīng)用相關(guān)的概念和術(shù)語,讓自己建立行業(yè)的共同語言;
- 應(yīng)用實踐:通過大量的AI應(yīng)用實踐解決自己工作和生活中的效率問題,讓自己逐漸成為一個能夠熟練的應(yīng)用AI工具提升效率的行家;
- 深度研究:嘗試深度的研究和分析市面上的AI產(chǎn)品,并輸出高質(zhì)量的AI應(yīng)用研究分析;
- 開發(fā)一個AI產(chǎn)品:自己組建團(tuán)隊從0到1的開發(fā)一個AI產(chǎn)品“AI快研俠(www.kuaiyanai.com)”,并持續(xù)的運營,完成用戶規(guī)模增長和商業(yè)化;
- 知識輸出:利用自己的知識和經(jīng)歷,給數(shù)百個客戶和用戶提供關(guān)于AI的咨詢服務(wù),幫助他們更好的理解AI和轉(zhuǎn)型AI產(chǎn)品經(jīng)理,同時自己沉淀一個AI學(xué)習(xí)的課程或知識庫;
我將分享哪些內(nèi)容?
正如前面提到的,這是一個系統(tǒng)學(xué)習(xí)AI的路徑地圖,所以內(nèi)容會比較龐大,整個內(nèi)容體系預(yù)計包括20+篇文章,累計字?jǐn)?shù)預(yù)計超過10萬+字,三白花費了將近1個多月的時間逐步整理和輸出,整個知識庫內(nèi)容概覽如下圖;而本篇內(nèi)容算是對整個內(nèi)容體系的一個概覽和開篇,全文累計2.5萬字,剩余內(nèi)容,以及在未來的時間里,我將分階段部分分享出來;
在整個AI學(xué)習(xí)框架里面,概括起來,我會重點分享如下9部分內(nèi)容:
- 分享一個系統(tǒng)的AI學(xué)習(xí)路徑規(guī)劃:在這部分里面我將嘗試解答一個問題,一個小白用戶,如果想要系統(tǒng)深入的學(xué)習(xí)AI,應(yīng)該學(xué)習(xí)哪些知識或做哪些事情,其從入門到深入的實現(xiàn)的路徑是什么樣的,嘗試以我自己的實踐經(jīng)歷為樣本,給大家提供一個AI的學(xué)習(xí)路徑和地圖;
- 我的AI產(chǎn)品經(jīng)理轉(zhuǎn)型經(jīng)歷:這部分我會具體分享過去一年我積累的關(guān)于AI的所有知識,覆蓋入門學(xué)習(xí)、應(yīng)用實踐、應(yīng)用研究、提示詞設(shè)計、Agent開發(fā)、AI應(yīng)用開發(fā)等,具體內(nèi)容概覽包括如下
- 入門階段學(xué)習(xí):用大白話理解大模型和AI,掌握入門語言,這部分我會分享20個關(guān)于大模型和AI相關(guān)的關(guān)鍵問題,通過這20個問題,你可以掌握和理解大模型和AI領(lǐng)域的基礎(chǔ)概念,學(xué)習(xí)“行話”,未來在求職和同行交流更加順暢加分;
- 應(yīng)用階段學(xué)習(xí):熟練掌握各種AI工具的使用技巧,應(yīng)用與提升工作、學(xué)習(xí)、生活效率,在這部分,我會分享我的AI應(yīng)用實踐,包括AI在個人IP打造、學(xué)習(xí)、辦公、創(chuàng)作等場景的應(yīng)用,目標(biāo)是通過這部分的學(xué)習(xí)與實踐,你能至少成為一個AI工具達(dá)人;
- 行家階段學(xué)習(xí):研究和學(xué)習(xí)AI在不同行業(yè)和領(lǐng)域可行的應(yīng)用場景以及相應(yīng)的實現(xiàn)方案,這部分我會和你深度分享AI在不同的行業(yè)和場景的應(yīng)用研究,讓自己成為AI應(yīng)用解決方案的行家,并邀請你嘗試為具體的業(yè)務(wù)設(shè)計AI應(yīng)用場景和實現(xiàn)方案,目標(biāo)是讓自己成為AI應(yīng)用解決方案的行家;
- 進(jìn)階階段學(xué)習(xí):學(xué)習(xí)通過提示詞工程設(shè)計提效場景應(yīng)用,在這部分,我會分享如何掌握和應(yīng)用AI應(yīng)用領(lǐng)域最重要的技能-提示詞工程,學(xué)會用提示詞工程快速解決高頻場景提效問題,這部分你會學(xué)習(xí)提示詞工程相關(guān)的知識,以及通過提示詞工程應(yīng)用實操,解決你具體的應(yīng)用問題;
- 高手階段學(xué)習(xí):從0到1開發(fā)一個Agent應(yīng)用,在這部分,我會和你分享Agent搭建的技能,幫助你理解AI應(yīng)用是如何開發(fā)的,甚至讓你能夠具備給自己或者身邊的朋友定制一個Agent,用于解決自己和身邊朋友的問題的能力;
- 專家階段學(xué)習(xí):嘗試自己組建團(tuán)隊開發(fā)一個AI應(yīng)用,并嘗試商業(yè)變現(xiàn),在這部分,我會分享我從0到1開發(fā)和運營一個AI應(yīng)用的整個過程和經(jīng)驗,幫助你學(xué)會如何低成本的開發(fā)一個AI應(yīng)用并設(shè)計應(yīng)用的商業(yè)模式,嘗試完成商業(yè)變現(xiàn),體驗整個應(yīng)用開發(fā)和運營的過程;
- 更多AI知識學(xué)習(xí)方法和學(xué)習(xí)資源:三白將匯總整理本次梳理匯總的學(xué)習(xí)課程、書籍、網(wǎng)站和資料等資源,幫助大家在看完本篇文章之后自行補充學(xué)習(xí);
因為現(xiàn)在市面上有太多的割韭菜式的AI課程,讓人看到就非常厭惡,導(dǎo)致很多人不愿意輕易相信知識分享者,可以向大家承諾的是,整個課程里面所有的內(nèi)容均為三白個人在過去一年親身經(jīng)歷和總結(jié)的成果,沒有任何照搬復(fù)制內(nèi)容,當(dāng)然我也會學(xué)習(xí)其他高手的內(nèi)容,但是我會在消化之后用我自己的語言去分享,不過可能個人知識水平也有限,有總結(jié)不到位的地方,歡迎給我吐槽和建議,但是謝絕純粹的惡意攻擊。
這篇文章適合什么人群?
本篇文章比較適合以下幾類朋友:
- 適合想要了解AI到底是怎么回事的小白和入門朋友;
- 適合有意愿轉(zhuǎn)型從事AI相關(guān)的產(chǎn)品和崗位的朋友,包括產(chǎn)品經(jīng)理,運營人員;
- 適合已經(jīng)初步了解AI,但是想要進(jìn)階學(xué)習(xí)AI,減少AI認(rèn)知焦慮的朋友;
- 適合有興趣在AI領(lǐng)域創(chuàng)業(yè)搞事情的朋友;
一、我為什么想轉(zhuǎn)型做AI產(chǎn)品經(jīng)理
1.「看見變化」AI再也不是空中樓閣,而是觸手可摸
2023年初,當(dāng)我第一次使用ChatGPT用于內(nèi)容生成的時候,我整個人都震驚了,做了那么多年的效率類的工具和產(chǎn)品,我從來沒有見過能如此絲滑的用自然語言生成內(nèi)容的產(chǎn)品,當(dāng)時帶給我的是完全不一樣的效率工具體驗;
在之后的時間里,我開始持續(xù)不斷地嘗試使用這個工具,用它解決自己工作和學(xué)習(xí)上的各種各樣的問題,不斷地加深對這個領(lǐng)域的認(rèn)知;加上當(dāng)時的工作,剛好有一部分內(nèi)容需要涉及學(xué)習(xí)和了解AI相關(guān)的內(nèi)容,所以開始逐漸的加深了對AI和大模型的認(rèn)知;
從那段時間開始,我就深切的體會到,這次這個東西和當(dāng)年的元宇宙、區(qū)塊鏈、web3.0那些不一樣,不再是停留在復(fù)雜難懂的概念層級,或者僅僅是應(yīng)用到部分領(lǐng)域,而是一個能實實在在的看到實際應(yīng)用的產(chǎn)品,我們對人工智能的認(rèn)知也不能再停留在機(jī)器人的階段了。
2.「認(rèn)知與信念」今天的大模型技術(shù)和AI,可能可以類比當(dāng)年的互聯(lián)網(wǎng)
隨著接觸的AI產(chǎn)品越來越多,市面上的各種可能的應(yīng)用場景層出不窮;去年的6月份的時候,我個人建立的認(rèn)知是,AI和大模型,將會把互聯(lián)網(wǎng)時代的需求重新做一遍,過去我們可能想都不敢想的產(chǎn)品能力,或者通過自動化實現(xiàn)效果不好的產(chǎn)品,通過大模型可能都能得到很好的解決;
所以,站在一個職場人的角度,我始終相信職場的道路一定要跟著時代的趨勢走,才不會讓自己落伍,才能持續(xù)的獲得時代的紅利,所以我覺得不管是出于興趣愛好也好,后者是為了未來能夠有更好的職業(yè)方向的選擇和出路,我都應(yīng)該讓自己的工作多接觸AI相關(guān)的內(nèi)容,并且讓自己轉(zhuǎn)型成為一個AI型的人才,或者補充自己在AI領(lǐng)域的能力;
另外,作為一個趕上了移動互聯(lián)網(wǎng)紅利尾聲的一代人,我和很多朋友時常會感嘆我們這些出生于90~95的小伙伴,錯過了當(dāng)年互聯(lián)網(wǎng)的“發(fā)財”的機(jī)會,但是今天的大模型技術(shù)和AI,可能就類比于當(dāng)年的互聯(lián)網(wǎng),對我們來說,可能也是最近10年來唯一出現(xiàn)的一次機(jī)會,也可能是未來的10年內(nèi)唯一的機(jī)會,所以我們必須要好好把握住,這是我在去年的6月份的時候的一些思考;
3.「熱愛與擅長」一直都熱愛和擅長做提升效率的產(chǎn)品和事情
在職業(yè)選擇這個事情上,有一句話我覺得說的非常好,“選擇一個自己喜歡,并且擅長,還有前景和市場的事情作為自己的職業(yè)或者事業(yè)”;在過去的那么多年里面,我覺得自己還是比較喜歡做提升效率的產(chǎn)品,也擅長做提升效率的產(chǎn)品,AI的出現(xiàn),讓我覺得,我們還可以讓工作、學(xué)習(xí)上的效率再提高一下,所以我覺得把AI應(yīng)用于效率的提升這個事情非常有意思,我很喜歡做這樣的事情;
4.「心中的執(zhí)念」嘗試創(chuàng)業(yè)的念頭,想要一個屬于自己的產(chǎn)品
最后,作為一個潮汕人,我和大部分的膠己人一樣,從來都沒有放棄過創(chuàng)業(yè)這個念頭,只是一直都在找機(jī)會和等待時機(jī),我希望我的工作不僅僅是提升自己的能力,讓自己能找到一份好一點的工作,更希望想要有一個屬于自己的產(chǎn)品,所以我必須為了做一個自己的AI產(chǎn)品,讓自己轉(zhuǎn)型成為一個AI產(chǎn)品經(jīng)理;
二、AI學(xué)習(xí)路徑規(guī)劃:如何從AI小白逐步深入了解AI?
1. 從小白到專家,AI學(xué)習(xí)的6個階段
結(jié)合自己的經(jīng)歷,個人覺得,如果要給自己的AI學(xué)習(xí)路徑制定一個路徑規(guī)劃,逐步深度的學(xué)習(xí)和了解AI,并成為這個領(lǐng)域相對領(lǐng)先更多人的“專家”,可以按照如下6個階段逐步成長:
- 第一步-大模型和AI基礎(chǔ)知識學(xué)習(xí):系統(tǒng)的了解和學(xué)習(xí)大模型、AI相關(guān)的概念,掌握入門語言,首先你需要先系統(tǒng)了解什么是?成式 AI 和?語?模型,包括了解該行業(yè)的一些專業(yè)術(shù)語和概念,建立在這個領(lǐng)域的基礎(chǔ)語言,才能進(jìn)一步學(xué)習(xí)和了解更多的內(nèi)容,當(dāng)別人討論到一些概念和術(shù)語的時候,你不會一無所知;同時,還需要理解現(xiàn)有的?語?模型的能力范圍和邊界,知道大模型和AI能做哪些事情,不能做哪些事情;這也是如果你真的進(jìn)入職場領(lǐng)域,開始做AI領(lǐng)域的產(chǎn)品,在實際業(yè)務(wù)對接過程中,需要和研發(fā)和業(yè)務(wù)等建立的共同語言;
- 第二步,AI應(yīng)用實踐:多用現(xiàn)有的AI工具,把 AI 帶???的?作和學(xué)習(xí)?活,做一個AI的使用者 個人認(rèn)為,學(xué)再多,都不如實際去實操一下一些AI工具,比如像ChatGPT等這些非常優(yōu)秀的產(chǎn)品,在實際的實踐中,多用AI就是最好的學(xué)習(xí)方式;通過使用,至少你能知道它到底是什么,能解決你什么問題,現(xiàn)階段的發(fā)展情況;另外,作為一個使用者,現(xiàn)階段不要抱怨AI工具沒有啥用,不夠完美,個人認(rèn)為沒有完美的AI工具,使用者要想的是如何用好現(xiàn)有的工具和能力,去最大限度的解決現(xiàn)有能夠解決的問題;
- 第三步,AI應(yīng)用場景深度研究:研究和學(xué)習(xí)AI在不同行業(yè)和領(lǐng)域可行的應(yīng)用場景,以及相應(yīng)的實現(xiàn)方案,在這個階段,你需要知道AI在某一個應(yīng)用領(lǐng)域里面,可以結(jié)合的應(yīng)用場景有哪些,包括已經(jīng)被實現(xiàn)的,還有未來可以結(jié)合實現(xiàn)的;如此則可以了解目前大模型在各個行業(yè)都有什么應(yīng)?場景,到這一步至少你可以成為一個對AI的應(yīng)用領(lǐng)域研究深刻的“專家”,而對于未來層出不窮的應(yīng)用場景也不會感覺驚訝;除了知道可以怎么應(yīng)用,作為產(chǎn)品經(jīng)理,你還需要知道相應(yīng)的實現(xiàn)方案是什么,可以通過哪些技術(shù)手段是實現(xiàn)這些應(yīng)用場景,這就以為著你需要關(guān)注技術(shù)動態(tài),你不需要了解具體的技術(shù)細(xì)節(jié),需要知道能解決哪些問題和需求的技術(shù)方案有哪些,只需要知道一個關(guān)鍵詞,比如RAG、比如提示詞工程、模型微調(diào)等等;
- 第四步,學(xué)會使用提示詞工程解決AI應(yīng)用場景問題:學(xué)習(xí)提?詞工程,通過提示詞實現(xiàn)自己想要的AI輸出效果,或者解決具體的問題 可以完全肯定的說,提示詞工程將會是所有AI產(chǎn)品經(jīng)理的必備技能,當(dāng)你掌握提示詞工程的設(shè)計的時候,你已經(jīng)可以利用ChatGPT這類的產(chǎn)品,實現(xiàn)自己想要的輸出結(jié)果,或者一定程度上解決基本的AI提效問題; 所以在這個階段,你需要系統(tǒng)的學(xué)習(xí)一下提示詞功能到底是什么,并實踐學(xué)習(xí)一下如何寫一個高質(zhì)量的提示詞,以幫助自己獲得更好的輸出內(nèi)容,甚至可以通過專業(yè)的提示詞,在具體的實踐中解決業(yè)務(wù)問題;
- 第五步,從0到1開發(fā)一個Agent應(yīng)用:使用Agent開發(fā)平臺,創(chuàng)建一個AI智能體,通過AI應(yīng)用常態(tài)化的解決第四步的問題,當(dāng)你掌握了提示詞的能力后,你就可以嘗試組合“提示詞+API服務(wù)+工程設(shè)計+大模型能力”,自己創(chuàng)建一個AI智能體了,這個“開發(fā)”只需要用使用類似扣子這類的平臺就可以實現(xiàn),不需要找程序員開發(fā),也不用自己寫代碼;當(dāng)你能做到這一步的時候,你基本已經(jīng)了解開發(fā)一個AI產(chǎn)品需要的技術(shù)和能力,以及市面上的AI應(yīng)用是怎么被開發(fā)出來的,到此我覺得至少應(yīng)該是一個合格的AI產(chǎn)品經(jīng)理了;
- 第六步,自己開發(fā)一個AI產(chǎn)品,并嘗試完成商業(yè)變現(xiàn):嘗試調(diào)?大模型API自己開發(fā)一個AI 產(chǎn)品,甚至實現(xiàn)商業(yè)變現(xiàn),或者加入企業(yè)的AI項目;第五步我們只是借助一些開發(fā)工具做AI應(yīng)用,如果可能,我覺得你還可以嘗試從第三步中學(xué)習(xí)了解之后,找一個你感興趣的應(yīng)用場景,然后組建自己的小團(tuán)隊開發(fā)一個AI產(chǎn)品,把自己的AI提效的經(jīng)驗產(chǎn)品化,幫助更多的人,能做到這一步的肯定極少,但是再不會有比自己親自做一個AI應(yīng)用,讓自己更加深刻的了解AI的世界;
個人非常“自豪”的是,三白已經(jīng)完整的經(jīng)歷了以上的6個階段,并且個人自認(rèn)為收獲非常多,在接下來的篇幅里面,我會詳細(xì)、具體的分享每一個階段我積累的知識和經(jīng)驗,當(dāng)然因為本篇內(nèi)容篇幅有限,每部分內(nèi)容都只概括部分關(guān)鍵信息,其余內(nèi)容后續(xù)更新輸出;
2. AI學(xué)習(xí)課程表
為了讓大家更清楚的看到各個階段具體會學(xué)習(xí)和了解的內(nèi)容,我嘗試整理了一個AI學(xué)習(xí)課程表出來,方便大家一眼看到所有學(xué)習(xí)內(nèi)容以及不同解決的學(xué)習(xí)目標(biāo);
三、入門階段:一篇文章系統(tǒng)了解大模型
在這部分,我主要想從產(chǎn)品經(jīng)理的視角,分享20個關(guān)于大模型的話題,讓大家快速的了解大模型,并掌握AI產(chǎn)品經(jīng)理的入門語言,便于入門的同學(xué)未來能夠順利的和行業(yè)的同行以及大模型研發(fā)人員對話交流,不過由于篇幅比較有限,我會挑選7個比較重點的話題分享,其余的后續(xù)我將通過單獨的一篇文章”大模型20講:用產(chǎn)品經(jīng)理視角理解大模型“完整分享,提前獲取完整內(nèi)容可私聊我。
第1講:大模型常見的概念理解
用產(chǎn)品經(jīng)理的語言理解常見的AI術(shù)語
- 大模型(LLM):現(xiàn)有所有的大模型,指的都是大語言模型,并且指的都是生成式的大模型,可以聯(lián)想到的實際案例包括GPT4.0,GPT4o等;
- 深度學(xué)習(xí):深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個子領(lǐng)域,專注于應(yīng)用多層神經(jīng)挽留過進(jìn)行學(xué)習(xí),深度學(xué)習(xí)擅長處理復(fù)雜的數(shù)據(jù)如圖像、音頻、文本,因此在AI中的應(yīng)用非常有效;
- 監(jiān)督學(xué)習(xí):監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種方法,通過訓(xùn)練數(shù)據(jù)集來學(xué)習(xí)從輸入到輸出的映射關(guān)系。訓(xùn)練數(shù)據(jù)集包含輸入-輸出對,模型使用這些已標(biāo)記的數(shù)據(jù)進(jìn)行訓(xùn)練,學(xué)習(xí)如何從輸入預(yù)測輸出。常見的監(jiān)督學(xué)習(xí)算法包括線性回歸、邏輯回歸、支持向量機(jī)、K近鄰、決策樹和隨機(jī)森林等。
- 無監(jiān)督學(xué)習(xí):無監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種方法,在沒有標(biāo)簽數(shù)據(jù)的情況下從數(shù)據(jù)中發(fā)現(xiàn)模式和結(jié)構(gòu),它主要用于數(shù)據(jù)聚類和降維等任務(wù)。常見的無監(jiān)督學(xué)習(xí)算法包括K均值聚類、層次聚類、DBSCAN、主成分分析(PCA)和t-SNE等。
- 半監(jiān)督學(xué)習(xí):半監(jiān)督學(xué)習(xí)結(jié)合少量標(biāo)記數(shù)據(jù)和大量未標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練。它利用未標(biāo)記數(shù)據(jù)的豐富信息和少量標(biāo)記數(shù)據(jù)的準(zhǔn)確性來提高模型性能。常見的方法包括生成對抗網(wǎng)絡(luò)(GANs)和自編碼器。
- 強(qiáng)化學(xué)習(xí):強(qiáng)化學(xué)習(xí)是一種通過與環(huán)境交互,并基于獎勵和懲罰機(jī)制來學(xué)習(xí)最優(yōu)策略的方法。強(qiáng)化學(xué)習(xí)算法通過試錯法來優(yōu)化決策過程,以實現(xiàn)最大化累積獎勵。常見算法包括Q學(xué)習(xí)、策略梯度和深度Q網(wǎng)絡(luò)(DQN)等。
- 模型架構(gòu):模型的架構(gòu)代表了大模型的主干采用了什么樣的設(shè)計方式,不同的模型架構(gòu)會影響大模型的性能、效率、甚至是計算成本,也決定了模型的可拓展性;例如很多大模型的廠商會通過調(diào)整模型的架構(gòu)的方式來縮減模型的計算量,從而減少對計算資源的消耗;
- Transformer架構(gòu):Transformer是目前主流的大模型采用的模型架構(gòu),包括GPT4.0以及國內(nèi)大部分的大模型,都是采用這個架構(gòu),Transformer架構(gòu)之所以被廣泛的使用,主要的原因是這個架構(gòu)類型讓大模型具備了理解人類自然語言、上下文記憶、生成文本的能力;常見的模型架構(gòu),除了Transformer架構(gòu),還有卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu),適用于圖像處理,以及生成對抗網(wǎng)絡(luò)(GAN),適用于圖像生成領(lǐng)域;詳細(xì)關(guān)于Transformer架構(gòu)的介紹可后面部分內(nèi)容;
- MOE架構(gòu):MOE架構(gòu)表示混合專家網(wǎng)絡(luò)架構(gòu),表示混合多種專家模型,形成一個參數(shù)量巨大的模型,從而能支持解決多種復(fù)雜的專業(yè)問題;MOE架構(gòu)的模型里面可能包含Transformer架構(gòu)的模型;
- 機(jī)器學(xué)習(xí)技術(shù):表示實現(xiàn)AI的一大類技術(shù),包括大家經(jīng)常聽到的深度學(xué)習(xí)、監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí),這些都屬于機(jī)器學(xué)習(xí)的一種技術(shù),具體是啥作為產(chǎn)品經(jīng)理而言不需要過分深究,只需要知道這些xx學(xué)習(xí)之間的關(guān)系就好,別被技術(shù)人員們帶溝里去了;
- NLP技術(shù)(自然語言處理):NLP是AI的一個應(yīng)用領(lǐng)域,專注于計算機(jī)理解、解釋、生成人力語言,用于文本分析、機(jī)器翻譯、語音識別和對話系統(tǒng)等應(yīng)用場景,簡單一點講,就是把很多信息轉(zhuǎn)換成人類自然語言能夠理解的信息的一種技術(shù);
- CV計算機(jī)視覺技術(shù):如果說NLP處理的是文本,那么CV相當(dāng)于是解決視覺內(nèi)容相關(guān)的技術(shù),CV技術(shù)包括常見的圖像識別技術(shù)、視頻分析技術(shù)、圖像分割技術(shù)等,都屬于CV技術(shù),CV技術(shù)也是大模型應(yīng)用中常見的技術(shù),特別是后面會講到的多模態(tài)大模型技術(shù);
- 語音識別和合成技術(shù):包括語音轉(zhuǎn)換為文本技術(shù),以及語音合成技術(shù),例如文本合成語音技術(shù)(簡稱TTS技術(shù));
- 檢索增強(qiáng)生成技術(shù)(RAG):表示大模型基于搜索引擎和知識庫檢索的內(nèi)容生成內(nèi)容的技術(shù),RAG是大部分AI應(yīng)用落地的時候都會涉及的技術(shù);
- 知識圖譜 (Knowledge Graph):知識圖譜是一種把知識關(guān)聯(lián)起來的技術(shù),通過知識圖譜技術(shù),可以讓知識之間建立聯(lián)系,幫助模型更好、更快的獲取到最相關(guān)的知識,從而提升模型處理復(fù)雜關(guān)聯(lián)信息,以及AI推理能力;
- Function Call :是指在大型語言模型(如GPT等)中,通過調(diào)用模型內(nèi)置的或外部的函數(shù),使其能夠完成特定的任務(wù)或執(zhí)行特定的操作。這一機(jī)制讓模型不僅僅是一個生成文本的工具,而能夠通過指定調(diào)用不同的功能,執(zhí)行更多樣化、具體的操作。Function Call 讓大模型能夠和多種API能力結(jié)合,從而讓大模型的應(yīng)用更好的落地,比如大模型要支持內(nèi)容檢索、文檔識別等能力,就需要基于Function Call 的能力來實現(xiàn);
大模型訓(xùn)練與優(yōu)化技術(shù)相關(guān)術(shù)語
- 預(yù)訓(xùn)練 Pre-training:表示在大量數(shù)據(jù)集上訓(xùn)練模型的過程,預(yù)訓(xùn)練的數(shù)據(jù)集通常比較大,種類也比較多,訓(xùn)練后獲得的是一個通用能力比較強(qiáng)的大模型,就好像一個人通過義務(wù)教育和上大學(xué)學(xué)習(xí)了多種通用知識,具備解決通用問題的哪里;
- 模型微調(diào) Fine-tuning:模型微調(diào)表示大模型在特定任務(wù)或小數(shù)據(jù)集上進(jìn)一步訓(xùn)練模型以提高模型解決針對性問題的表現(xiàn),與預(yù)訓(xùn)練階段不同的是微調(diào)階段使用的數(shù)據(jù)量相比更小,且主要使用垂直領(lǐng)域的數(shù)據(jù),通過微調(diào)獲得的是一個垂直模型和行業(yè)模型,模型微調(diào),就好像入職支持的畢業(yè)生,開始接受企業(yè)的專業(yè)技能的培訓(xùn);
- 提示詞工程Prompt Engineering:用產(chǎn)品經(jīng)理的語言理解,就是使用大模型更容易理解的提問方式,讓大模型更好的輸入用戶想要的結(jié)果,所以提示詞工程就是一門學(xué)會提問題的技巧;
- 模型蒸餾:模型蒸餾是一種通過將大模型(稱為教師模型)的知識傳遞給一個小模型(稱為學(xué)生模型)的技術(shù)。學(xué)生模型通過學(xué)習(xí)教師模型輸出的知識來提高其性能,保持與大模型相近的精度。
- 模型剪枝:模型剪枝表示去除大模型不需要的參數(shù),把整體的參數(shù)規(guī)模降低下來,從而降低模型的計算量和成本消耗;
AI應(yīng)用相關(guān)術(shù)語
- 智能體Agent:Agent簡單理解就是具備某一項能力的AI應(yīng)用,如果互聯(lián)網(wǎng)時代的應(yīng)用叫APP,AI時代的應(yīng)用叫Agent;
- Chatbot:Chatbot表示AI聊天機(jī)器人,表示一類以聊天的方式為應(yīng)用交互的AI應(yīng)用,包括像ChatGPT這類的產(chǎn)品,都屬于Chatbot類應(yīng)用;
大模型表現(xiàn)相關(guān)的術(shù)語
- 涌現(xiàn):指的是當(dāng)大模型的參數(shù)規(guī)模達(dá)到一定的規(guī)模之后,大模型能夠展現(xiàn)出更多超出預(yù)期的能力;
- 幻覺:表示大模型在生成內(nèi)容的過程中出現(xiàn)了胡說八道的情況,錯誤的把一些不正確的事實當(dāng)做真實的情況處理,從而導(dǎo)致生成結(jié)果不真實的現(xiàn)象;
- 失憶:表示當(dāng)對話輪次和長度達(dá)到一定限度之后,模型突然變傻,開始出現(xiàn)重復(fù)和失憶的情況,大模型的記憶主要受模型的上下文長度等影響;
第2講:大模型和傳統(tǒng)模型的區(qū)別
區(qū)別于傳統(tǒng)的模型,大模型概括起來具備如下的特點:
- 具備理解和生成自然語言的能力:很多以前我們接觸的傳統(tǒng)模型,可能并不能夠理解人類的自然語言,更不用說生成人力能理解的自然語言;
- 具備上下文記憶的能力:大模型具備記憶能力,能夠關(guān)聯(lián)上下文對話,而不是一個失憶的機(jī)器人,這個是區(qū)別很多傳統(tǒng)模型的差異點之一;
- 基于大量的無標(biāo)注文本,通過無監(jiān)督的方式預(yù)訓(xùn)練:和很多傳統(tǒng)模型需要依賴大量的標(biāo)注數(shù)據(jù)的方式不同,無標(biāo)注數(shù)據(jù)的方式大大的節(jié)省了數(shù)據(jù)清理和準(zhǔn)備的成本;且預(yù)訓(xùn)練需要大量的訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)用于調(diào)整模型的參數(shù),使其能夠準(zhǔn)確地執(zhí)行任務(wù),GPT3.5的訓(xùn)練語料高達(dá)45T;
- 參數(shù)規(guī)模巨大,大部分大模型的參數(shù)規(guī)?;径荚谇|級別以上:比如GPT3.5的參數(shù)規(guī)模已經(jīng)達(dá)到1750億,而GPT4.0據(jù)說可能是萬億級別參數(shù),這些參數(shù)在模型訓(xùn)練過程中會學(xué)習(xí)并調(diào)整,以更好地執(zhí)行特定的任務(wù);
- 訓(xùn)練成本極高:由于其規(guī)模和復(fù)雜性,這些模型還需要顯著的計算資源來進(jìn)行訓(xùn)練和推理,通常需要使用專門的硬件,如GPU或TPU,調(diào)研稱,要訓(xùn)練像ChatGPT這樣的生成式AI,至少需要1萬張英偉達(dá)A100加速卡的支持,GPT3.5這種參數(shù)級別達(dá)到1750億規(guī)模的模型,訓(xùn)練需要的費用高達(dá)900萬美元;
第3講:大模型的分類有哪些?
1)按照模態(tài)類型劃分
按照模態(tài)劃分,目前市面上的大模型,大概可以概括為文本生成模型(例如GPT3.5)、圖像生成模型(例如DALL-E)、視頻生成模型(例如Sora、可靈)、語音生成模型、多模態(tài)模型(例如GPT4.0)等;
2)按照訓(xùn)練的階段劃分
按照訓(xùn)練的階段可以劃分為基礎(chǔ)語言模型和指令微調(diào)的模型:
- 基礎(chǔ)語言模型(Basic Language Model):基礎(chǔ)語言模型是指只在大規(guī)模文本語料中進(jìn)行了預(yù)訓(xùn)練的模型,未經(jīng)過指令和下游任務(wù)微調(diào)、以及人類反饋等任何對齊優(yōu)化,比如GPT3就是openai公開的基礎(chǔ)語言模型;
- 指令微調(diào)模型(Instruction-Finetuned Language Model):這里的指令是指基于自然語言形式的對任務(wù)進(jìn)行描述,經(jīng)過指令微調(diào)的大模型,他們幾乎都是在基礎(chǔ)語言模型基礎(chǔ)上進(jìn)行指令微調(diào)、人類反饋、對齊等優(yōu)化操作,例如GPT3.5就是在GPT3的基礎(chǔ)上訓(xùn)練得到的;
3)按照通用模型和行業(yè)模型劃分
市面上的大模型也可以劃分為通用大模型和行業(yè)大模型兩類,通用大模型在廣泛的任務(wù)和領(lǐng)域中雖然表現(xiàn)良好,但是某些行業(yè)或領(lǐng)域有特定的數(shù)據(jù)、術(shù)語和任務(wù),通用大模型可能無法充分理解和利用這些領(lǐng)域特定的信息,因此不一定能解決特定行業(yè)和場景的問題;行業(yè)大模型則是基于通用大模型通過專門的訓(xùn)練和調(diào)整,行業(yè)大模型可以在特定領(lǐng)域內(nèi)實現(xiàn)更高的性能和精度,它們能解決特定問題;
第4講:大模型開發(fā)的6個步驟
- 數(shù)據(jù)收集與處理:這個階段,需要收集大量文本數(shù)據(jù),這可能包括書籍、網(wǎng)頁、文章等,然后對數(shù)據(jù)做清洗,移除無關(guān)或低質(zhì)量的內(nèi)容,然后對數(shù)據(jù)進(jìn)行預(yù)處理,如分詞、去除敏感信息等。
- 模型設(shè)計:確定模型的架構(gòu),比如GPT-4采用的是ransformer架構(gòu),然后設(shè)定模型的大小,包括層數(shù)、隱藏單元數(shù)、參數(shù)總量等。
- 預(yù)訓(xùn)練(Pre-training):模型在這個階段就像一個學(xué)生在上學(xué),通過閱讀大量書籍(比如網(wǎng)頁、文章等)來學(xué)習(xí)語言和知識?;蛘哒f像一個“海綿”,吸收盡可能多的信息,學(xué)會基本的語言規(guī)則,比如怎樣組成一個句子,單詞之間是怎樣關(guān)聯(lián)的等。此時的模型模型已經(jīng)能理解基本的語言結(jié)構(gòu),但還沒有針對特定任務(wù)的專業(yè)知識;預(yù)訓(xùn)練階段通常需要的數(shù)據(jù)量非常大,對計算資源的消耗也最大,花費的時間最長;以GPT3為例,完成一次預(yù)訓(xùn)練的計算量是3640P浮點計算,需要將近1000塊GPU;
- 指令微調(diào)(Fine-tuning with Instructions):也稱為有監(jiān)督微調(diào),微調(diào)的過程其實就是通過投喂給模型一些帶有問題和相應(yīng)理想輸出的問答對數(shù)據(jù),在此基礎(chǔ)上進(jìn)行再訓(xùn)練,從而得到一個有監(jiān)督微調(diào)模型;這個階段的模型更像是在進(jìn)行“職業(yè)培訓(xùn)”,學(xué)習(xí)如何根據(jù)特定的指令或任務(wù)來調(diào)整自己的反應(yīng),模型可能會在這個階段學(xué)習(xí)如何更好地回答問題、寫作或做翻譯,對特定類型的問題或任務(wù)也有更好的表現(xiàn)。指令微調(diào)階段只要提供相對少數(shù)的高質(zhì)量的數(shù)據(jù),模型的訓(xùn)練時間和消耗相對比較?。?/li>
- 獎勵(Reward):這個階段就像給模型設(shè)置了一個“激勵機(jī)制”,通過獎勵來讓模型知道什么是好的回答或行為,通過這種方式,模型學(xué)會了更好地滿足用戶的需求,從而讓模型更加專注于提供有價值、準(zhǔn)確的回答,能夠更好地適應(yīng)用戶的具體需求;這個過程需要訓(xùn)練模型的人員大量的對模型的響應(yīng)結(jié)果做檢測和反饋,逐步的調(diào)整其響應(yīng)的質(zhì)量,該過程也需要相對較高的數(shù)據(jù),需要的時間為天級別;
- 強(qiáng)化學(xué)習(xí)(Reinforcement Learning):最后這個階段,模型就像在進(jìn)行“實戰(zhàn)演習(xí)”,通過不斷的嘗試和錯誤來學(xué)習(xí)怎樣做得更好,在這個階段,模型會在真實世界的復(fù)雜情境中嘗試各種策略,找出最有效的方法。模型在這個階段變得更加聰明和靈活,能夠在復(fù)雜和不確定的情況下做出更好的判斷和回答。
第5講:如何理解大模型的訓(xùn)練和微調(diào)?
1)大模型訓(xùn)練需要哪些數(shù)據(jù)?
- 文本數(shù)據(jù):主要用于訓(xùn)練語言模型,如新聞文章、書籍、社交媒體帖子、維基百科等。
- 結(jié)構(gòu)化數(shù)據(jù):如知識圖譜,用于增強(qiáng)語言模型的知識。
- 半結(jié)構(gòu)化數(shù)據(jù):如XML、JSON格式的數(shù)據(jù),便于提取信息。
2)訓(xùn)練數(shù)據(jù)來源
- 公開數(shù)據(jù)集:如Common Crawl、Wikipedia、OpenWebText等。
- 專有數(shù)據(jù):公司內(nèi)部數(shù)據(jù)或付費獲取的專有數(shù)據(jù)。
- 用戶生成內(nèi)容:社交媒體、論壇、評論等用戶生成的內(nèi)容。
- 合成數(shù)據(jù):通過生成對抗網(wǎng)絡(luò)(GAN)或其他生成模型合成的數(shù)據(jù)。
3)大模型訓(xùn)練需要哪些成本?
- 計算資源:GPU/TPU的使用成本,主要取決于模型的規(guī)模和訓(xùn)練時間。大模型通常需要數(shù)千到數(shù)萬小時的GPU計算時間。
- 存儲成本:用于存儲大規(guī)模數(shù)據(jù)集和模型權(quán)重。數(shù)據(jù)集和模型文件可以達(dá)到TB級別。
- 數(shù)據(jù)獲取成本:購買專有數(shù)據(jù)或數(shù)據(jù)清洗和標(biāo)注的人工成本。
- 能源成本:訓(xùn)練大型模型消耗大量電力,增加運營成本。
- 研發(fā)成本:包括研究人員、工程師的薪資,以及開發(fā)和維護(hù)模型的費用。
4)大模型的微調(diào)
大模型微調(diào)包括2個階段:監(jiān)督微調(diào)(SFT)、強(qiáng)化學(xué)習(xí)(RLHF),兩個階段存在的差異如下:
第6講:影響大模型的表現(xiàn)的主要因素是什么?
- 模型架構(gòu):模型的框架類型的選擇,會影響大模型的表現(xiàn),包括模型的性能、效率等,目前市面上大部分的基礎(chǔ)大模型采用Transformer框架,以及結(jié)合基礎(chǔ)大模型和多個子專家模型形成MOE框架,其中子專家模型的表現(xiàn)也會影響整體模型的表現(xiàn);
- 訓(xùn)練數(shù)據(jù)的質(zhì)量、規(guī)模和多樣性:模型性能極大地依賴于其訓(xùn)練數(shù)據(jù)的覆蓋范圍和多樣性,高質(zhì)量和廣泛的數(shù)據(jù)集有助于模型更準(zhǔn)確地理解和生成語言,目前大部分模型主要還是使用公開的數(shù)據(jù)為主,擁有更豐富的優(yōu)質(zhì)的數(shù)據(jù)資源的公司,將擁有更優(yōu)越的優(yōu)勢;
- 參數(shù)規(guī)模:參數(shù)越多,模型通常能夠更好地學(xué)習(xí)和捕捉復(fù)雜的數(shù)據(jù)模式,但同時也增加了計算成本,因此擁有強(qiáng)大的算力資源的企業(yè),將擁有更高的優(yōu)勢,對于算力,核心取決于計算量(GPU的數(shù)量)、網(wǎng)絡(luò)、存儲三個維度的資源情況;
- 算法效率:算法能力決定了模型的推理能力和“聰明”程度,很多廠商的大模型能力上的差異,也主要是因為各個公司黑盒算法的差異,該部分是大模型廠商的核心壁壘和技術(shù)優(yōu)勢;
- 訓(xùn)練次數(shù):確保模型有足夠的訓(xùn)練次數(shù)以達(dá)到最優(yōu)性能,同時避免過度訓(xùn)練導(dǎo)致的過擬合問題。
第7講:大模型的局限性有哪些?
1)“幻覺”問題
幻覺問題指的是模型生成看似合理但實際上是錯誤或虛構(gòu)的信息。在自然語言處理中,這可能表現(xiàn)為模型生成的文本或回答在表面上看起來合理,但實際上卻缺乏真實性或準(zhǔn)確性;從目前大模型的表現(xiàn)看,幻覺問題,是大部分用戶對于大模型應(yīng)用產(chǎn)生質(zhì)疑,以及大模型生成結(jié)果難以直接使用的主要原因之一,目前也是較難解決的問題;對于AI應(yīng)用層而言,也是最頭疼的問題;
大模型為什么會出現(xiàn)幻覺的情況?
主要來源于如下幾個原因:
- 過擬合訓(xùn)練數(shù)據(jù):模型在訓(xùn)練時可能過度擬合了訓(xùn)練數(shù)據(jù)中的噪聲或錯誤信息,導(dǎo)致模型在生成時產(chǎn)生虛構(gòu)的內(nèi)容。
- 訓(xùn)練數(shù)據(jù)本身包含虛假信息:如果訓(xùn)練數(shù)據(jù)中未能充分覆蓋各種真實場景,模型可能會在未見過的情況下產(chǎn)生虛構(gòu)的信息。
- 對信息可信度的不足考慮:模型未能有效地考慮生成信息的可信度,而是過于自信地產(chǎn)生表面上合理但實際上虛構(gòu)的內(nèi)容。
是否有緩解幻覺問題的解決方案?
目前看,可能能通過如下幾個方式緩解幻覺問題,至于根本性的解決,目前行業(yè)似乎并沒有看到特別好的方法:
- 使用更豐富的訓(xùn)練數(shù)據(jù):引入更多多樣性和真實性的訓(xùn)練數(shù)據(jù),以減少模型過度擬合錯誤信息的可能性。
- 信息可信度建模,增加鑒偽機(jī)制:引入模型組件來估計生成信息的可信度,以過濾或降低虛構(gòu)信息的生成概率;
- 外部驗證機(jī)制:使用外部的驗證機(jī)制或信息源來驗證模型生成的內(nèi)容,確保其與真實世界一致。
2)“失憶”問題
失憶問題是指模型在長對話或復(fù)雜語境中可能遺忘先前提到的信息,導(dǎo)致生成的內(nèi)容缺乏一致性和上下文完整性;導(dǎo)致失憶的主要原因包括:
- 模型上下文記憶限制:模型可能受到上下文記憶能力的限制,無法有效地保持和利用長期依賴的信息。
- 訓(xùn)練數(shù)據(jù)中的缺失信息: 如果訓(xùn)練數(shù)據(jù)中缺乏長對話或復(fù)雜語境的例子,模型可能未能學(xué)到正確的信息保持和檢索方法。
- 對話偏移: 在長對話中,模型可能逐漸偏離初始話題,導(dǎo)致遺忘先前提到的關(guān)鍵信息。
目前行業(yè)內(nèi)似乎對于失憶問題,已經(jīng)可以有一定的緩解,據(jù)了解,相應(yīng)的解決方法包括:
- 增加上下文長度,從而提升記憶容量:通過持續(xù)的提升大模型的記憶長度,從而提高模型對長期信息的保持和檢索能力。
- 多樣性訓(xùn)練數(shù)據(jù):引入更多包含長對話和復(fù)雜語境的訓(xùn)練數(shù)據(jù),使模型能夠?qū)W到更好的信息管理策略。
- 對話管理技術(shù): 引入先進(jìn)的對話管理技術(shù),確保模型在長對話中能夠保持一致性,并有效地利用先前提到的信息。
3)“生成不當(dāng)內(nèi)容”問題
生成不當(dāng)內(nèi)容問題指的是模型在生成文本時可能產(chǎn)生不適當(dāng)、有害或歧視性的內(nèi)容,引發(fā)道德和社會責(zé)任問題。導(dǎo)致失憶的主要原因包括:
- 訓(xùn)練數(shù)據(jù)中的偏見:模型可能在訓(xùn)練數(shù)據(jù)中學(xué)到了不適當(dāng)?shù)挠^點、偏見或刻板印象,導(dǎo)致生成不當(dāng)內(nèi)容。
- 過度擬合負(fù)面樣本:如果訓(xùn)練數(shù)據(jù)中包含大量負(fù)面樣本,模型可能過度擬合這些負(fù)面情況,導(dǎo)致生成負(fù)面內(nèi)容的可能性增加。
- 缺乏倫理約束:模型訓(xùn)練時未考慮倫理和社會責(zé)任問題,缺乏對不適當(dāng)內(nèi)容的抑制;
對于以上的關(guān)于生成內(nèi)容的安全、倫理、道德等相關(guān)的問題,目前國內(nèi)大部分的廠商似乎也得到了一定的解決,包括對模型的輸入和輸出內(nèi)容經(jīng)過安全引擎做過濾和處理,避免了對用戶直接輸出不恰當(dāng)?shù)膬?nèi)容;
4)難以解決專業(yè)問題和垂直場景問題
盡管大模型在許多領(lǐng)域表現(xiàn)出色,但是他更像是一個什么都會的通才,在特定領(lǐng)域的表現(xiàn)可能不佳,特別是在需要專業(yè)知識和細(xì)致推理的任務(wù)中,大模型可能無法提供最佳解決方案;當(dāng)然這個問題,市面上存在較多解決方案可以解決該問題,包括訓(xùn)練和微調(diào)行業(yè)大模型、包括結(jié)合工作流和思維鏈的Agent設(shè)計、抑或是最簡單的通過提示詞工程解決;
至此,對于入門階段對大模型的認(rèn)知和理解,我先分享到這里,后續(xù)我將單獨輸出一篇“大模型20講,從產(chǎn)品經(jīng)理的角度看大模型”,從我自己的角度深度理解大模型
四、應(yīng)用階段:熟練掌握各種AI工具的使用技巧,提升工作、學(xué)習(xí)、生活效率;
在這部分,我主要分享自己過去一年如何利用各種AI工具提升自己在工作、學(xué)習(xí)、生活中的效率;我一直都認(rèn)為,想要成為一個合格的AI產(chǎn)品經(jīng)理,你至少得要親自去實踐通過AI解決自己具體的問題,這樣一方面可以知道現(xiàn)在主流的AI產(chǎn)品能力能做到什么樣的程度,也加深了對現(xiàn)有技術(shù)能力邊界的理解;
多用AI,是學(xué)習(xí)AI最快的方式
個人認(rèn)為,多使用AI工具,就是學(xué)習(xí)和了解AI最快的方式,所以對于身邊很多沒有接觸過AI產(chǎn)品,由有興趣學(xué)習(xí)AI的人,我總會說,你至少先去用用國內(nèi)外主要的幾個AI產(chǎn)品,并嘗試用AI解決自己具體的問題,對于做不到這點的人,我基本會放棄后續(xù)的輸出,因為你連用一下都不肯怎么可能能堅持下去。
10個AI提效應(yīng)用實操案例
以下分享10個過去一年我通過AI工具提升效率的應(yīng)用實操案例,每個案例都附上具體的教程,具體內(nèi)容后續(xù)更新輸出,提前獲取完整內(nèi)容可私聊我。
其中涉及到的AI應(yīng)用工具包括如下,這幾個也基本上是我最常用的AI工具:
- ChatGPT、豆包、騰訊元寶;
- 秘塔搜索、Kimi;
- 通義聽悟(https://tongyi.aliyun.com/qianwen/)
- WPS AI(ai.wps.cn)、GitMind AI (gitmind.cn/app/docs)、Gamma AI(https://gamma.app/#all);
- AI快研俠(kuaiyanai.com);
- 稿定設(shè)計AI(gaoding.com);
五、行家階段:研究學(xué)習(xí)AI在不同行業(yè)的應(yīng)用場景、實現(xiàn)方案
1. 理解用戶需求,提供解決方案才是產(chǎn)品經(jīng)理的最終目的
AI產(chǎn)品經(jīng)理除了需要知道怎么使用AI解決具體的問題,也要具備如何設(shè)計AI解決方案的能力,這才是一個產(chǎn)品經(jīng)理最終要交付的東西;個人覺得,產(chǎn)品經(jīng)理的重要職責(zé)是發(fā)現(xiàn)用戶的需求,并整合多種資源,提供有效的產(chǎn)品解決方案,因此,我們有必要深入的去研究一下具體行業(yè)內(nèi)用戶的需求、AI應(yīng)用的落地場景、以及可行的解決方案,甚至可能還要考慮產(chǎn)品的商業(yè)問題;
為了達(dá)成這個目的,在過去的一年里,我花了大量的時間去研究市面上主流的AI產(chǎn)品,包括國內(nèi)火熱的豆包、元寶、扣子等產(chǎn)品,不僅體驗其產(chǎn)品能力,更從行業(yè)、用戶、商業(yè)、產(chǎn)品等角度深入去分析和理解這些產(chǎn)品,以希望能夠加強(qiáng)對行業(yè)和解決方案的理解;
2. 我對用戶需求和AI應(yīng)用場景的歸納思考
對于產(chǎn)品經(jīng)理而言,我們經(jīng)常希望能夠有一個需求圖譜,將一個用戶潛在的所有需求具象化的列出來,從而好尋找應(yīng)用場景的切入點;比如馬斯洛需求原理等,但是個人覺得這些還是太抽象,不夠具象,經(jīng)常的時候我們需要立馬找到感覺的總結(jié),這里分享一下在AI的應(yīng)用場景之下,我對大部分用戶的需求的總結(jié);
在我的認(rèn)知里面,具體到AI的應(yīng)用場景,我覺得用戶核心有兩大部分的需求:提升效率需求、精神娛樂和情緒價值需求;
圍繞著這兩類需求,總結(jié)一下目前市面上AI的核心應(yīng)用場景和應(yīng)用賽道如下:
1)提升效率需求:包括工作流效率、信息獲取效率、生產(chǎn)效率;
AI在工作流場景效率提升應(yīng)用,個人認(rèn)為應(yīng)用需求比較強(qiáng)烈的場景如下
- Chatbot賽道:也就是以ChatGPT為主的這類產(chǎn)品,為綜合類的以聊天對話的方式提供應(yīng)用的AI應(yīng)用場景,目前也是AI市場流量最大的應(yīng)用場景;
- Agent開發(fā)平臺:以扣子為代表的agent開發(fā)工具,主要滿足用戶個性化定制化AI應(yīng)用的需求;
- 辦公提效:核心解決辦公過程中,包括文檔創(chuàng)作、協(xié)作溝通、日程管理等場景的通用辦公需求,以及緊貼業(yè)務(wù)場景的具體應(yīng)用需求;
- 智能客服:解決獲客咨詢、售后服務(wù)等人工客服場景的效率問題,解決企業(yè)和個體的客服成本;
AI在信息獲取效率提升場景的應(yīng)用,包括搜索、閱讀、信息整理;
- AI搜索:解決傳統(tǒng)搜索廣告多、未直接提供檢索問答結(jié)果等問題,該領(lǐng)域目前也是大部分AI產(chǎn)品核心競爭的領(lǐng)域;
- AI閱讀:解決長文本、多文件內(nèi)容的閱讀效率問題,覆蓋介質(zhì)包括文檔、網(wǎng)頁、視頻、音頻、圖片等;
- AI信息整理:包括關(guān)鍵信息的識別和提取,以及對提取結(jié)果的整理和呈現(xiàn),包括一個表格、腦圖、文檔模版等易于理解的方式呈現(xiàn);
AI在生產(chǎn)效率提升場景的應(yīng)用,包括營銷內(nèi)容創(chuàng)作,知識創(chuàng)作等;
- 營銷內(nèi)容創(chuàng)作:以設(shè)計素材、圖片、視頻等視覺類內(nèi)容創(chuàng)作,以及營銷文案、營銷軟文等文本內(nèi)容創(chuàng)作,該場景在企業(yè)營銷場景、自媒體運營等場景需求聲量比較高;
- 知識內(nèi)容創(chuàng)作:包括研究報告、知識長文、論文等場景,在金融、知識付費、教育等場景的應(yīng)用比較多;
精神娛樂和情緒價值需求
- 社交娛樂:包括市面上以Character.ai,星野等產(chǎn)品為主的虛擬社交的AI應(yīng)用;
- 情緒價值:包括情感陪伴類的AI產(chǎn)品,還有做星座運勢、性格測評等AI應(yīng)用;
3. 過去一年的AI應(yīng)用分析匯總
因為個人的工作經(jīng)歷,以及興趣愛好主要聚焦在效率方向,過去一年多里,圍繞著Chatbot領(lǐng)域、Agent開發(fā)平臺、辦公軟件領(lǐng)域,輸出了幾篇反饋比較不錯的分析。
4. AI應(yīng)用落地的三種實現(xiàn)方式:模型微調(diào)、RGA、提示詞工程
前面部分,我們主要聚焦在用戶的需求和應(yīng)用場景劃分這個問題上,這個是產(chǎn)品經(jīng)理的起點,然而對于AI產(chǎn)品經(jīng)理而言,我們還需要知道的是,將大模型應(yīng)用于開發(fā)AI產(chǎn)品的實現(xiàn)方式有哪些,個人總結(jié)為3種實現(xiàn)方式:提示詞工程、RAG、模型微調(diào);
1)如何理解這三種方式的區(qū)別?
怎么理解這三種方式的區(qū)別,舉個形象的例子,大模型有的時候輸出結(jié)果質(zhì)量一般可能會是如下幾個原因?qū)е碌模?/p>
- 用戶沒有把問題問清楚,模型自然無法很好的回答用戶的問題;
- 模型具備解決這個問題的能力,但是缺乏該領(lǐng)域的相關(guān)信息的知識,給相關(guān)的信息和知識,就可以很好的解答問題;
- 模型不具備解決該問題的技能,需要接受一些技能培訓(xùn),提升自己的技能;
因此,提示詞工程就相當(dāng)于解決第一個問題,首先先把提交給模型的問題寫清楚,讓模型更好理解你的問題,從而正確輸出內(nèi)容;然而大部分用戶是沒有充足的時間去寫一個非常細(xì)致的提示詞的,他們更希望的是輸入一個內(nèi)容,模型能理解他們的需求直接輸出;所以AI產(chǎn)品經(jīng)理需要做的事情就是把用戶輸入的內(nèi)容,做進(jìn)一步的理解和提示詞的設(shè)計,幫助用戶封裝和延伸設(shè)計更清晰的提示詞,這就是提示詞工程的意思,個人認(rèn)為,提示詞工程師AI產(chǎn)品經(jīng)理的必修課,因為很多問題,其實只需要簡單的提示詞就可以搞定。
而RAG則是通過檢索或者構(gòu)建知識庫,給模型輸入一些專業(yè)的知識和信息,幫助模型解決問題,這部分需要業(yè)務(wù)提供和整理專業(yè)知識庫,或者構(gòu)建一個相對有效的搜索引擎,難度會加大一些;
模型微調(diào)則相當(dāng)于提升模型自身的能力,讓模型通過一些技能培訓(xùn)具體解決該專業(yè)問題的能力,這個方式的實現(xiàn)成本相對更高;2.如何選擇合適的方式?
那么這三種方式,到底選擇什么方式比較合適,這個主要要根據(jù)具體的業(yè)務(wù)情況來評估:
第一,個人覺得如果能通過提示詞解決的,肯定第一優(yōu)先級用提示詞工程的方式解決,這個是實現(xiàn)成本最低的方式,并且有的時候,只是提示詞的優(yōu)化,便能帶來很好的效果改善,其優(yōu)化效果甚至由于微調(diào)和RAG;但是提示詞存在的局限在于一旦提示詞太長,超過模型的上下文的時候,模型會出現(xiàn)混亂的情況,或者不理解提示詞內(nèi)容的問題,會影響效果;
至于是否采用RAG和微調(diào),到底用什么方式,可以基于如下幾個考量因素具體評估:
- 從數(shù)據(jù)實時性的角度:如果需要使用比較多實時性的數(shù)據(jù),最好的方式是使用RAG,微調(diào)要求在模型準(zhǔn)備階段提前提供數(shù)據(jù),在時效性方面肯定是無法保障的,而RAG可以提供比較實時的數(shù)據(jù);
- 從成本的角度:RAG的實現(xiàn)成本是相對更低的,微調(diào)的成本更高;
- 從可解釋性的角度:RAG的可解釋性更高,可以追溯到參考依據(jù)和來源,微調(diào)是一個黑盒,充滿了不可解釋性;
- 從幻覺優(yōu)化效果的角度:RAG和微調(diào)對于緩解幻覺效果方面都是有幫助的,但是RAG在應(yīng)對幻覺方面是更好的,微調(diào)的效果會相對差一些;
- 從模型的通用能力的角度:如果你想盡可能的保證模型解決通用問題的能力,采用RAG的方式也更好,因為微調(diào)會導(dǎo)致模型的能力受限,可能在解決一些專業(yè)問題上的能力提升了,但是會損傷模型解決通用問題的能力,所以如果想要優(yōu)先保證模型的通用能力,RAG的方式更合適;
- 從模型能力定制化的角度:想要讓模型具備某一項特定的能力,比如表達(dá)的風(fēng)格等,這個需要通過微調(diào)的方式實現(xiàn);
- 從延遲的要求的角度:若對于應(yīng)用相應(yīng)的低延遲要求比較高,使用微調(diào)的方式是比較合適的,RAG的方式因為涉及檢索和內(nèi)容處理等流程,必然會導(dǎo)致整個處理的鏈路比較長,所以在實時性和延遲方面,是比較有損的;
因此,產(chǎn)品經(jīng)理可以根據(jù)實際的業(yè)務(wù)情況,綜合以上的因素,選擇最適合自己的實現(xiàn)方式。
六、進(jìn)階階段:通過提示詞工程設(shè)計提效場景應(yīng)用
前面也提到,提示詞工程是AI產(chǎn)品經(jīng)理的必備技能,熟練的掌握提示詞工程可以讓你在優(yōu)化自己的AI產(chǎn)品的時候獲得更好的輸出;此外,個人認(rèn)為,未來的AI產(chǎn)品在面向普通用戶端的時候,一定是弱化提示詞的設(shè)計要求的,用戶只需要一句簡單的需求,就可以獲得自己想要的效果,但是其背后的輸出邏輯的設(shè)計是需要AI產(chǎn)品經(jīng)理來設(shè)計的,而這一個背后的實現(xiàn)方式,其實概括起來就是“提示詞+研發(fā)工程”,所以部分我們從概念到實操深度了解提示詞工程;
1. 什么是提示詞工程?
前面我們已經(jīng)大概介紹了提示詞工程是什么,簡單一點講,就是通過更好的設(shè)計提示詞,讓模型獲得更好的輸出結(jié)果,因此我們把利用不同的提示詞策略優(yōu)化大模型性能從而獲得更好的生成結(jié)果的工程成為提示詞工程;
2. 提示詞工程對于AI產(chǎn)品經(jīng)理為什么非常重要?
- 提示詞工程是AI產(chǎn)品經(jīng)理的入門必修課很多人可能會覺得,要讓AI生成好的結(jié)果,可能需要給模型投喂更多的數(shù)據(jù),或者訓(xùn)練微調(diào)一個專門解決該問題的模型出來,但是實際上目前通過有效的優(yōu)化一下提示詞,就可以獲得原來需要微調(diào)才能做到的效果,因此提示詞的優(yōu)化是一種更低成本的方式,所以對于未來的AI產(chǎn)品應(yīng)用的落地實現(xiàn),首先應(yīng)該先通過提示詞設(shè)計來實現(xiàn),然后再考慮通過研發(fā)工程彌補提示詞做不到的事情;
- 產(chǎn)品經(jīng)理未來的工作是封裝工程,讓用戶直接獲得結(jié)果短期而言,大模型對于提示詞的依賴程度還是比較高,但是我們不能指望所有的用戶都懂得設(shè)計提示詞,產(chǎn)品經(jīng)理的工作,是理解用戶的需求之后,封裝隱藏背后的實現(xiàn)工程,讓用戶直接獲得結(jié)果,而封裝工程的其中一部分就是提示詞工程,然后才是傳統(tǒng)的產(chǎn)品研發(fā)工程;
- 未來的產(chǎn)品經(jīng)理是先向模型提需求,再向研發(fā)提需求我們都知道,產(chǎn)品經(jīng)理的本質(zhì)工作,是發(fā)現(xiàn)需求,然后設(shè)計解決需求的解決方案,和傳統(tǒng)的互聯(lián)網(wǎng)的產(chǎn)品經(jīng)理的工作稍微不同的是,以前產(chǎn)品經(jīng)理是向研發(fā)提需求,讓研發(fā)實現(xiàn),而未來產(chǎn)品經(jīng)理的工作,是首先先向模型提需求獲得解決方案,然后再向研發(fā)提需求;
3. 提示詞工程可以/不可以解決哪些問題?
概括起來,提示詞工程能夠做的事情,就是通過提示詞設(shè)計,誘導(dǎo)模型輸出更好的結(jié)果,所以是充分的調(diào)用模型自身的能力;但是提示詞無法解決大模型本身的局限性問題,包括模型無法聯(lián)網(wǎng)檢索、存在幻覺和失憶等問題;同時,提示詞也受限于模型上下文長度的問題,面對一些輸入較長的場景,提示詞會失效,需要通過一些其他的方式解決,包括提示詞的分拆等;
4. 如何更好的設(shè)計提示詞?
1)提示詞的組成部分
- 上下文(Context):提供與任務(wù)相關(guān)的背景信息,幫助模型理解任務(wù)的整體情況。
- 任務(wù)描述(Task Description):明確說明需要完成的任務(wù),包括任務(wù)目標(biāo)、模型扮演的角色、工作流等;
- 約束條件(Constraints):限定輸出的范圍或特征,例如字?jǐn)?shù)限制、風(fēng)格要求等。
- 示例(Examples):提供示例輸入輸出對,幫助模型更好地理解任務(wù)要求。
- 輸出格式(Output Format):指定輸出的格式或結(jié)構(gòu),例如要求輸出列表、段落、對話等。
2)提示詞設(shè)計案例
以下以我自己設(shè)計的一個用于自動針對某一個概念關(guān)鍵詞,讓AI生成提問問題,從而幫助自己加深對概念的認(rèn)知的提示詞設(shè)計,將該段提示詞提交給ChatGPT類產(chǎn)品,便可執(zhí)行AI程序,以下只是提供一個結(jié)構(gòu)示范,具體的效果需要持續(xù)的調(diào)整提示詞才能獲得更好的輸出;
3)提示詞設(shè)計的8個基本技巧
以下概括總結(jié)幾個具體寫提示詞時需要遵守的基本原則,該部分也基本上是openai官方對外公開的對于提示詞設(shè)計的建議:
- 提供清晰的指示:包括提供明確的目標(biāo)、上下文背景、減少隱藏信息;
- 給模型一個角色設(shè)定并指定用戶回答問題的口吻:讓模型扮演一個專家、導(dǎo)師等等角色,這個對于回復(fù)質(zhì)量會有很大的幫助,有利于改變回答內(nèi)容的專業(yè)程度,也讓模型了解對于回復(fù)內(nèi)容,你的期望程度如何; 其次,引導(dǎo)模型用某種口吻回復(fù),例如專家的口吻回答的內(nèi)容和新聞發(fā)言人回答的內(nèi)容,專業(yè)度自然是不一樣的,通過引導(dǎo)口吻要求,可以讓其撰寫的內(nèi)容更接近你想要的角色的語言;
- 提供獲得答案的任務(wù)步驟:圍繞著我們想要的目標(biāo)結(jié)果,可以適當(dāng)?shù)慕o模型一些提示,告訴他獲得你想要的答案需要經(jīng)過幾個步驟這個在一些涉及邏輯和計算的場景會很有用;有時模型會有自己的思路,得到的結(jié)果不一定是你想要的,告訴它你的思路,會讓它生成的結(jié)果更接近你想要的;
- 提供參考案例、事實信息:給模型提供一些參考案例示范,可以讓模型學(xué)習(xí)參考案例輸出自己想要的內(nèi)容要求;另外,模型有的時候回答的內(nèi)容可能是并不準(zhǔn)確的,如果我們能夠提供一些信息輸入和參考,有數(shù)據(jù)和信息依據(jù),模型會回答的更好,比如最近發(fā)生的事件、真實的行業(yè)數(shù)據(jù)等等;
- 給模型一些反饋:對生成結(jié)果提供正反饋或負(fù)反饋,告訴模型你對生成的結(jié)果是否滿意,這樣有利于模型知道其思路是否正確,正向反饋會讓模型回復(fù)質(zhì)量越來越好;負(fù)向反饋也可以讓模型及時糾正自己的思路;
- 提醒模型檢查結(jié)果:經(jīng)常提醒模型對回復(fù)的內(nèi)容做檢查,包括檢查是否有遺漏、檢查回復(fù)內(nèi)容的準(zhǔn)確性等等;一反面是讓模型的回復(fù)內(nèi)容更加的系統(tǒng),另外一反面也避免模型一本正經(jīng)的胡說八道;
- 多次重復(fù)提問:有的時候,模型因為不是非常確認(rèn)你的問題,可能給你的不一定是你想要的,或者說不知道,但是通過重復(fù)的提問,并明確輸出的內(nèi)容,重復(fù)之后,模型反而會給你你想要的內(nèi)容所以遇到模型答非所問的時候,重復(fù)幾次問題,它會給你你想要的內(nèi)容;
- 使用分隔符號,以及提示詞參數(shù):合理的使用分隔符號,可以讓模型理解內(nèi)容分隔,例如前面的提示詞案例里面我們會用##等符號分割內(nèi)容;其次,使用temperature(溫度值)等參數(shù)調(diào)節(jié)輸出內(nèi)容的隨機(jī)性和創(chuàng)意性等;
4)高階提示詞設(shè)計的策略
AI產(chǎn)品經(jīng)歷在設(shè)計提示詞的時候,除了注意提示詞設(shè)計的基本原則,也可以借鑒一些比較好的設(shè)計策略或設(shè)計思想,這是對提示詞工程的高階應(yīng)用。
以下總結(jié)幾個行業(yè)內(nèi)的高手分享過的一些提示詞設(shè)計策略如下:
- 思維鏈策略:面對一些比較復(fù)雜、專業(yè)或者場景化的問題,模型可能沒有辦法一下子生成非常好的結(jié)果,通過讓大模型不要急于一次性的完成整個任務(wù),而是一步步的通過分解,推理來完成任務(wù),可以很好的解決這個問題,這就是Chain of Thought(思維鏈),簡稱COT,它能夠使大型語言模型解決算術(shù)推理(arithmetic Arithmetic)、常識推理(commonsense Reasoning)和符號推理( symbolic reasoning)等類型的復(fù)雜任務(wù)。事實上,除了自己提供拆解步驟,讓模型在生成之前先思考解決的問題的任務(wù)拆解和步驟也非常管用,甚至最簡單的,在提示詞中增加prompt片段“Let’s think step by step” 也能夠強(qiáng)制大模型生成推理步驟!
- 類比推理策略,讓大模型自己生成參考示例和知識:我們都知道,想要讓大模型生成出符合自己需求的內(nèi)容,一個比較好的方式是提供一個參考范例給模型,讓它知道你想要的是什么并以此類比,但是有的時候提供范例本身就比較困難,因此我們可以切換一下思路,讓大模型自己生成與之相似的例子,同時從這些例子中總結(jié)生成的經(jīng)驗和方法,然后通過它自己總結(jié)的方法再次生成;在研究中也發(fā)現(xiàn),讓大模型生成示例并不是越多越好,數(shù)量為3或者5是一個最佳的數(shù)量。
- 自一致性思維鏈策略:另一種提升生成結(jié)果質(zhì)量的策略是讓模型生成多個方案,最后根據(jù)多次輸出進(jìn)行加權(quán)投票(模型自行投票)的方式選擇一種最靠譜的答案。相較于普通COT,由于大模型生成的隨機(jī)性本質(zhì),并不能保證每一次生成都是正確的,如何提高其魯棒性,提升其準(zhǔn)確率,成了一個大問題。比如:文心一言在回答剛才題目時,第一次回答結(jié)果就是錯誤的。但多生成了幾次,文心一言就回答出了正確答案?;谶@樣的思路,研究者提出了自一致COT的概念, 利用”自一致性”(self-consistency)的解碼策略,以取代在思維鏈提示中使用的貪婪解碼策略,也就是說讓大模型通過多種方式去生產(chǎn)答案, 這種策略存在一個明顯的缺陷就是太慢且耗費資源,因為要生成多套方案,意味著完成一項生成任務(wù)需要生成多套方案;
- 拆解子問題然后逐一解決策略:在解決復(fù)雜問題時,先引導(dǎo)模型把問題拆分成多個子問題;然后再讓大模型逐一解決子問題,并把子問題的回答作為下一個問題回答的上文,直到給出最終答案,這是一種先拆解問題,然后每個子問題獨立解決的策略;與前面第一點思維鏈策略不同的是,思維鏈策略拆解步驟之后,一次性按照步驟逐一生成,只完成1次執(zhí)行任務(wù);但是拆解子問題的策略是把每個子問題當(dāng)成1次執(zhí)行任務(wù),分多個任務(wù)依次執(zhí)行,最后生成完整的結(jié)果;就好像很多人寫文章,AI一次性生成的結(jié)果可能沒法讓自己滿意,但是拆分大綱之后,對每個模塊單獨生成,最后拼湊成一篇文章;這種策略的復(fù)雜之處在于需要定義每一個子問題的處理細(xì)節(jié),需要投入的研究精力比較多,并且提示詞會非常長,但是生成的結(jié)果必然會更好;
- 元提示策略:這個是最偷懶的策略,連提示詞都不自己寫,讓大模型幫忙寫提示詞,用大模型提供的提示詞生成;
- 知識生成增強(qiáng)策略:這個策略的核心思想是,在解決具體的問題之前,先讓模型生成解決該問題需要的知識,建立好支持儲備之后,讓模型做更有針對性的問答;
產(chǎn)品經(jīng)理在設(shè)計提示詞的時候,可以綜合以上多種策略思路,嘗試調(diào)整和優(yōu)化自己的提示詞;
5. 不斷的嘗試和調(diào)試提示詞,才是發(fā)掘提示詞工程和經(jīng)驗的關(guān)鍵
雖然前面我們分享了很多關(guān)于提示詞工程相關(guān)的策略和技巧,不過從個人實踐下來,并不是所有的技巧和策略均百分百有效,目前我們通過提示詞對大模型能力的探索,還存在非常多的未知和隨機(jī),有的時候很多你頭疼不已的難題,可能只是在不經(jīng)意間的一個小調(diào)整,哪怕是修改了一個符號,問題就被莫名其妙的解決了,所以我們常常覺得,大模型的能力是個充滿神秘的未知領(lǐng)域,需要自己在實踐中多嘗試和摸索,可能就又會發(fā)現(xiàn)更多的新的技巧和經(jīng)驗;
其次就是需要耐心,調(diào)整提示詞的過程挺枯燥的,不要一下子獲取不到目標(biāo)結(jié)果就放棄,多嘗試一些思路,耐心調(diào)試,才能獲得想要的效果。七.高手階段:用扣子從0到1開發(fā)一個Agent應(yīng)用
學(xué)習(xí)和了解完前面的內(nèi)容后,可能你對于大模型的基本情況、AI的應(yīng)用場景、如何應(yīng)用落地可能都有一定的了解,接下來,你可以結(jié)合自己生活、工作、學(xué)習(xí)經(jīng)歷中的需求,尋找一個需求比較高的場景,親自嘗試一下用扣子這類應(yīng)用開發(fā)平臺自己做一個Agent應(yīng)用,用于實際解決自己的問題,這個過程可以滿足AI產(chǎn)品經(jīng)理快速實操開發(fā)一個AI產(chǎn)品全過程的實踐;
做完這些,或許你就基本知道AI應(yīng)用的底層都有哪些技術(shù)實現(xiàn)路徑,所以建議有心轉(zhuǎn)型AI產(chǎn)品經(jīng)理的,即使沒有相應(yīng)的工作經(jīng)歷,至少都要親自體驗用扣子平臺創(chuàng)建agent的過程,分享一下個人通過扣子嘗試創(chuàng)建過的agent如下;
這部分,后續(xù)我將計劃逐步分享如何實操從0到1開發(fā)Agent應(yīng)用,由于寫稿工作量比較大,該部分暫時還沒有完成,后續(xù)輸出后會更新,歡迎后續(xù)關(guān)注。
本篇文章如下再分享幾個Agent應(yīng)用開發(fā)過程中的幾個關(guān)鍵能力,掌握好這幾個能力,便基本具備開發(fā)Agent應(yīng)用的技能;
1.大模型選擇:以扣子平臺為例,目前平臺除了提供官方的豆包大模型,也提供了外部模型,包括通義千問,智譜,Minimax,kimi等,具體的模型選型,可以根據(jù)大家對模型的了解情況,比如個人通常創(chuàng)建角色類的應(yīng)用推薦使用豆包的角色扮演模型,涉及長文本的推薦kimi的模型;
2.提示詞設(shè)計:這部分也就是我們前面一直強(qiáng)調(diào)的提示詞工程部分,在這里配置和設(shè)計應(yīng)用的提示詞;
3.插件技能:插件技能實際上就是各種各樣的API,也是模型能力的延伸,比如OCR、文檔提取、搜索引擎等,這些都是插件技能,一個AI應(yīng)用的實現(xiàn),不可能單純依靠大模型,必然需要結(jié)合各種插件能力,才能做出功能強(qiáng)大的AI應(yīng)用。
4.工作流:工作流也是設(shè)計AI應(yīng)用的重要編排手段,這部分也是產(chǎn)品經(jīng)理和研發(fā)人員的業(yè)務(wù)核心所在,不過該部分的使用門檻還是稍微有些高,需要多琢磨琢磨后才能熟練使用;
5.知識庫:最后一個是知識庫,也就是提供一些專業(yè)的資料,讓模型自己先學(xué)習(xí),并且在生成結(jié)果的時候,結(jié)合知識庫內(nèi)容輸出專業(yè)的內(nèi)容,這部分取決于業(yè)務(wù)是否有相關(guān)的知識沉淀和業(yè)務(wù)數(shù)據(jù)。
八、專家階段:組建團(tuán)隊,自研一個AI應(yīng)用并嘗試商業(yè)變現(xiàn)
最后一步,也是相對來說實操門檻最高的階段,也就是自己嘗試組建團(tuán)隊,親自開發(fā)一個AI應(yīng)用,并且嘗試運營這個應(yīng)用,達(dá)成用戶增長和商業(yè)化變現(xiàn)的目標(biāo);這個過程,至少需要花費你半年~1年的時間,但是也是讓你成長最快的一種方式;
在過去的一年里,我和團(tuán)隊小伙伴,用了將近1年的時間親自走完了從需求調(diào)研、產(chǎn)品設(shè)計、產(chǎn)品研發(fā)、PMF驗證、增長運營、商業(yè)變現(xiàn)的整個完整歷程,我將在后續(xù)通過單獨的一篇文章“我是如何從0到1做一個AI產(chǎn)品”,完整的分享我的整個心路歷程,以及過程中遇到的問題和經(jīng)驗;
在本篇文章,我主要挑選分享從0到1開發(fā)一個AI應(yīng)用過程中,如下幾個關(guān)鍵話題:
- 如何尋找合適的AI的應(yīng)用場景?
- 如何組建一個AI應(yīng)用研發(fā)的小團(tuán)隊?
- 如何調(diào)研和驗證需求??
- 如何思考和設(shè)計你的產(chǎn)品定位?
- 產(chǎn)品落地和開發(fā)階段,可能遇到的問題與思考;
1. 如何尋找合適的AI應(yīng)用場景?
關(guān)于怎么尋找合適的應(yīng)用落地場景這個問題,個人分享幾點自己的看法,僅供參考:
1)盡可能選擇做自己擅長、感興趣、有優(yōu)勢的事情
去年這個時候,我大概有2個月左右的時間,一直在思考和探索應(yīng)該從哪個AI應(yīng)用場景切入,從市場需求的角度上看,當(dāng)時我發(fā)現(xiàn)深圳有非常多的跨境電商的創(chuàng)業(yè)者,所以一開始嘗試想做跨境電商的AI應(yīng)用,并且還親自嘗試了跨境電商的業(yè)務(wù),然而實際上并不順利,我對這個行業(yè)的業(yè)務(wù)sense太弱了,同時身邊也沒有一個專家級別的朋友能夠彌補我在該領(lǐng)域的輸入;
后來我開始轉(zhuǎn)變一下思路,與其做一個自己不熟悉和擅長的領(lǐng)域,還不如嘗試一個自己擅長的事情,以及從解決自己的問題入手;當(dāng)時的我有大量的時間需要輸出關(guān)于AI相關(guān)的研究內(nèi)容,用于創(chuàng)作付費的知識內(nèi)容以及服務(wù)身邊那些有學(xué)習(xí)AI需求的客戶;該過程中我需要搜集大量的學(xué)習(xí)資料,并且深度吸收之后輸出為可以分享的知識,這個過程極大的占用了我的時間,所以我想著是不是做一個能夠提升自己學(xué)習(xí)一個陌生領(lǐng)域知識效率的工具,幫助我能夠快速的掌握新的信息和知識,所以我想到了做這個AI產(chǎn)品,如今產(chǎn)品已經(jīng)迭代了七八個版本。
2)優(yōu)先用好自己的或者自己夠得著的優(yōu)勢資源
在后來和很多有創(chuàng)業(yè)想法的朋友交流的過程中,我的感受是,很多人會高談闊論各種各樣的AI應(yīng)用想法,聊到激動是時候還會拍大腿激動地喊某某場景和AI結(jié)合一定能火,但是實際上能夠真正落地下來的很少,很多時候是聊聊然后就沒有下文了;只有少數(shù)部分圍繞著自己當(dāng)下已經(jīng)在做的事情的朋友,他們會快速的去嘗試和落地,然后把事情做成;所以,個人認(rèn)為,別天天盯著別人做啥和做的怎么樣,先想想自己手上有哪些優(yōu)勢資源能夠使用,先做自己能夠夠得著的事情;
3)別單打獨斗,找能力互補的合伙人
如果實在對某一個領(lǐng)域非常的認(rèn)可,也很想要做這個領(lǐng)域的嘗試,建議自己能找一個該領(lǐng)域的專家朋友作為合伙人一起做,當(dāng)然如果你有足夠的時間,也可以親自入局嘗試,讓自己成為這個方面的專家,但是這個會花費你很多的時間,對于創(chuàng)業(yè)這個事情來說,個人并不太建議;
4)了解市面上有哪些比較不錯的AI應(yīng)用
對于這個問題,我有我自己的一些渠道和方法,通常我會通過如下的方式了解目前市面上有哪些不錯的AI應(yīng)用,以及大家都在關(guān)注和投資什么領(lǐng)域:
- 通過了解行業(yè)內(nèi)應(yīng)用的廣告投放的情況,了解哪些產(chǎn)品最近在加大廣告投放,我個人的邏輯是,一般開始啟動投放的產(chǎn)品一定是已經(jīng)驗證過商業(yè)模式并且可以賺錢的,當(dāng)然那些有錢有投資的平臺不算,所以我更多的是看那些垂直賽道的小產(chǎn)品;至于如何看到這些數(shù)據(jù),可以通過市面上的數(shù)據(jù)平臺獲取相關(guān)數(shù)據(jù),比如APPGrowing等平臺;
- 了解行業(yè)內(nèi)的應(yīng)用數(shù)據(jù)增長情況,這個的邏輯和上面是一樣的,只是看廣告投放數(shù)據(jù)是一個先驗判斷,看應(yīng)用增長數(shù)據(jù)是后驗判斷,比較靠譜的數(shù)據(jù)來源包括questmobile提供的數(shù)據(jù);
- 了解市面上的投資機(jī)構(gòu)他們在關(guān)注什么,這個我一般會通過咨詢機(jī)構(gòu)的朋友來了解,他們距離投資機(jī)構(gòu)等最近,最能告訴我相關(guān)的信息;
2. AI應(yīng)用開發(fā)團(tuán)隊的MVP組合是什么?
前面也有提到過,如果你想要做的只是一個能夠快速驗證需求的AI應(yīng)用,只需要一個幾個人的小團(tuán)隊就可以完成,個人認(rèn)為,這個小團(tuán)隊的MVP組合(最小團(tuán)隊組合)只要綜合素質(zhì)比較強(qiáng)的4個人即可,包括業(yè)務(wù)產(chǎn)品經(jīng)理、AI產(chǎn)品經(jīng)理、后臺研發(fā)、前端研發(fā):
- 業(yè)務(wù)產(chǎn)品經(jīng)理或運營:這個角色的人通常會是AI應(yīng)用場景的發(fā)現(xiàn)人,他必須熟悉并了解具體的業(yè)務(wù)情況,了解客戶的需求和痛點,知道自己想要的是一個什么樣的產(chǎn)品,除了是一個能夠判斷業(yè)務(wù)方向,也是一個能夠提需求的人,同時最好他能夠承擔(dān)起用戶增長運營、商業(yè)設(shè)計等相關(guān)的事情;
- AI產(chǎn)品經(jīng)理:這個角色要求是需要能夠懂得提示詞工程設(shè)計,通過提示詞實現(xiàn)業(yè)務(wù)想要的效果,同時他能夠了解大模型的技術(shù)動態(tài),知道使用哪些大模型和開源的項目能夠解決具體的產(chǎn)品需求;
- 后臺研發(fā)工程師:AI應(yīng)用的實現(xiàn),有極多的工作量是后臺技術(shù)工程的開發(fā),所以后臺研發(fā)是需要的,并且最好是全棧型的后臺研發(fā),能夠具備獨立的技術(shù)框架設(shè)計、能對接和整合市面上的模型和開源項目、能獨立設(shè)計運營后臺系統(tǒng);
- 前端研發(fā)工程師:產(chǎn)品最后呈現(xiàn)給用戶的可能是一個網(wǎng)頁、一個小程序或者一個APP,所以你還需要一個前端研發(fā),他最好能夠同時具備網(wǎng)頁、小程序和APP客戶端開發(fā)的能力,這樣可以幫你節(jié)省很多的研發(fā)資源;
3. 如何快速驗證AI應(yīng)用場景的需求?
很多時候,大家腦子里閃過的idea和念頭可能是一個不太成熟的想法,如果你只是為了一個還沒有想清楚的想法就貿(mào)然投入很多資源去做這個事情,可能大概率是不太靠譜的,在開始啟動這個事情之前,為了讓自己后面能夠放心大膽的去投入,你還是需要先花點時間對自己的想法做需求的調(diào)研與驗證,該部分分享一些自己的經(jīng)歷和感受;
- 用人工的“笨方法”先快速嘗試實現(xiàn)一下,建立業(yè)務(wù)認(rèn)知,發(fā)現(xiàn)問題和痛點;
- 設(shè)想你的目標(biāo)用戶是誰,找你的目標(biāo)用戶聊聊;
- 打聽和了解一下目前市面上已經(jīng)在做類似領(lǐng)域的同行
4. 如何思考和設(shè)計你的產(chǎn)品定位?
你會怎么定義自己的產(chǎn)品,在完整需求驗證之后,需要思考的是自己究竟想做的是一個什么樣的產(chǎn)品,我覺得關(guān)鍵需要想清楚如下幾個問題:
- 你的產(chǎn)品具體的解決的什么問題,嘗試用一句話通俗易懂的概括出來;
- 你最主要的目標(biāo)用戶是誰?
- 你的產(chǎn)品的核心賣點是什么?
- 市面上是否已經(jīng)有比較好的替代解決方案?
- 你來做這個事情有什么樣的優(yōu)勢?
OK,該部分我暫時先分享到這,由于篇幅原因,不適合在本篇文章長篇大論,該部分后面將計劃通過單獨的一篇文章輸出,我將在以上每個部分詳細(xì)增加個人的經(jīng)歷和經(jīng)驗,同時增加關(guān)于如何做產(chǎn)品的用戶增長、商業(yè)化相關(guān)的話題分享,歡迎大家關(guān)注。
結(jié)尾
至此,本篇文章就暫時先寫到這里。
說實話,特別享受這種為了一個目標(biāo),保持長期的學(xué)習(xí)和積累,然后一次輸出的感覺,當(dāng)然,本篇文章將會是我在“AI產(chǎn)品經(jīng)理轉(zhuǎn)型之路”這個專題內(nèi)容的第一篇文章,圍繞這個話題,我已經(jīng)整理好了輸出框架,后續(xù)陸續(xù)輸出。
作者:三白有話說,公眾號:三白有話說
本文由 @三白有話說 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于CC0協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
簡直太干貨了,期待多多更新,非常有幫助!
好的好的,謝謝
贊!太有幫助了!
謝謝
可以交流學(xué)習(xí)一下嘛
basketball-boy555歡迎加我個人微信
非常牛,知行合一!善于總結(jié)與分享,帶小白們飛,快速了解一個新職位和玩法,好比打怪升級解鎖技能,明天再看一遍??????
感謝評價哈,希望內(nèi)容能幫到大家
總之,知行合一,非常牛掰
知行合一是最好的評價,感謝哈