從底層原理讓你的AI更好用!

0 評論 526 瀏覽 0 收藏 7 分鐘

在使用AI工具時,你是否遇到過答非所問、數(shù)理計算不準確或編造事實等問題?這些問題可能源于提示詞的不當設(shè)計或模型本身的局限性。本文將從大模型的底層原理出發(fā),深入探討如何通過提示詞調(diào)優(yōu)、外部資源調(diào)用和模型微調(diào)等方法提升AI的使用效果。

在用AI落地你的想法時,是否有遇到以下問題:

  • 答非所問
  • 數(shù)理計算不準確
  • 編造事實

大家遇到這些問題時可能會疑惑:到底是提示詞寫的不好?還是模型本身的能力不足?

面對問題卻只能“拔劍四顧心茫然”,不知道該用什么方式解決問題

本文的目的便是幫大家理解大模型,后續(xù)使用AI遇到問題時,能夠快速找到合適的解決方案

(為幫助不同背景的同學理解,本文的舉例、概念有一定的簡化)

一、大模型不會思考

從deepseek、豆包等大模型的使用體驗而言,我們能感受到大模型有所謂“思考”的過程,但其實這只是為了用戶體驗所包裝出來的假象:

大模型其實不會思考,但他擅長“推理計算”,本質(zhì)是一個概率函數(shù),根據(jù)上文計算出接下來概率最大的文本是什么。

以一個小學生的完形填空題目為例:

既然大模型不會思考,為什么改提示詞能夠讓它更聽話?甚至能影響模型輸出的“思考過程”?

二、讓大模型更聽話的三種方式

大模型不聽話可能有幾種原因:

  • 無法回答或編造事實,可能為大模型本身缺少相關(guān)知識
  • 回答過于發(fā)散,可能為大模型訓練時很少接觸過此類問題,對應(yīng)的語言/推理模式較弱
  • 指令丟失,可能提示詞/上下文過長,超出了模型可處理的長度

從提示詞工程、外部知識與工具、模型微調(diào)三種方式可針對性地解決問題

2.1 提示詞調(diào)優(yōu)

如前文表述,提示詞是最直接影響大模型輸出結(jié)果的因素,

在模型本身能力范圍內(nèi),提示詞是提升準確性最具性價比的方式

像deepseek-R1這種推理模型是否不再需要復雜的提示詞?

——看情況,若希望有效果更穩(wěn)定的回答,提示詞技巧仍然適用,對于一些通識性問題,推理模型自帶的推理模式可以很好地解決問題,不需要過多的人為引導

列舉部分提示詞優(yōu)化技巧,列舉主要是為了幫助大家理解其原理,實操上可以將提示詞扔給大模型幫忙優(yōu)化

更多技巧可參考:

? 結(jié)構(gòu)化提示詞

若嘗試了多種提示詞技巧后,發(fā)現(xiàn)結(jié)果仍然不符合預(yù)期,可能觸及了當前大模型的能力邊界,可參考2.2~2.3方法進階調(diào)優(yōu)

2.2 外部資源調(diào)用

當前大模型長文本閱讀、數(shù)理計算、知識時效性方面仍然有局限性

為了補足這些短板,大模型也發(fā)展出了調(diào)用外部資源的能力

在具體落地上,可以使用Coze、Dify等AI應(yīng)用搭建平臺,均有提供相關(guān)功能

雖然外部資源調(diào)用能一定程度擴大大模型的能力邊界,但現(xiàn)在也仍有高延遲、實時性、安全風險等問題

在落地時為了更好的效果,需要在工程側(cè)做一定優(yōu)化

2.3 模型微調(diào)

示例參考:模型微調(diào) – SiliconFlow

模型微調(diào)的本質(zhì)是調(diào)整大模型的參數(shù),需要引入“模型訓練”的環(huán)節(jié)

在微調(diào)后,模型對特定領(lǐng)域場景的能力將會得到提升,但訓練過程的門檻和成本都比較高

效果示例如下:

三、選擇合適你的調(diào)優(yōu)方式

一般來說,提示詞調(diào)優(yōu)>外部知識&工具>模型微調(diào)

  • 當提示詞觸及模型能力邊界的問題,再考慮另外兩種方式
  • 當準確度、時效要求較高時,考慮微調(diào)

作者:古木杉 公眾號:Jor的思考日記

本文由 @古木杉 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!