機器學(xué)習(xí)最強入門總結(jié),看這篇就夠了

0 評論 568 瀏覽 1 收藏 24 分鐘

在人工智能迅速發(fā)展的當下,機器學(xué)習(xí)作為實現(xiàn)AI的核心技術(shù)路徑,正吸引著越來越多的關(guān)注。本文為機器學(xué)習(xí)的初學(xué)者提供了一份全面的入門總結(jié),從機器學(xué)習(xí)的基本概念、發(fā)展歷程、核心原理到不同學(xué)習(xí)類型的分類和應(yīng)用場景,進行了深入淺出的講解。

近兩年來 AI 產(chǎn)業(yè)已然成為新的焦點和風(fēng)口,各互聯(lián)網(wǎng)巨頭都在布局人工智能,不少互聯(lián)網(wǎng)產(chǎn)品經(jīng)理也開始考慮轉(zhuǎn)型 AI 產(chǎn)品經(jīng)理,入門AI產(chǎn)品經(jīng)理,或許你應(yīng)該了解一些技術(shù),本文將為你詳細介紹機器學(xué)習(xí)

機器學(xué)習(xí)(Machine Learning, ML)與人工智能(Artificial Intelligence, AI)是技術(shù)演進中密不可分的兩個概念

機器學(xué)習(xí)是實現(xiàn)人工智能的核心技術(shù)路徑,而人工智能是機器學(xué)習(xí)的終極目標。

本文將為你詳細介紹機器學(xué)習(xí)

一、基本概念

機器學(xué)習(xí)(Machine Learning, ML)是教會計算機從數(shù)據(jù)中自動發(fā)現(xiàn)規(guī)律,并利用這些規(guī)律進行預(yù)測或決策的技術(shù)。

簡單來說,就是讓機器像人類一樣“學(xué)習(xí)經(jīng)驗”,而無需被明確編程每一步該怎么做。

機器學(xué)習(xí)不是某種具體的算法,而是很多算法的統(tǒng)稱。機器學(xué)習(xí)包含了很多種不同的算法,深度學(xué)習(xí)就是其中之一,這些算法能夠讓計算機自己在數(shù)據(jù)中學(xué)習(xí)從而進行預(yù)測。無論使用什么算法,使用什么樣的數(shù)據(jù),最根本的思路都逃不出下面的3步!

機器學(xué)習(xí)的基本思路如下:

  1. 把現(xiàn)實生活中的問題抽象成數(shù)學(xué)模型,并且很清楚模型中不同參數(shù)的作用
  2. 利用數(shù)學(xué)方法對這個數(shù)學(xué)模型進行求解,從而解決現(xiàn)實生活中的問題
  3. 評估這個數(shù)學(xué)模型,是否真正的解決了現(xiàn)實生活中的問題,解決的如何?

其中,最難的部分也就是把現(xiàn)實問題轉(zhuǎn)換為數(shù)學(xué)問題這一步

二、發(fā)展歷程和關(guān)鍵階段

(1)萌芽階段(1950s-1960s)

以塞繆爾的下棋程序為代表,首次驗證機器可通過學(xué)習(xí)提升能力,但局限于簡單任務(wù)。

(2)知識驅(qū)動階段(1960s-1970s)

研究者嘗試將人類知識植入系統(tǒng),但受限于知識表示和獲取難度

(3)復(fù)興階段(1970s-1980s)

機器學(xué)習(xí)與專家系統(tǒng)結(jié)合,示例歸納學(xué)習(xí)成為主流,國際會議和期刊的誕生推動學(xué)科發(fā)展

(4)*大數(shù)據(jù)與深度學(xué)習(xí)時代(2000s至今)

隨著算力和數(shù)據(jù)量爆發(fā),深度學(xué)習(xí)(如AlexNet)在圖像識別、自然語言處理等領(lǐng)域?qū)崿F(xiàn)突破,推動自動駕駛、醫(yī)療診斷等應(yīng)用落地

三、機器學(xué)習(xí)的基本原理

下面以監(jiān)督學(xué)習(xí)為例,給大家講解一下機器學(xué)習(xí)的實現(xiàn)原理。

假如我們正在教小朋友識字(一、二、三)。

我們首先會拿出3張卡片,然后便讓小朋友看卡片,一邊說“一條橫線的是一、兩條橫線的是二、三條橫線的是三”。

不斷重復(fù)上面的過程,小朋友的大腦就在不停的學(xué)習(xí)。

當重復(fù)的次數(shù)足夠多時,小朋友就學(xué)會了一個新技能——認識漢字:一、二、三。

我們用上面人類的學(xué)習(xí)過程來類比機器學(xué)習(xí)。

機器學(xué)習(xí)跟上面提到的人類學(xué)習(xí)過程很相似。

  • 上面提到的認字的卡片在機器學(xué)習(xí)中叫——訓(xùn)練集
  • 上面提到的“一條橫線,兩條橫線”這種區(qū)分不同漢字的屬性叫——特征
  • 小朋友不斷學(xué)習(xí)的過程叫——建模
  • 學(xué)會了識字后總結(jié)出來的規(guī)律叫——模型

通過訓(xùn)練集,不斷識別特征,不斷建模,最后形成有效的模型,這個過程就叫“機器學(xué)習(xí)”!

四、分類

機器學(xué)習(xí)常見的10個學(xué)習(xí)類型如下

其核心邏輯都是根據(jù)數(shù)據(jù)條件 (標注、規(guī)模、分布)、任務(wù)需求 (實時性、多任務(wù)、跨領(lǐng)域)和資源限制 (計算、隱私)選擇合適方法。

其中,基礎(chǔ)學(xué)習(xí)類型 (監(jiān)督/無監(jiān)督/強化學(xué)習(xí))解決大多數(shù)傳統(tǒng)問題,進階學(xué)習(xí)類型突破數(shù)據(jù)、隱私、動態(tài)環(huán)境等限制。

1. 監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)是指我們給算法一個數(shù)據(jù)集,并且給定正確答案。機器通過數(shù)據(jù)來學(xué)習(xí)正確答案的計算方法。

其中,數(shù)據(jù)有明確的標簽,其學(xué)習(xí)方式是根據(jù)輸入(特征)和輸出(標簽)的關(guān)系,建立一個預(yù)測模型。

(1)典型任務(wù)

  • 分類(預(yù)測類別):判斷腫瘤是良性還是惡性。
  • 回歸(預(yù)測數(shù)值):預(yù)測房價、氣溫。

(2)常見算法

線性回歸、決策樹、支持向量機(SVM)、神經(jīng)網(wǎng)絡(luò)

(3)舉例

我們準備了一大堆貓和狗的照片,我們想讓機器學(xué)會如何識別貓和狗。

當我們使用監(jiān)督學(xué)習(xí)的時候,我們需要給這些照片打上標簽。

我們給照片打的標簽就是“正確答案”,機器通過大量學(xué)習(xí),就可以學(xué)會在新照片中認出貓和狗。

2. 非監(jiān)督學(xué)習(xí)

非監(jiān)督學(xué)習(xí)中,給定的數(shù)據(jù)集沒有“正確答案”,所有的數(shù)據(jù)都是一樣的。

無監(jiān)督學(xué)習(xí)的任務(wù)是從給定的數(shù)據(jù)集中,挖掘出潛在的結(jié)構(gòu)。

其中,數(shù)據(jù)沒有標簽,其學(xué)習(xí)方式是發(fā)現(xiàn)數(shù)據(jù)中的隱藏規(guī)律或結(jié)構(gòu)(比如分組、簡化數(shù)據(jù))。

(1)典型任務(wù)

  • 聚類(Clustering):把用戶按購買行為分成不同群體。
  • 降維(Dimensionality Reduction):將高維數(shù)據(jù)壓縮成2D/3D可視化。
  • 關(guān)聯(lián)分析:發(fā)現(xiàn)超市商品之間的購買關(guān)聯(lián)(如啤酒和尿布)。

(2)常見算法

K-Means、PCA(主成分分析)、Apriori。

(3)舉例

我們把一堆貓和狗的照片給機器,不給這些照片打任何標簽,但是我們希望機器能夠?qū)⑦@些照片分分類

通過學(xué)習(xí),機器會把這些照片分為2類,一類都是貓的照片,一類都是狗的照片。

雖然跟上面的監(jiān)督學(xué)習(xí)看上去結(jié)果差不多,但是有著本質(zhì)的差別:

非監(jiān)督學(xué)習(xí)中,雖然照片分為了貓和狗,但是機器并不知道哪個是貓,哪個是狗。

對于機器來說,相當于分成了 A、B 兩類。

3. 強化學(xué)習(xí)

關(guān)注的是智能體如何在環(huán)境中采取一系列行為,從而獲得最大的累積回報。

通過強化學(xué)習(xí),一個智能體應(yīng)該知道在什么狀態(tài)下應(yīng)該采取什么行為。

其中,沒有現(xiàn)成的數(shù)據(jù),而是通過與環(huán)境互動獲得反饋(獎勵/懲罰),其學(xué)習(xí)目標是找到最優(yōu)策略(Policy),讓智能體(Agent)在環(huán)境中獲得最大累積獎勵。

(1) 核心要素

  • 環(huán)境 (如游戲世界、自動駕駛場景)
  • 動作 (Agent的行為,如踩油門、左轉(zhuǎn))
  • 獎勵 (如得分增加、避免碰撞)

(2)典型任務(wù)

游戲AI(如AlphaGo)、機器人控制、自動駕駛。

(3)常見算法

Q-Learning、深度強化學(xué)習(xí)(DQN)

(4)舉例

訓(xùn)練小狗接飛盤:

  • 小狗成功接到飛盤 → 給它零食(正向獎勵)
  • 小狗沒接到 → 不給零食(無獎勵)
  • 小狗逐漸學(xué)會“加速奔跑+跳躍”的策略,以最大化獲得零食的機會

4. 半監(jiān)督學(xué)習(xí)

結(jié)合少量標注數(shù)據(jù) + 大量無標注數(shù)據(jù)聯(lián)合訓(xùn)練,降低標注成本。

(1)典型任務(wù)

  • 醫(yī)學(xué)影像分析(標注成本高)
  • 文本分類(部分文檔無標簽)

(2)常見算法

  • 標簽傳播(Label Propagation)
  • 半監(jiān)督GAN(生成對抗網(wǎng)絡(luò))
  • 自訓(xùn)練(Self-training)

(3)舉例

訓(xùn)練一個AI模型來自動識別肺部X光片中的腫瘤,但僅有少量標注數(shù)據(jù) (如1000張明確標注“正?!被颉澳[瘤”的X光片)和大量未標注數(shù)據(jù) (如10萬張未標注的X光片)。

半監(jiān)督學(xué)習(xí)通過以下步驟解決標注不足的問題:

①初始模型訓(xùn)練:1000張已標注的X光片(如500張正常、500張腫瘤),用這些標注數(shù)據(jù)訓(xùn)練一個基礎(chǔ)分類模型(如卷積神經(jīng)網(wǎng)絡(luò)),學(xué)習(xí)初步的腫瘤識別規(guī)律,例如腫瘤區(qū)域的紋理、邊緣模糊度等特征

②未標注數(shù)據(jù)的偽標簽生成:將10萬張未標注的X光片輸入初始模型進行預(yù)測,生成偽標簽 (即模型預(yù)測的“正?!被颉澳[瘤”結(jié)果),僅保留模型預(yù)測置信度高的樣本(例如預(yù)測概率>90%的5萬張),作為“偽標注數(shù)據(jù)”加入訓(xùn)練集,其原理是假設(shè)模型對高置信度樣本的預(yù)測基本正確,通過擴大數(shù)據(jù)量優(yōu)化模型對肺部結(jié)構(gòu)的理解

③迭代優(yōu)化與核心假設(shè):合并初始標注數(shù)據(jù)和偽標注數(shù)據(jù),重新訓(xùn)練模型。重復(fù)此過程多次,逐步優(yōu)化模型性能

④實際應(yīng)用:最終模型可識別更多復(fù)雜病例(如早期腫瘤、微小病灶),準確率顯著高于僅使用標注數(shù)據(jù)訓(xùn)練的模型。

5. 自監(jiān)督學(xué)習(xí)

自監(jiān)督學(xué)習(xí)屬于無監(jiān)督學(xué)習(xí)的一種。數(shù)據(jù)本身沒有任務(wù)需要的標簽。

自監(jiān)督學(xué)習(xí)需要人為的構(gòu)造標簽,讓模型來學(xué)習(xí)特征。

(1)典型任務(wù)

  • 預(yù)訓(xùn)練通用表征(如文本、圖像)
  • 下游任務(wù)微調(diào)(如問答系統(tǒng)、圖像分類)

(2)常見算法

  • BERT(掩碼語言模型)
  • GPT(生成式預(yù)訓(xùn)練)
  • SimCLR(對比學(xué)習(xí))
  • MAE(掩碼自編碼器)

(3)舉例

  • 文本填空 (如BERT):遮蓋句子中的詞語,讓模型預(yù)測被遮部分(如“貓喜歡喝__”預(yù)測“牛奶”)。
  • 視頻幀預(yù)測:利用視頻相鄰幀的連續(xù)性,預(yù)測下一幀內(nèi)容。
  • 圖像著色:將黑白圖片輸入模型,預(yù)測原始顏色分布

6. 多任務(wù)學(xué)習(xí)

同時學(xué)習(xí)多個相關(guān)任務(wù),共享部分模型參數(shù)以提高泛化能力

(1)典型任務(wù)

  • 自動駕駛(同時檢測車輛、行人、車道線)
  • 自然語言處理(如聯(lián)合學(xué)習(xí)命名實體識別和詞性標注)

(2)常見算法

  • 多任務(wù)神經(jīng)網(wǎng)絡(luò)(共享底層,任務(wù)特定輸出層)
  • 聯(lián)合訓(xùn)練Transformer

(3)舉例

  • 自然語言處理:同時處理文本分類、情感分析、命名實體識別等任務(wù)。
  • 計算機視覺:同時處理目標檢測、圖像分割、人臉識別等任務(wù)。
  • 醫(yī)療健康:結(jié)合病例診斷、預(yù)測疾病風(fēng)險等多個任務(wù),提供更全面的醫(yī)療輔助服務(wù)。
  • 語音識別:同時處理語音識別、語音情感分析、說話人識別等任務(wù)。

7. 在線學(xué)習(xí)

模型每次接收一個或一小批新數(shù)據(jù)(如用戶點擊行為),立即調(diào)整參數(shù),無需重新訓(xùn)練整個模型,適應(yīng)數(shù)據(jù)分布動態(tài)變化。

(1)典型任務(wù)

  • 實時推薦系統(tǒng)(如新聞、廣告)
  • 金融風(fēng)控(如實時檢測欺詐交易)

(2)常見算法

  • 在線梯度下降(Online Gradient Descent)
  • 跟隨正則化領(lǐng)導(dǎo)(FTRL)

(3)舉例

根據(jù)用戶實時點擊行為調(diào)整短視頻推薦策略,每小時更新模型。

8. 遷移學(xué)習(xí)

遷移學(xué)習(xí)是通過從已學(xué)習(xí)的相關(guān)任務(wù)中轉(zhuǎn)移知識來改進學(xué)習(xí)的新任務(wù),解決目標數(shù)據(jù)不足問題。

遷移學(xué)習(xí)的靈感來源于人類的學(xué)習(xí)方式。

例如:會騎自行車的人更容易學(xué)會摩托車(兩者平衡技巧相似)

其技術(shù)本質(zhì)是通過共享源域和目標域的底層規(guī)律(如特征、模型參數(shù)),讓模型避免從零學(xué)習(xí),快速適應(yīng)新任務(wù)

(1)遷移學(xué)習(xí)的基本問題

  • How to transfer: 如何進行遷移學(xué)習(xí)?(設(shè)計遷移方法)
  • What to transfer: 給定一個目標領(lǐng)域,如何找到相對應(yīng)的源領(lǐng)域,然后進行遷移?(源領(lǐng)域選擇)
  • When to transfer: 什么時候可以進行遷移,什么時候不可以?(避免負遷移)

(2)常見算法

  • 預(yù)訓(xùn)練模型微調(diào)(如ResNet、BERT)
  • 特征提取(固定預(yù)訓(xùn)練模型,僅訓(xùn)練新分類層)

(3)舉例

9. 聯(lián)邦學(xué)習(xí)

多個設(shè)備/機構(gòu)協(xié)同訓(xùn)練模型,數(shù)據(jù)不離開本地,保護隱私

聯(lián)邦學(xué)習(xí)(Federated Learning, FL) 是一種分布式機器學(xué)習(xí)范式 ,

其核心目標是 在保護數(shù)據(jù)隱私的前提下,聯(lián)合多個參與方(如設(shè)備、機構(gòu)或數(shù)據(jù)孤島)共同訓(xùn)練模型 ,而無需共享原始數(shù)據(jù)。

(1)基本流程

  • 初始化全局模型 :中央服務(wù)器(或協(xié)調(diào)方)初始化一個基礎(chǔ)模型并分發(fā)給各參與方。
  • 本地訓(xùn)練 :各參與方利用本地數(shù)據(jù)訓(xùn)練模型,生成模型參數(shù)或梯度更新。
  • 參數(shù)上傳與聚合 :參與方將本地模型更新上傳至服務(wù)器,服務(wù)器通過加權(quán)平均等方式聚合參數(shù),生成全局模型。
  • 迭代優(yōu)化 :重復(fù)上述步驟,直至模型收斂

(2)常見算法

  • FedAvg(聯(lián)邦平均)
  • 差分隱私聯(lián)邦學(xué)習(xí)(添加噪聲保護數(shù)據(jù))

(3)舉例

  • 金融風(fēng)控 :銀行間聯(lián)合建模反欺詐系統(tǒng),不共享客戶數(shù)據(jù)。
  • 醫(yī)療健康 :醫(yī)院協(xié)作訓(xùn)練疾病預(yù)測模型,保護患者隱私。
  • 智能終端 :手機輸入法(如蘋果Siri)通過本地數(shù)據(jù)優(yōu)化語音識別。
  • 自動駕駛 :多車協(xié)同訓(xùn)練駕駛模型,提升安全性

10. 元學(xué)習(xí)

元學(xué)習(xí)的目標是 學(xué)習(xí)“如何學(xué)習(xí)” ,而非直接解決單一任務(wù)。

它通過分析多個相關(guān)任務(wù)的共性(如數(shù)據(jù)分布、特征關(guān)聯(lián)性等),提取可遷移的元知識(Meta-Knowledge),從而在面對新任務(wù)時僅需少量樣本即可高效調(diào)整模型

(1)主要方法分類

根據(jù)知識遷移方式,元學(xué)習(xí)可分為三類主流方法:

①基于優(yōu)化的元學(xué)習(xí)

  • 學(xué)習(xí)一個適用于多任務(wù)的模型初始化參數(shù),使模型通過少量梯度更新即可適應(yīng)新任務(wù)
  • 無需修改模型結(jié)構(gòu),通用性強。

②基于度量的元學(xué)習(xí)

  • 學(xué)習(xí)一個相似性度量空間,通過比較新樣本與已知樣本的距離進行分類。
  • 如少樣本圖像分類(如清華團隊在MetaDL挑戰(zhàn)賽中提出的自適應(yīng)度量方法)

③基于模型的元學(xué)習(xí)

  • 設(shè)計具有記憶或注意力機制的模型結(jié)構(gòu),動態(tài)存儲和調(diào)用任務(wù)相關(guān)知識。
  • 適合處理時序依賴強的任務(wù)(如機器人連續(xù)決策)

(2)常見算法

  • MAML(模型無關(guān)元學(xué)習(xí))
  • Prototypical Networks(原型網(wǎng)絡(luò))

(3)舉例

機器人在不同地形中調(diào)整行走策略

僅需幾張新類別圖片即可完成圖像識別

五、如何選擇對應(yīng)的方法

選擇機器學(xué)習(xí)方法的關(guān)鍵在于平衡數(shù)據(jù)、任務(wù)與資源三角關(guān)系,其核心決策原則

  • 從數(shù)據(jù)出發(fā):數(shù)據(jù)質(zhì)量與規(guī)模決定方法上限。
  • 任務(wù)驅(qū)動:明確目標是分類、聚類還是決策。
  • 資源適配:在算力、時間、成本間權(quán)衡。
  • 迭代優(yōu)化:從簡單方法開始,逐步升級復(fù)雜度(如:線性模型 → 樹模型 → 神經(jīng)網(wǎng)絡(luò))

在選擇機器學(xué)習(xí)方法時,可參考以下表格進行選擇

六、機器學(xué)習(xí)實操步驟

機器學(xué)習(xí)在實際操作層面一共分為7步:收集數(shù)據(jù)、數(shù)據(jù)準備、選擇一個模型、訓(xùn)練、評估、參數(shù)調(diào)整、預(yù)測

1. 收集數(shù)據(jù)

獲取與問題相關(guān)的原始數(shù)據(jù)(如用戶行為記錄、傳感器數(shù)據(jù)、圖片等)

(1)數(shù)據(jù)來源

公開數(shù)據(jù)集(如Kaggle)、爬蟲抓取、傳感器采集(如攝像頭圖像)。

(2)常見問題

  • 數(shù)據(jù)量不足(如只有100條樣本)
  • 數(shù)據(jù)偏差(如只收集了某地區(qū)的房價)

2. 數(shù)據(jù)準備

清洗數(shù)據(jù)、處理缺失值、標準化、特征提取等

(1)數(shù)據(jù)清洗

處理缺失值(如刪除缺失行或用平均值填充)、去除重復(fù)或錯誤數(shù)據(jù)(如年齡字段出現(xiàn)負數(shù))。

(2)特征工程

  • 提取特征:從日期中拆分“月份”和“星期幾”。
  • 轉(zhuǎn)換數(shù)據(jù):將文本轉(zhuǎn)為數(shù)值(如“男/女”編碼為0/1)。
  • 標準化:將身高數(shù)據(jù)從“厘米”統(tǒng)一為“米”。

(3)劃分數(shù)據(jù)集

  • 訓(xùn)練集(70%):用于模型學(xué)習(xí)。
  • 驗證集(15%):調(diào)參時評估效果。
  • 測試集(15%):最終考核模型。

3. 選擇一個模型

根據(jù)問題類型選擇算法模型

  • 分類任務(wù) (如垃圾郵件識別)→ 邏輯回歸、隨機森林、神經(jīng)網(wǎng)絡(luò)。
  • 回歸任務(wù) (如房價預(yù)測)→ 線性回歸、梯度提升樹。
  • 聚類任務(wù) (如用戶分群)→ K-means、層次聚類。

新手建議:從簡單模型(如線性回歸)開始,再嘗試復(fù)雜模型(如深度學(xué)習(xí))

4. 訓(xùn)練

讓模型從數(shù)據(jù)中學(xué)習(xí)規(guī)律評估

(1)核心過程

  • 模型通過調(diào)整內(nèi)部參數(shù)(如權(quán)重)擬合數(shù)據(jù)。
  • 使用優(yōu)化算法(如梯度下降)最小化預(yù)測誤差(損失函數(shù))

(2)關(guān)鍵參數(shù)

  • 學(xué)習(xí)率:控制參數(shù)調(diào)整幅度(太大可能“跳過”最優(yōu)解,太小訓(xùn)練慢)
  • 迭代次數(shù)(Epochs) :數(shù)據(jù)被模型學(xué)習(xí)的輪次

5. 評估

用測試集驗證模型效果,判斷模型是否“學(xué)得好”

(1)評估指標

  • 分類任務(wù):準確率、精確率、召回率、F1分數(shù)。
  • 回歸任務(wù):均方誤差(MSE)、R2分數(shù)。
  • 聚類任務(wù):輪廓系數(shù)、類內(nèi)距離。

(2)驗證方法

交叉驗證:將數(shù)據(jù)分成多份,輪流用其中一份作為驗證集,提高評估可靠性。

(3)常見問題

  • 過擬合:模型在訓(xùn)練集表現(xiàn)好,測試集差(像死記硬背的學(xué)生)。
  • 欠擬合:訓(xùn)練集和測試集都表現(xiàn)差(沒學(xué)會規(guī)律)。

6. 參數(shù)調(diào)整

調(diào)整模型的超參數(shù)(如學(xué)習(xí)率、樹的深度)提升效果

(1)調(diào)整內(nèi)容

  • 模型超參數(shù):如神經(jīng)網(wǎng)絡(luò)的層數(shù)、決策樹的深度。
  • 訓(xùn)練參數(shù):如學(xué)習(xí)率、批量大小(Batch Size)。

(2)調(diào)參方法

  • 網(wǎng)格搜索:遍歷所有可能的參數(shù)組合,尋找最優(yōu)解(計算成本高)。
  • 隨機搜索:隨機嘗試參數(shù)組合,效率更高。
  • 自動化工具:如AutoML(自動機器學(xué)習(xí))

7. 預(yù)測

將訓(xùn)練好的模型投入實際使用

(1)部署方式

封裝成API、嵌入到App或硬件設(shè)備中。

(2)持續(xù)監(jiān)控

模型上線后可能出現(xiàn)性能下降(如數(shù)據(jù)分布變化)

七、常見算法

注意,深度學(xué)習(xí)更多是監(jiān)督學(xué)習(xí)的一種延伸,或者屬于模型類型而非訓(xùn)練方法

本文由人人都是產(chǎn)品經(jīng)理作者【諾兒筆記本】,微信公眾號:【諾兒筆記本】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!