AI產(chǎn)品經(jīng)理需要了解的線性代數(shù)通識

6 評論 9011 瀏覽 25 收藏 9 分鐘

上一篇為大家介紹了《AI產(chǎn)品經(jīng)理需要了解的概率論通識:4個概念3個問題》,本篇文章中,筆者將為你介紹AI產(chǎn)品經(jīng)理需要了解的線性代數(shù)通識,一起來看看吧。

羅素在自傳中這樣寫道:“我 11 歲時,我開始學(xué)習(xí)歐幾里得幾何學(xué),哥哥做我的老師,這是我生活中的一件大事,就像初戀一樣令人陶醉。我從來沒有想象到世界上還有如此美妙的東西。”

高斯把數(shù)學(xué)置于科學(xué)之巔,希爾伯特則把數(shù)學(xué)看作“一幢出奇的美麗又和諧的大廈”。

在人們的印象中,數(shù)學(xué)與藝術(shù)很少有共同之處。數(shù)學(xué)以其卓越的智力成就被人們尊稱為“科學(xué)的皇后”,

隨著人類社會的發(fā)展,技術(shù)的進步,在AI時代,數(shù)學(xué)會成為最基本的學(xué)科,會成為所有算法模型的基礎(chǔ),而線性代數(shù)則是描述抽象狀態(tài)和變化的規(guī)則。

張志華教授說過:“搞好機器學(xué)習(xí),關(guān)鍵是數(shù)學(xué),但你又不能把機器學(xué)習(xí)變成搞數(shù)學(xué),那樣就漫無邊際了。”

數(shù)學(xué)浩瀚如海,神靈通天,對于絕大多數(shù) AI 工程師來說,學(xué)習(xí)機器學(xué)習(xí),對于其中涉及的數(shù)學(xué)知識形成理解,打牢基礎(chǔ),是必不可少的。

而線性代數(shù)正是這基礎(chǔ)中的基礎(chǔ)了,線性代數(shù)可使矩陣操作快速而簡單,特別是通過GPU進行計算。而事實上,GPU的設(shè)計便是受啟發(fā)自向量和線性代數(shù)。

一、什么是線性代數(shù)

瑞典數(shù)學(xué)家Lars Garding在其名著Encounter with Mathematics中說:“如果不熟悉線性代數(shù)的概念,要去學(xué)習(xí)自然科學(xué),現(xiàn)在看來就和文盲差不多。”可見線性代數(shù)的重要性。

線性代數(shù)是代數(shù)學(xué)的一個分支,主要處理線性關(guān)系問題。線性關(guān)系意即數(shù)學(xué)對象之間的關(guān)系是以一次形式來表達的。

例如,在解析幾何里,平面上直線的方程是二元一次方程;空間平面的方程是三元一次方程,而空間直線視為兩個平面相交,由兩個三元一次方程所組成的方程組來表示。

含有?n個未知量的一次方程稱為線性方程,關(guān)于變量是一次的函數(shù)稱為線性函數(shù)。

線性關(guān)系問題簡稱線性問題,解線性方程組的問題是最簡單的線性問題。

線性代數(shù)可以將各種復(fù)雜問題轉(zhuǎn)化為簡單、直觀、高效的計算問題。

神經(jīng)網(wǎng)絡(luò)(Neural networks)將權(quán)值(weights)存放于矩陣(matrices)中,線性代數(shù)使得矩陣操作快速而簡單,特別是通過 GPU 進行運算。

類似于用像素的多維數(shù)組(arrays of pixels)來表示圖形圖像,視頻游戲通過大規(guī)模且持續(xù)的矩陣計算,帶來了極具吸引力的游戲體驗。GPU 是并行操作整個矩陣中的各個像素,而不是一個接一個地去處理單個像素。

  • 線性(linear)指量與量之間按比例、成直線的關(guān)系,在數(shù)學(xué)上可以理解為一階導(dǎo)數(shù)為常數(shù)的函數(shù);
  • 非線性(non-linear)則指不按比例、不成直線的關(guān)系,一階導(dǎo)數(shù)不為常數(shù)。

二、線性代數(shù)里的基本概念

1. 行列式

行列式這個“怪物”定義初看很奇怪,一堆逆序數(shù)什么的讓人不免覺得恐懼,但其實它是有實際得不能更實際的物理意義的。

其實行列式的本質(zhì)就是一句話:行列式就是線性變換的放大率!

2. 矩陣

用中括號把一堆傻了吧嘰的數(shù)括起來,這個東西叫做矩陣。

這可能是我們大學(xué)期間的理解,其實理解矩陣就要先了解向量,向量是關(guān)于數(shù)字或數(shù)據(jù)項的一維數(shù)組的表示。

從幾何學(xué)上看,向量將潛在變化的大小和方向存儲到一個點。向量 [3, -2] 表示的是左移3個單位下移2個單位。我們將具有多個維度的向量稱為矩陣。

三、線性代數(shù)的應(yīng)用

1. 在搜索引擎中的應(yīng)用

當(dāng)人們在使用搜索引擎時,總會對搜索結(jié)果排名靠前的網(wǎng)頁更信任??墒?,怎樣判斷一個網(wǎng)頁的重要性?

一個網(wǎng)頁獲得鏈接越多,可信度就越高,那么它的排名就越高。這就是谷歌PageRank網(wǎng)頁排名算法的核心思想。

但是所有的網(wǎng)頁都是連在一起的,互相連接。而你評估必須要有一個起點,但是,用任何網(wǎng)頁作為起點都不公平,怎么辦?

谷歌的解決辦法是:先同時把所有網(wǎng)站作為起點,也就是先假定所有的網(wǎng)頁一樣重要、排名相同。然后,進行迭代。

整個互聯(lián)網(wǎng)就像一張大的網(wǎng),每個網(wǎng)站就是一個節(jié)點,而每個網(wǎng)頁的鏈接就是一條鏈接線。于是這個問題變成了一個二維矩陣相乘的問題,首先計算第一次迭代排名,然后再算出第二次迭代排名……

最終,排名會收斂,不再變化,算出了網(wǎng)頁最終排名。簡言之,網(wǎng)頁排名的的計算主要是矩陣相乘。

2. 在機器學(xué)習(xí)中的應(yīng)用

在計算機視覺應(yīng)用中處理圖像或照片,使用的每個圖像本身都是一個固定寬度和高度的表格結(jié)構(gòu),每個單元格有用于表示黑白圖像的 1 個像素值或表示彩色圖像的 3 個像素值。

照片也是線性代數(shù)矩陣的一種,與圖像相關(guān)的操作,如裁剪、縮放、剪切等,都是使用線性代數(shù)的符號和運算來描述的。

推薦系統(tǒng)也有應(yīng)用線性代數(shù),例如基于你在亞馬遜上的購買記錄和與你類似的客戶的購買記錄向你推薦書籍,或根據(jù)你或與你相似的用戶在 Netflix 上的觀看歷史向你推薦電影或電視節(jié)目。

推薦系統(tǒng)的開發(fā)主要涉及線性代數(shù)方法。一個簡單的例子就是使用歐式距離或點積之類的距離度量來計算稀疏顧客行為向量之間的相似度。

像奇異值分解這樣的矩陣分解方法在推薦系統(tǒng)中被廣泛使用,以提取項目和用戶數(shù)據(jù)的有用部分,以備查詢、檢索及比較。

3. 在量化投資中的應(yīng)用

量化投資是一個交叉復(fù)合學(xué)科,要求掌握數(shù)學(xué)、計算機編程、金融等方面的知識。

而在量化投資中廣泛應(yīng)用的隱馬爾可夫模型(Hidden Markov Model, HMM)就可以很好的解決資本市場獨立數(shù)據(jù)與獨立數(shù)據(jù)的自變量與因變量之間的關(guān)系,從而給他決策判斷。

四、總結(jié)

在眾多的數(shù)學(xué)學(xué)科中,線性代數(shù)是最為抽象的一門課,很多人學(xué)過以后一直停留在知其然不知其所以然的階段,在機器學(xué)習(xí)等領(lǐng)域興起才發(fā)現(xiàn)線性代數(shù)的應(yīng)用無處不在。

其實各個學(xué)科直接都是相通的,抽象的思維鍛煉也許是人工智能產(chǎn)品開發(fā)中必備思維。

 

作者:老張,宜信集團保險事業(yè)部智能保險產(chǎn)品負(fù)責(zé)人,運營軍師聯(lián)盟創(chuàng)始人之一,《運營實戰(zhàn)手冊》作者之一。

本文由 @老張 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 太抽象了,太理論了,沒看進去

    回復(fù)
  2. 線代在大學(xué)數(shù)學(xué)的必修課里面應(yīng)該是最簡單的吧

    來自廣東 回復(fù)
    1. 嗯,大一的課程

      來自北京 回復(fù)
  3. ????抽象

    來自北京 回復(fù)
  4. 表示沒看懂,自己學(xué)歷太低嗎

    來自江蘇 回復(fù)
    1. 寫的不夠通俗易懂 ??

      來自北京 回復(fù)