AI 時代下的產(chǎn)品思維(一):AI不是神
本文講述了AI 產(chǎn)品常出現(xiàn)的問題,并從中窺見背后的AI 產(chǎn)品思維。
目錄:
- 序:產(chǎn)品思維
- 一、普遍問題
- 二、AI無神通
- 三、機遇與挑戰(zhàn)
- 后記:PDF資料
首先要問一下,什么是產(chǎn)品思維呢?
簡單的說,產(chǎn)品思維就是產(chǎn)品經(jīng)理在打造產(chǎn)品時的思考方式。
說到這個詞,可能很多人都會聯(lián)想到梁寧在“得到”上的《產(chǎn)品思維30講》的課程。
梁寧老師為大眾科普了產(chǎn)品經(jīng)理的思維方式。但是真正的產(chǎn)品經(jīng)理,光學習科普知識還是不夠的,更需要深入專業(yè)和實戰(zhàn)。雖然很多企業(yè)都設(shè)置有產(chǎn)品專員的崗位,但可能由于職業(yè)分工的限制,培養(yǎng)效果并不好。反而那些由優(yōu)秀的設(shè)計師、程序員和運營轉(zhuǎn)崗的產(chǎn)品經(jīng)理,往往表現(xiàn)得更加出色。
究其原因,產(chǎn)品經(jīng)理本身就是一個綜合性極強的崗位,優(yōu)秀的產(chǎn)品經(jīng)理不是學出來的,而是“打”出來的。關(guān)于產(chǎn)品經(jīng)理的成長可以看之前文章:《我的產(chǎn)品經(jīng)理能力模型和成長之路》
也有人說,產(chǎn)品經(jīng)理是CEO的預(yù)備班,像馬斯克、貝索斯、喬布斯、雷軍、馬化騰、張小龍,不僅僅是卓越的產(chǎn)品經(jīng)理,還是優(yōu)秀的企業(yè)家。
那產(chǎn)品經(jīng)理需要怎么樣的思維方式呢?
產(chǎn)品經(jīng)理本質(zhì)上負責的就是企業(yè)的產(chǎn)品創(chuàng)新。國際著名的設(shè)計咨詢公司IDEO,曾對于“創(chuàng)新”有這樣的定義,所謂“創(chuàng)新”就是要平衡人、商業(yè)、技術(shù)三方面因素,IDEO稱之為Design Thinking:
- 人的渴望:解決用戶的需求,讓產(chǎn)品擁有良好的體驗,比現(xiàn)有的解決方案要好上 10 倍;
- 商業(yè)的可行性:需要充分的考慮到商業(yè)價值,能夠不斷為企業(yè)創(chuàng)造收益;
- 技術(shù)的可實現(xiàn)性:使用合適的技術(shù)手段保質(zhì)保量的實現(xiàn)產(chǎn)品功能;
產(chǎn)品思維就是創(chuàng)新的思維,Design Thinking也是我這些年來在產(chǎn)品崗位的最底層思維模式。不管產(chǎn)品經(jīng)理是什么崗位出身,評判他是否專業(yè),就在于他如何能平衡好三者之間的關(guān)系。
如今,AI 毫無疑問是當下炙手可熱的話題,許多產(chǎn)品也逐步的 AI 化。AI 時代的產(chǎn)品思維究竟有怎么樣的不同?
在寫這個話題之前,我也看過一些AI產(chǎn)品的書籍,大多都在講概念,講如何解決問題的偏少。而我的初心也很簡單,通過總結(jié)我在實踐中踩的一些坑,和大家一起去發(fā)現(xiàn)與以往不一樣的產(chǎn)品思維。少談一些概念,多談一些思路,也是我寫此文的一個目標。
Part .1 普遍性問題
在AI產(chǎn)品的實踐過程中,我們發(fā)現(xiàn)事情并沒有那么簡單。我們遇到了諸多的問題和挑戰(zhàn)。如果要使用AI,我們首先需要先將AI請下神壇,破除對它的迷信。當下的AI產(chǎn)品有三個較為普遍性的問題:容易偏離、可解釋性弱、可靠性差。
1. 容易偏離
2016年3月26日,微軟發(fā)布了一個聊天機器人 Tay。微軟原本是想讓 Tay 扮演一個少女角色,能夠在線與 Twitter 上面的任何人進行交流。除了聊天,Tay 還能完成向用戶講笑話、對用戶發(fā)給“她”的照片進行評論等其他任務(wù)。
剛上線的時候,Tay 說:“世界你好!”并且@網(wǎng)友說:“見到你們太激動啦,人類超酷的”,但只用了一天的時間從“純情少女”變?yōu)榉慈祟惖摹凹{粹”,微軟在上線 16 小時之后就不得不把 Tay 下線。
可以確定的是,工程師在編程時并沒有為她編入這些亂七八糟的極端言論。那為什么會產(chǎn)生如此的錯誤?其原因是少數(shù)用戶利用 Tay 模仿說話的漏洞,對 Tay 進行了錯誤的訓(xùn)練。
Tay 仿佛一面鏡子,她反應(yīng)的不是微軟的技術(shù),而是網(wǎng)友的人性的惡的一面。在面對真實世界的時候,即使是有最先進算法的機器人也會措手不及。
2. 可解釋性弱
2017 年 6 月,F(xiàn)acebook 人工智能研究所(FAIR)使用機器學習方法,對兩個聊天機器人進行對話策略的迭代升級,F(xiàn)acebook 的人工智能研究院 (FAIR) 想要訓(xùn)練一個聊天機器人,讓它學會談判。但很快,研究人員就發(fā)現(xiàn),聊天機器人正在創(chuàng)造他們?nèi)祟悷o法理解的語言。
同年 7 月,F(xiàn)acebook“關(guān)閉”了這個引發(fā)廣泛爭議的智能對話機器人項目,避免機器人“非人”的道路上越走越遠。Facebook 的這個機器人使用的生成式對抗網(wǎng)絡(luò)(GAN, Generative Adversarial Networks )是一種深度學習模型。這個模型至少兩個模塊,通過互相博弈學習產(chǎn)生良好的輸出。一個優(yōu)秀的 GAN 應(yīng)用需要有良好的訓(xùn)練方法,否則可能由于神經(jīng)網(wǎng)絡(luò)模型的自由性而導(dǎo)致輸出不理想。由于深度學習是一個黑盒,研究人員無法像傳統(tǒng)程序員一樣通過修改代碼邏輯來改 bug,只能暫停項目,重新設(shè)計模型方案,盡可能避免同類問題的發(fā)生。
3. 可靠性差
Uber 為了加快商業(yè)化的步伐,其測試的無人駕駛汽車數(shù)量就不斷增加。2018 年 3 月 26 日,一輛 L4 自動駕駛汽車(改造于沃爾沃 XC90)在亞利桑那州的公共道路上撞擊一位行人并致其死亡。這也是世界首例 L4 車輛因車禍致人死亡事件。
在汽車界,通常將自動駕駛分類六級,分別是:L0 是無智能、L1 輔助駕駛、L2 部分自動駕駛、L3 條件自動駕駛、L4 高度自動駕駛、L5 完全自動駕駛。
自動駕駛汽車需要有一堆復(fù)雜的設(shè)備做支撐。只要有一個模塊出問題,就可能釀成大錯。
根據(jù)美國國家交通管理局NTSB認為,該車禍的主要原因為Uber淡薄的安全意識,車輛沒有開啟緊急制動系統(tǒng),沒有及時對安全員進行監(jiān)督————事故發(fā)生時,車上安全員仍在看視頻而非及時采取措施。導(dǎo)致了這場悲劇。
近幾年,特斯拉也事故頻發(fā),盡管如此,依然經(jīng)常會聽到,駕駛員在開著自動駕駛睡著飆車的新聞。下圖為一個用戶喝醉后開著特斯拉的自動巡航,在邊睡覺邊在高速上狂奔。
現(xiàn)實不是游戲,當“無知”的人類將生命交給 AI 的時候,他們是否意識到:萬一系統(tǒng)出了 bug ,生命再也無法重來?在那些講給投資人故事之外,可能自動駕駛拷問的并不是技術(shù),而是資本與人性的貪婪。
Part.2 AI無神通
上面提到的問題只是冰山一角。Al 也并非沒有優(yōu)勢,機器可接受的輸入數(shù)據(jù)范圍要比人類大得多,計算機處理數(shù)據(jù)能力比人類強大。視覺識別和語音識別等一些領(lǐng)域,AI 幾乎達到了人類水平。
但AI 依舊難以達到智能生命體一樣的智能。究其原因,計算機初衷是為了解決邏輯計算問題,而智慧生命體的智能是通過上千萬年進化習得的。前者善于邏輯計算,后者善于適應(yīng)環(huán)境。
而如今人工智能卻越來越多地在模擬人類的本能行為,才導(dǎo)致“莫拉維克悖論”也愈發(fā)明顯。
莫拉維克悖論是指:
人類所獨有的高階智慧能力只需要非常少的計算能力,例如推理,但是無意識的技能和直覺卻需要極大的運算能力。也就是,要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的。
其實,AI的底層只是數(shù)據(jù)和算法。多數(shù) AI 模型解決是特定領(lǐng)域的分類和聚類的問題,這可以類比人類的歸納法和演繹法。
由于機器缺乏對事物理解能力,導(dǎo)致應(yīng)變能力和遷移能力非常弱,AI 并不會像人類真正體會到事物背后的含義。
AI 能將廣告上的董明珠,誤判為亂穿馬路的行人,也不足為奇。因為從數(shù)據(jù)角度,AI確實在馬路上捕捉到了人臉。
另外,機器也不會有情感感受。例如,AI可以識別出一只貓,它可以給這張圖打上一堆的標簽,但并不會像人類一樣,覺得這只小貓有多么的可愛。
有許多藝術(shù)家開始使用所謂的“神經(jīng)網(wǎng)絡(luò)軟件”來創(chuàng)作藝術(shù)品,也有些以天價拍賣,但AI只是藝術(shù)家的創(chuàng)作工具,他們通過導(dǎo)入訓(xùn)練素材,不斷調(diào)整參數(shù)來獲得作品,本質(zhì)上和 用3ds Max做效果圖渲染沒太大區(qū)別。所以,也不代表AI有創(chuàng)作力。
現(xiàn)階段,AI 做不了事情還有很多。它只是一個工具,脫離了人類,AI什么也不是。人類也不用擔心 AI 像電影中講的那樣反叛和統(tǒng)治人類。
Part.3 機遇與挑戰(zhàn)
有學者分析了未來 10 年內(nèi),各行各業(yè)被 AI 取代概率。自工業(yè)革命以來,人類從未被如此大規(guī)模的被機器取代。
雖然看上去有點嚇人,但對于 AI 產(chǎn)品創(chuàng)業(yè)者來說卻是一個不錯的機遇,但把握住這個機遇并非易事。很多時候,新技術(shù)的應(yīng)用并不會一帆風順。
根據(jù)高德納總結(jié)的“新興技術(shù)炒作周期”規(guī)律,新技術(shù)往往會經(jīng)歷萌芽期、膨脹期、破滅期、爬升期、穩(wěn)定期,5個階段。
歷史上,人工智能的命運也是“三起兩落”。接下去是否會迎來新的寒冬,誰也不知道。
但是我們把不成熟的新技術(shù)放置使用到產(chǎn)品中,對產(chǎn)品經(jīng)理本身就是一個巨大的挑戰(zhàn)。
在當下,我們不應(yīng)過于理想化AI的能力,我們更需要用冷靜和批判性的眼光,去審視 AI 技術(shù)的發(fā)展和應(yīng)用。
當我們遇到一個與AI相關(guān)需求的時候,與其陶醉于自我,不如提出質(zhì)疑反而會顯得更加有用:如果AI技術(shù)實現(xiàn)得不好怎么辦?
究竟要怎么辦?請看下一期:AI時代的產(chǎn)品思維(二):新的挑戰(zhàn)
#專欄作家#
PM熊叔,微信公眾號:PM熊叔,人人都是產(chǎn)品經(jīng)理專欄作家。教育類產(chǎn)品產(chǎn)品經(jīng)理出身,學過設(shè)計,做過開發(fā),做過運營的產(chǎn)品經(jīng)理。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載
題圖來自 Unsplash,基于 CC0 協(xié)議
ai,區(qū)塊鏈,從來不看好