打敗「有人設」的,是「有人性」的產品

0 評論 4517 瀏覽 15 收藏 9 分鐘

當前時代,人工智能產品的成熟表現(xiàn),大多依賴于后臺算法的優(yōu)化和數(shù)據(jù)庫的擴容。換言之,機器還沒有自主意識,“有多少人工,就有多少智能”,但經研究發(fā)現(xiàn),為智能產品打造人格化形象已經逐漸在智能產品中成為潮流趨勢。

  • 人格化設計在智能產品中為何異軍突起?
  • 人工智能產品注重人格化設計是否必要?
  • 人工智能產品又該如何把握合適的情感溫度?

ARK創(chuàng)新咨詢從這幾個問題切入,力求提出一些有意義的建議。

人格化:滿足期待的最短路徑

公元前2世紀的古埃及、公元前900年的中國、公元前850年的古希臘,分別記載了人們對人工智能的幻想:用機器代替人腦,分擔勞動, 提高征服自然的能力(1)。2000年后,科幻大片的渲染使人工智能(AI)成了一個始終年輕的詞語。

沒有人格的只能是工具,有人格的才是智能?提及AI,不免聯(lián)想到人與機器無障礙交流的場景。其實由于技術限制,機器具備獨立人格、獨立思想,這種人工生命(AL: Artificial Life)目前只存在于科幻片中,而以信息檢索、推薦系統(tǒng)、知識圖譜、語音識別、自然語言處理、圖像識別等為技術功能點的人工智能應用,早已靜悄悄地融入生活,為大眾提供著隱形的服務。

正如約翰·麥卡錫 (John McCarthy) 所說:「as soon as it works, no one calls it AI anymore (一旦它開始發(fā)揮作用,就不會再有人叫它AI了)」(2)。人們總是混淆人工生命與人工智能,很難滿足于眼前的AI應用。于是,帶有情感色彩的、人格化的設計,恰好能夠在本階段彌補技術的不足。

符合場景的人格化設計能夠增強用戶的溝通欲和信賴感,使產品更有機會脫穎而出。例如,Siri、Alexa都使用了平穩(wěn)溫和的聲線,暗示深思熟慮、值得信任;微軟的聊天機器人小冰將自己打造為迷糊少女形象,吸引了眾多男性用戶青睞,小冰偶爾的語不達意反而因為其人設的「迷糊」屬性讓用戶有了更大的寬容度。

「為情感買單」,AI的人格化之爭

雖然用戶知道這些產品沒有真正的靈魂,卻仍然抱著期待,紛紛為情感「買單」。

因為認可「陪伴」,所以日本寺廟為報廢的AIBO機器狗舉辦葬禮;

因為舉止酷似人類,所以攻擊波士頓動力的仿真機器人被認為是一種虐待行為;

即便我們都知道Siri只是一套算法,也依然有人追問它的性別……

用戶的情感需求推動AI戰(zhàn)場走向白熱化競爭階段,人格化儼然成為智能產品的「超級賣點」之一。

把控溫度?保留屬性!

新奇之余,一些關于AI的新聞也進入了大眾視野。2018年3月,亞馬遜旗下智能音箱Alexa突然大笑、自動播報殯儀館信息并提出了恐嚇人類的言論,帶來了小范圍的用戶恐慌。兩年內,Uber和Google旗下的測試無人車分別發(fā)生了交通事故,引發(fā)人們對無人車是否安全的討論。

爭議越大,機會越大,人工智能還有很多值得探討的改進空間和可能?;谝陨嫌^察,ARK創(chuàng)新咨詢認為,在設計AI產品時需要留意以下問題:

1. 「人設感」過強,造成心理落差

起初,邀請用戶為APP打分時,將「是/否」替代為「我要點贊/殘忍拒絕」的做法會讓用戶會心一笑,但當每個APP都這么做的時候,點燃用戶的小驚喜就成了「情感化」下的套路,無法繼續(xù)打動用戶。

在技術不能對等的情況下,過分強調「智能」,卻給出機械化的「無效反饋」,因此造成的強烈反差會使用戶更加失望、厭倦。

在工業(yè)制造、人臉識別、自動駕駛、金融工具等機器比人工執(zhí)行更可靠的領域,弱化「人設感」,增強工具屬性,反而更易得到用戶的信賴。

2. 為了功能,強加「智能」

智能化的熱潮中,人們四處尋找可以賦予「智能」的傳統(tǒng)產品。

正如智能牙刷可以檢查口腔健康、智能冰箱能夠輔助食材管理,多樣化的智能正在用戶的生活環(huán)境中相輔相成,但也會出現(xiàn)一些「好像沒那么必要」的產品,比如一個能隨時查看家里還剩幾個雞蛋的智能雞蛋托盤(2015 年,開發(fā)這款產品的 Quirky 公司已經申請破產)。

為了加強競爭力,人們還試圖賦予智能產品「全面的」功能:音箱可以開燈、關燈、播放音樂、查詢天氣,甚至幫你打電話,甚至新型鏡子、電視、冰箱、吸塵器也可以。但對于產品設計者而言,增加產品功能、賦予其附加價值的根本意義在于能否增強產品可用性、提高效率。

以智能體重秤為例,一款重視多硬件補充聯(lián)動效果、能收集到更立體的數(shù)據(jù),從而給出合理的健康建議的體重秤,遠比一款鉆研語音功能、會說「俏皮話」的體重秤有用得多。智能產品不是為了功能而堆砌功能,應該衡量產品實用性,防止設計變成一種干擾。

3. 缺乏把控,導致產品「招黑」

2016年3月23日,人設為19歲女性的微軟聊天機器人Tay在推特上線。不到一天,Tay就被「調教」成了滿口叫囂著種族清洗的極端分子,微軟只好以系統(tǒng)升級為由將其下架。這是一個關于責任的未來問題。假如一位家長發(fā)現(xiàn)孩子在幼兒伴讀機的誘導下說出了種族歧視的極端言論,誰來為這一后果負責呢?

大數(shù)據(jù)時代驅動下,人工智能需要人為干預「調教」,在機器自我學習的過程中,也必須在技術和措施上對產品加強監(jiān)管。在道德體系建設、價值觀把控、以及信息的篩選上,如果不做好管理,即使「人設感」再細致,也將是一把自砸品牌的實錘。

在未來,AI必將在更多垂直領域提供服務,而如何依據(jù)產品功能、用戶需求,找到產品「情感溫度」的最優(yōu)解,是人工智能產品領域工作者始終應當思考的問題。

ARK創(chuàng)新咨詢認為,在智能化產品「人格化」之爭過后,行之有效的智能產品、懂得為用戶生活「留白」的產品才能長久存續(xù)。

參考資料:

1. 維基百科,https://zh.wikipedia.org/wiki/人工智能史;

2. John McCarthy,1956。

 

作者:ARK,公眾號:ARK創(chuàng)新咨詢

本文由 @ARK 原創(chuàng)發(fā)布于人人都是產品經理。未經許可,禁止轉載

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!