人工智能產(chǎn)品的信任力設(shè)計(jì)
隨著人工智能(AI)技術(shù)的廣泛應(yīng)用,人與AI之間的信任關(guān)系成為了一個(gè)至關(guān)重要的議題。本文深入探討了如何設(shè)計(jì)和構(gòu)建具有信任力的AI產(chǎn)品,從概念篇到策略篇,詳細(xì)分析了信任對人與AI關(guān)系的影響、信任對AI產(chǎn)品的重要性,以及影響信任關(guān)系的常見問題,希望能幫到大家。
AI技術(shù)已經(jīng)嵌入我們生活的方方面面,從最初的悄然滲透,到如今的全面重構(gòu),我們無一例外地置身于這場技術(shù)浪潮之中。
與此同時(shí),人與AI的關(guān)系也在轉(zhuǎn)變,從簡單的使用和被使用關(guān)系,轉(zhuǎn)變?yōu)閺?fù)雜的協(xié)作關(guān)系,關(guān)系的變化模糊了彼此之間的界限,一個(gè)至關(guān)重要的問題也隨之浮現(xiàn):我們能否像信任人類那樣信任AI?
信任是協(xié)作的基礎(chǔ),缺乏信任的協(xié)作隨時(shí)可能因?yàn)閼岩?、不安全感和自我保護(hù)的心理而中斷,導(dǎo)致AI的價(jià)值無法充分發(fā)揮。
而構(gòu)建人與AI之間的信任關(guān)系是一項(xiàng)系統(tǒng)工程,不僅取決于AI所交付的質(zhì)量,還需要確保它自身是可靠的、透明的,并且具有足夠的安全性。
盡管面臨諸多挑戰(zhàn),打造可信AI依然成為全球人工智能發(fā)展的共識。
本篇文章整體分為概念篇和策略篇。希望所寫內(nèi)容能為設(shè)計(jì)師、產(chǎn)品經(jīng)理以及所有關(guān)注AI領(lǐng)域的從業(yè)者提供啟發(fā),共同來推動AI產(chǎn)品的信任力建設(shè)。
首先是概念篇。
一、概念篇
1. 信任對人與AI關(guān)系的影響
開篇中,我將信任描述為“協(xié)作的基礎(chǔ)”,但信任的作用不止于此。它塑造了人與AI互動的質(zhì)量,甚至可以左右AI能否真正融入我們的生活。具體來說,這些影響主要體現(xiàn)在三個(gè)層面:
1)提升協(xié)作效率
當(dāng)用戶信任AI產(chǎn)品時(shí),就不必反復(fù)驗(yàn)證每一次輸出是否準(zhǔn)確。這樣能釋放大量認(rèn)知資源,使用戶將精力集中在AI難以勝任的任務(wù)上。
因?yàn)樵敢鈱I提供的結(jié)果作為依據(jù),決策時(shí)的心理負(fù)擔(dān)就會少很多,可以迅速推進(jìn)后續(xù)行動,讓整體效率獲得提升。
試想一下,當(dāng)你接受并信任AI推薦的方案時(shí),是不是也會讓你,更主動地去探索它的高級功能,正是這種信任驅(qū)動下的學(xué)習(xí),會進(jìn)一步加深你與AI的協(xié)作關(guān)系,形成良性循環(huán)。
隨著互動的增多,人們會將越來越多復(fù)雜的問題交給AI,挖掘它的潛力,也收獲更多意想不到的、創(chuàng)新的解決方案。
2)促進(jìn)應(yīng)用與普及
AI技術(shù),尤其是生成式AI,由于其復(fù)雜性和未知性,讓很多人感到有距離感,甚至?xí)斐刹话玻湃蝿t能有效緩解這種不適。一旦人們在體驗(yàn)過程中感受到了AI的價(jià)值,會愿意在更多場景中用它。對AI來說,應(yīng)用場景得以拓展,所能創(chuàng)造的價(jià)值也隨之放大。
值得注意的是,當(dāng)人們從AI中獲益后,往往樂于和朋友、家人分享自己的正面體驗(yàn)。這種口碑效應(yīng)具有極高的說服力,比任何廣告或營銷活動都更能推動AI技術(shù)的普及。
3)構(gòu)建長期關(guān)系
在人際交往中,構(gòu)建和維護(hù)長期關(guān)系始終具有挑戰(zhàn)性,而信任能讓關(guān)系在挑戰(zhàn)中更具韌性。
同樣,這種韌性對人與AI來說也很重要,即使在短期內(nèi)出現(xiàn)某些問題,如果你信任AI,就會施予更多的包容和耐心,而不是徹底否定它和放棄它。
這種信任并非盲目,而是基于AI過去的表現(xiàn),從而讓人們相信這些問題是可以優(yōu)化、修復(fù)的,這為人與AI之間的長期協(xié)作打下堅(jiān)實(shí)基礎(chǔ)。
2. 信任對AI產(chǎn)品的重要性
盡管信任的影響廣泛,但許多產(chǎn)品卻未將信任方面的建設(shè)視為優(yōu)先事項(xiàng)。這種態(tài)度背后,往往與用戶行為中的“隱私悖論”有關(guān)。
所謂隱私悖論,是指人們一方面擔(dān)心自己的行為和信息被監(jiān)視或?yàn)E用,另一方面卻又常常因?yàn)樽非蟊憷鲃拥刈尪勺约旱碾[私,讓自己處于暴露的風(fēng)險(xiǎn)之中。這種關(guān)注隱私問題與實(shí)際行為之間的矛盾,正是“隱私悖論”的核心。
這一現(xiàn)象背后涉及多重因素。復(fù)雜的技術(shù)細(xì)節(jié)和晦澀的使用條款,讓用戶難以理解AI如何處理隱私數(shù)據(jù),而人類的心理天然傾向于即時(shí)滿足,為了眼前利益,我們常常忽略潛在風(fēng)險(xiǎn),最終選擇交出個(gè)人信息。
當(dāng)然還有很多情況,是因?yàn)槲覀儎e無選擇,只能被迫地接受。因此,不少AI產(chǎn)品負(fù)責(zé)人誤以為功能強(qiáng)大、場景豐富就足以持續(xù)地吸引用戶,從而低估了信任的重要性。
那么,信任關(guān)系對AI產(chǎn)品究竟有著哪些實(shí)際的價(jià)值呢?
1)降低風(fēng)險(xiǎn)
信任問題雖不易在初期顯現(xiàn),但隨著用戶隱私意識的提高,一旦負(fù)面輿論爆發(fā),產(chǎn)品便容易陷入被動。尤其是重大失信事件,可能直接摧毀用戶基礎(chǔ),后果難以彌補(bǔ)。
2)形成競爭優(yōu)勢
用戶在早期可能用隱私換取便利,但兩者關(guān)系并不穩(wěn)固,一旦市場中出現(xiàn)更可信的替代品,用戶便會轉(zhuǎn)移。所以,“可信”是AI產(chǎn)品的一個(gè)重要標(biāo)簽,有助于在同質(zhì)化競爭中脫穎而出。
3)回應(yīng)用戶期待
對用戶而言,不管是否滿足于現(xiàn)狀,始終都希望產(chǎn)品能以透明和負(fù)責(zé)任的態(tài)度對待自己,也愿意長期支持那些值得信賴的產(chǎn)品和服務(wù)。
4)滿足合規(guī)運(yùn)營
無論是歐盟的《通用數(shù)據(jù)保護(hù)條例》,還是國內(nèi)陸續(xù)出臺的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等管理規(guī)定,制度層面的監(jiān)管持續(xù)增強(qiáng),正在倒逼企業(yè)將隱私、安全等信任要素納入產(chǎn)品規(guī)劃。
3. 哪些問題會影響信任關(guān)系?
信任的構(gòu)建并非一朝一夕,而損害它卻往往是瞬間的。要直面這些挑戰(zhàn),我們首先需要清楚:哪些問題正在侵蝕人與AI之間的信任?背后的根源又來自哪里?這樣我們就可以更快地識別這些問題并積極應(yīng)對,甚至提前進(jìn)行規(guī)劃。
1)內(nèi)核不透明
當(dāng)AI無法解釋為什么得出某個(gè)結(jié)果,用戶會感到困惑、不安,這種不透明讓用戶失去掌控感。特別是在涉及自身利益或重大決策的任務(wù)情境中,若用戶無法判斷其結(jié)果是否可信或合理,就會引發(fā)焦慮情緒。
心理學(xué)研究表明,當(dāng)人們無法評估風(fēng)險(xiǎn)時(shí),往往傾向于高估其危險(xiǎn)性,并采取防御性行為。就像很多人害怕坐飛機(jī),盡管實(shí)際數(shù)據(jù)表明飛機(jī)比汽車安全得多,但因?yàn)閷︼w行過程缺乏掌控感,會不自覺的臆想飛機(jī)事故。
為了避免類似情況在AI產(chǎn)品中發(fā)生,必須要讓用戶“看得透”,但這也不意味著要完完全全地揭示所有技術(shù)細(xì)節(jié),只需讓用戶相信系統(tǒng)的判斷有據(jù)可依,哪怕是初步的、粗糙的解釋,也足以緩解焦慮,慢慢建立信任。
2)輸出不準(zhǔn)確
頻繁出錯(cuò)或顯得不專業(yè)的AI,會迫使用戶投入更多精力去驗(yàn)證其結(jié)果,AI系統(tǒng)原本應(yīng)有的便利性被完全抵消。尤其在醫(yī)療等特殊領(lǐng)域,錯(cuò)誤的輸出不僅影響體驗(yàn),還會帶來嚴(yán)重后果。
正是在交互過程中,AI一次次的“失準(zhǔn)”表現(xiàn),讓用戶好不容易建立起的信任逐漸動搖。
3)表現(xiàn)不穩(wěn)定
用戶期望AI的表現(xiàn)穩(wěn)定、一致,而不是偶爾發(fā)揮出色卻時(shí)常失誤。當(dāng)相同指令輸出結(jié)果不一致,或系統(tǒng)性能時(shí)好時(shí)壞,就像導(dǎo)航有時(shí)精準(zhǔn)有時(shí)誤導(dǎo),都會讓人難以信任它的可靠性。
信任的關(guān)系是需要長期積累的,而不穩(wěn)定的特性大大增加了信任積累的難度。
4)存在偏見/歧視
大家需要知道,AI技術(shù)并不天然具備公平的屬性,它的算法很容易因?yàn)橛?xùn)練數(shù)據(jù)的偏見,輸出帶有歧視性的結(jié)果。這種偏見不僅傷害用戶,也與我們當(dāng)代社會所倡導(dǎo)的道德準(zhǔn)則和價(jià)值觀產(chǎn)生沖突。
當(dāng)用戶覺察到這種偏見,很容易對AI產(chǎn)生抵觸情緒。缺乏包容性和公平性的AI,難以獲得持久的信任。
5)隱私風(fēng)險(xiǎn)
隱私問題是AI最敏感的信任挑戰(zhàn)之一。AI對數(shù)據(jù)的高度依賴,使得隱私泄露的風(fēng)險(xiǎn)始終存在。許多企業(yè)對這一風(fēng)險(xiǎn)諱莫如深,擔(dān)心激發(fā)用戶恐慌。但用戶一旦察覺個(gè)人信息被過度收集,便會對產(chǎn)品安全性產(chǎn)生質(zhì)疑,很可能選擇棄用,而恢復(fù)的成本變得極為高昂。
以上五個(gè)問題,其實(shí)源于技術(shù)特性、用戶本身以及使用環(huán)境等多種因素的交織。
從技術(shù)特性上來說,AI模型常被形容為“黑盒子”—用戶既無法看到其運(yùn)作過程,也難以理解其決策邏輯。這種不透明很容易引發(fā)疑問:這個(gè)結(jié)果是怎么來的?真的可信嗎?
另一方面,算法本身并非完全中立,難免會受到開發(fā)者的主觀影響。一旦系統(tǒng)在實(shí)際應(yīng)用中表現(xiàn)出某種偏向,人們自然會擔(dān)心:“它是不是對我有歧視?”
而且為了提供精準(zhǔn)的結(jié)果,AI還要收集和分析海量的數(shù)據(jù)進(jìn)行訓(xùn)練。這也意味著,隱私安全的風(fēng)險(xiǎn)幾乎不可避免。
除了技術(shù)層面,用戶自身的因素也很關(guān)鍵。認(rèn)知水平影響對AI能力與局限的理解,技術(shù)熟練度則決定了能否能正確使用這些工具。此外,還有心理學(xué)上所謂的“信任傾向”,有些人天生對新技術(shù)抱有濃厚興趣,而另一些人則可能比較謹(jǐn)慎甚至抵觸。
4. 可信AI框架
前文我們已經(jīng)探討了信任為何重要、信任關(guān)系又為何脆弱。接下來,我們進(jìn)入更具操作性的議題:如何構(gòu)建一個(gè)可信AI。
要實(shí)現(xiàn)這一目標(biāo),首先需要明確“AI系統(tǒng)應(yīng)具備哪些可信特質(zhì)”。這一問題吸引了科技公司、科研機(jī)構(gòu)和專家學(xué)者的廣泛關(guān)注,他們結(jié)合實(shí)踐經(jīng)驗(yàn)提出了許多寶貴的見解和框架。以下整理了一些具有代表性的觀點(diǎn),供大家參考。
當(dāng)我們將這些觀點(diǎn)歸納整理后發(fā)現(xiàn),它們交織出了一個(gè)頗具共識性的原則框架,這些共識可以成為我們打造AI產(chǎn)品信任力的基礎(chǔ)認(rèn)知,也為后續(xù)設(shè)計(jì)策略的制定提供了方向。
- 準(zhǔn)確可靠:輸出內(nèi)容要高質(zhì)量、強(qiáng)邏輯、知識廣泛,并能適應(yīng)信息實(shí)時(shí)變化,減少偏差和誤導(dǎo)。
- 可解釋:AI的行為和決策應(yīng)以用戶易于理解的方式呈現(xiàn),使其運(yùn)行邏輯可被感知、可被質(zhì)疑、可被理解。
- 安全穩(wěn)定:在不同的環(huán)境與使用條件下,系統(tǒng)應(yīng)表現(xiàn)出持續(xù)性與一致性,避免異常中斷或不可控的情況發(fā)生。
- 保護(hù)隱私:嚴(yán)格遵循數(shù)據(jù)合規(guī)要求,確保用戶信息的收集、使用和存儲透明、安全,不被濫用。
- 公平:算法要一視同仁,避免歧視性輸出,關(guān)注不同背景、不同能力水平用戶的權(quán)益,建立真正的平等關(guān)系。
在此基礎(chǔ)上,我認(rèn)為有必要補(bǔ)充第6條:接受監(jiān)督。
有效的監(jiān)督機(jī)制是確保上述原則落地的重要保障。接受誰的監(jiān)督呢?主要有三個(gè):用戶、國家、第三方機(jī)構(gòu)。用戶作為直接使用者,往往最早發(fā)現(xiàn)異常;國家則通過立法為技術(shù)發(fā)展設(shè)定邊界;而獨(dú)立第三方則能提供中立、專業(yè)的評估視角,為AI系統(tǒng)的可信性提供額外支撐。
以上每一條原則都不是孤立存在的,它們共同構(gòu)成了一個(gè)動態(tài)、可被驗(yàn)證、不斷演進(jìn)的信任框架,這也正是接下來我們策略篇的起點(diǎn)。
二、策略篇
0. 用設(shè)計(jì)塑造可信AI體驗(yàn)
在實(shí)現(xiàn)可信AI的過程中,技術(shù)研發(fā)人員無疑承擔(dān)著核心攻關(guān)任務(wù),他們通過算法設(shè)計(jì)、模型優(yōu)化和安全測試等諸多手段,不斷提升AI系統(tǒng)的技術(shù)表現(xiàn)。然而,許多人容易混淆“可信”與“信任”,誤認(rèn)為只要AI足夠可信,用戶就會自然而然地信任它。但事實(shí)上,可信性是建立信任的前提,并不能直接等同于信任。即便AI技術(shù)在理論上完全可靠,人們?nèi)匀豢赡苓x擇不信任它。
問題就在于,這些支撐AI可信性的技術(shù)細(xì)節(jié),也可以說是“可信證據(jù)”,能否被用戶清晰地感知并理解。
絕大多數(shù)用戶并非AI專家,很多線索不能依賴他們自己去發(fā)現(xiàn),而需經(jīng)過人為的提煉、轉(zhuǎn)譯之后,以他們易于理解的形式呈現(xiàn)。
而這,正是UX設(shè)計(jì)師所應(yīng)該做的。
接下來,我將基于可信AI的六大要素,介紹一些可行的體驗(yàn)策略。對于有現(xiàn)成界面的,我會截取相關(guān)案例輔助理解,若沒有類似案例,我也會提供簡單的設(shè)計(jì)示意圖。
請大家注意,案例截圖和設(shè)計(jì)示意僅代表當(dāng)下各平臺的實(shí)踐思路及我個(gè)人的理解,必然存在局限性。隨著AI生態(tài)的快速發(fā)展,勢必出現(xiàn)比示例更優(yōu)、更合理的解決思路。
讓我們開始吧!
1.準(zhǔn)確可靠
在“準(zhǔn)確可靠”這一維度上,設(shè)計(jì)師的任務(wù)是優(yōu)化用戶的認(rèn)知體驗(yàn),幫助他們理性評估AI的能力與局限。即便AI存在局限性,如果用戶仍能以理性的態(tài)度信任并有效使用它,設(shè)計(jì)的價(jià)值就得以體現(xiàn)。
1)管理預(yù)期
AI并非無所不能,過度的宣傳或模糊描述容易讓用戶產(chǎn)生誤解,所以要避免營造這種“全能AI”的錯(cuò)覺。使用前應(yīng)清晰說明AI的能力邊界:能做什么,不能做什么,盡可能明確,幫助用戶建立合理預(yù)期。使用后,也能坦誠地告知用戶,生成結(jié)果可能存在偏差或錯(cuò)誤,不能完全依賴。
2)用戶教育
以通俗易懂的方式展示大模型的基本原理與技術(shù)能力,幫助用戶建立對AI的客觀認(rèn)知;同時(shí)提升使用說明、隱私政策等關(guān)鍵文檔的可讀性,方便用戶獲取必要信息。
3)設(shè)置可信信號
在生成內(nèi)容中嵌入明確的“可信信號”。包括但不限于:1.信息來源(清晰標(biāo)注數(shù)據(jù)或觀點(diǎn)的出處);2.時(shí)間狀態(tài)(標(biāo)明內(nèi)容的生成時(shí)間,突出其時(shí)效性,如“最近更新于1小時(shí)前”);3.外部背書(若有權(quán)威專家、機(jī)構(gòu)的支持,可通過標(biāo)識進(jìn)行展示)。
4)提供驗(yàn)證渠道
支持“了解更多”或“深入搜索”等選項(xiàng),方便用戶自行驗(yàn)證,也鼓勵(lì)他們主動探索更深層次的信息。
2.可解釋
人類與AI之間存在無法跨越的超越性和非對稱性,使得我們難以用既有認(rèn)知去理解AI的決策邏輯,出現(xiàn)認(rèn)知斷層,從而對AI產(chǎn)生不信任感。
“可解釋”的價(jià)值就在于它可以彌合這道認(rèn)知鴻溝,大家也許已經(jīng)注意到,越來越多的AI大模型平臺在給出最終答案前,會先呈現(xiàn)一段推理過程,這正是通過提供解釋增強(qiáng)用戶信任的一種方式。
技術(shù)透明化讓AI的內(nèi)部邏輯更加開放、更可見,但透明≠可理解,用戶對AI邏輯的理解能力差異巨大。設(shè)計(jì)師應(yīng)正視這種差異,要思考如何讓AI的解釋方式匹配不同認(rèn)知水平的用戶,讓他們不被復(fù)雜的技術(shù)細(xì)節(jié)所困擾。
1)可視化呈現(xiàn)
利用圖表、清單、微動效、流程圖等可視化形式,簡化復(fù)雜的技術(shù)細(xì)節(jié)(如推理路徑、決策鏈等),提升內(nèi)容可讀性,降低認(rèn)知門檻。
2)漸進(jìn)式披露
針對用戶當(dāng)前任務(wù)場景,優(yōu)先展示核心釋義,避免信息冗余。更詳盡內(nèi)容可通過“展開”選項(xiàng)逐步呈現(xiàn),兼顧認(rèn)知需求與界面整潔。
3)簡化釋義文案
避免晦澀術(shù)語,采用貼近用戶的語言進(jìn)行解釋。對于復(fù)雜內(nèi)容,在確保完整準(zhǔn)確的基礎(chǔ)上,可適當(dāng)拆解、重構(gòu),提升理解度。
4)即時(shí)釋義
在用戶可能產(chǎn)生疑問的場景中,及時(shí)提供解釋??蛇x擇與疑問點(diǎn)同步呈現(xiàn),或設(shè)置固定區(qū)域或浮層進(jìn)行統(tǒng)一展示。還可以通過鼠標(biāo)懸停、點(diǎn)擊等交互,讓用戶按需獲取更多信息。無論采用哪種,都不要干擾正常的瀏覽體驗(yàn)。
3.安全穩(wěn)定
很多人認(rèn)為,AI系統(tǒng)的安全與穩(wěn)定主要取決于底層技術(shù),前端體驗(yàn)所做有限。實(shí)際上,設(shè)計(jì)師可以通過一些策略將安全穩(wěn)定“顯性化”,轉(zhuǎn)化為用戶可感知的觸點(diǎn)。此外,當(dāng)AI系統(tǒng)出現(xiàn)波動,及時(shí)的兜底設(shè)計(jì)不僅能降低信任損失,甚至可能轉(zhuǎn)危為機(jī)。
1)防錯(cuò)設(shè)計(jì)
在設(shè)計(jì)階段預(yù)判潛在問題,并通過一些策略降低用戶出錯(cuò)概率。例如在用戶輸入指令時(shí)即時(shí)校驗(yàn)、限制一些危險(xiǎn)操作、提供必要的默認(rèn)值或預(yù)設(shè)選項(xiàng),以及設(shè)置撤銷、自動保存、內(nèi)容恢復(fù)等功能,這些都是常見的做法。
2)多模態(tài)反饋
利用視覺、聽覺甚至觸覺等多種感知方式,強(qiáng)化用戶對系統(tǒng)狀態(tài)的感知。例如在內(nèi)容生成過程中,不單采用可視化的進(jìn)度條,還可以搭配聲音提示,增強(qiáng)運(yùn)行的確定性。在移動端,還可借助輕微的振動反饋,確認(rèn)操作或作為提示。
3)降級設(shè)計(jì)
簡單說,就是當(dāng)我們做不到最好的體驗(yàn)時(shí),至少給用戶一個(gè)不那么糟的體驗(yàn),保證AI的基本可用性。例如當(dāng)AI性能下降時(shí),可自動切換至低階生成模式。執(zhí)行降級時(shí)記得在界面中提示,把當(dāng)前狀態(tài)告知給用戶。這一策略在移動網(wǎng)絡(luò)中早已廣泛應(yīng)用:當(dāng)5G信號異常,移動數(shù)據(jù)通常會自動切換為4G,以維持基本的通訊體驗(yàn)。
4)補(bǔ)償機(jī)制
系統(tǒng)發(fā)生異常后,平臺的響應(yīng)措施要第一時(shí)間同步到用戶。在狀態(tài)恢復(fù)后,根據(jù)問題的影響程度判斷是否給予補(bǔ)償,例如增加使用次數(shù)、發(fā)放體驗(yàn)權(quán)限等,這些策略可以在一定程度修復(fù)信任。
4.保護(hù)隱私
在本節(jié)中,我從個(gè)人信息的全生命周期切入,梳理出隱私保護(hù)的五個(gè)關(guān)鍵階段:收集、處理、輸出、傳播、管理。圍繞每個(gè)節(jié)點(diǎn),分別列出了一些針對性的設(shè)計(jì)策略,讓隱私保護(hù)的感知點(diǎn)更系統(tǒng)地貫穿整個(gè)體驗(yàn)流程。
1)輸入提醒
與即時(shí)通訊不同,指令一旦上傳至AI模型,無法被“撤回”。所以,當(dāng)用戶輸入的指令中包含個(gè)人隱私信息時(shí)(如手機(jī)號、證件號、賬號密碼、地址等),系統(tǒng)應(yīng)主動識別,并提醒用戶注意,例如彈窗提示“你的指令中包含敏感信息,是否繼續(xù)發(fā)送?”或“建議將敏感數(shù)據(jù)進(jìn)行模糊處理”,降低因用戶疏忽而導(dǎo)致的信息泄露風(fēng)險(xiǎn)。
2)提示/說明
在涉及數(shù)據(jù)收集的節(jié)點(diǎn),必須明確告知信息用途,例如“數(shù)據(jù)僅用于個(gè)性化推薦”,并告訴用戶平臺會妥善地保護(hù)隱私;如有加密等保護(hù)措施,也可以主動說明,例如“敏感數(shù)據(jù)已加密處理”;在準(zhǔn)備分享含有隱私信息的內(nèi)容時(shí),界面中可標(biāo)出可能的風(fēng)險(xiǎn),幫助用戶更謹(jǐn)慎地做出判斷。
3)處理過程可視化
在展示生成過程的時(shí)間軸中,可以選擇把用戶數(shù)據(jù)的處理環(huán)節(jié)也放入其中,比如“數(shù)據(jù)已加密、正在本地分析、數(shù)據(jù)已刪除”等。這種方式能讓大家了解自己的數(shù)據(jù)去了哪里、經(jīng)歷了什么,也更容易讓人放心使用。
4)脫敏展示/回復(fù)/分享
一旦指令被發(fā)送并顯示在對話記錄中,自動對包含隱私信息的字段進(jìn)行模糊化處理,為了強(qiáng)化感知,可以使用高亮形式展示。
而AI輸出的內(nèi)容涉及敏感信息時(shí),也默認(rèn)脫敏展示,并提供“查看完整信息”的開關(guān)(類似銀行APP中“查看完整賬號”的按鈕),讓用戶自主選擇是否顯示。
在分享環(huán)節(jié),支持“一鍵脫敏”,有效避免在傳播過程中泄露隱私信息。相比簡單粗暴的“禁止分享”或“完全放開”,這一機(jī)制提供了更靈活、安全的中間選項(xiàng),平衡了隱私保護(hù)與信息流通之間的需求。
5)分享管理
可借鑒電商平臺“匿名評價(jià)”的思路,為內(nèi)容分享提供不同的隱私保護(hù)選項(xiàng)(如“匿名分享“、”局部分享”等)。在管理列表中,用顏色、icon等方式直觀展示已分享鏈接的狀態(tài),同時(shí)支持批量刪除與管理。
6)數(shù)據(jù)授權(quán)
提供明確的授權(quán)開關(guān),如“個(gè)人數(shù)據(jù)用戶改進(jìn)模型,開啟or關(guān)閉”“本地化數(shù)據(jù)處理,開啟or關(guān)閉”,讓用戶自主決定個(gè)人數(shù)據(jù)是否用于模型優(yōu)化或其他用途。
7)數(shù)據(jù)刪除
歷史對話數(shù)據(jù)、模型記憶等所有涉及隱私的內(nèi)容,支持手動刪除或批量管理。刪除時(shí),就后續(xù)影響、銷毀承諾等關(guān)鍵信息進(jìn)行說明。還可以提供“定時(shí)刪除”功能,到達(dá)預(yù)設(shè)時(shí)間后自動清除個(gè)人數(shù)據(jù)。
5.公平
公平不僅是對技術(shù)的基本要求,更體現(xiàn)了對用戶權(quán)益的尊重與保障。不管是功能規(guī)劃還是體驗(yàn)設(shè)計(jì),都要確保用戶充分了解情況,支持用戶按需選擇。
1)提前告知
對涉及用戶權(quán)益的內(nèi)容,如責(zé)任劃分、性能表現(xiàn)、隱私保護(hù)等,應(yīng)在適當(dāng)時(shí)機(jī)進(jìn)行明確告知,還可以對AI潛在的偏見或局限性進(jìn)行提示。需要注意,該策略和“管理預(yù)期”存在重疊,可以統(tǒng)籌考慮。
2)算法選擇
根據(jù)任務(wù)階段的不同,向用戶展示不同算法的特點(diǎn)和影響,讓他們能夠按需選擇不同的算法類型和適用范圍,避免強(qiáng)制使用單一模型導(dǎo)致的不公平。產(chǎn)品側(cè)是可以給出推薦選項(xiàng)的,但在算法使用過程中,應(yīng)支持隨時(shí)切換。
3)靈活授權(quán)
提供“一次性、分階段、分任務(wù)”等數(shù)據(jù)授權(quán)選項(xiàng),既能滿足服務(wù)所需,又能增強(qiáng)用戶的掌控感。還要設(shè)計(jì)友好的提醒機(jī)制,在授權(quán)到期后支持用戶選擇續(xù)期或終止授權(quán)。如果產(chǎn)品最終只提供了一鍵授權(quán)的選項(xiàng),設(shè)計(jì)師則要做好提示工作,并規(guī)劃好后續(xù)的退出路徑。
4)偏好設(shè)置
提供可定制化的交互界面和功能,以及讓用戶能夠根據(jù)自己的需求自定義算法偏好,干預(yù)AI系統(tǒng)的行為和輸出。
5)支持糾錯(cuò)
提供便捷的操作入口,允許用戶對他們認(rèn)為不公平的決策、有誤的決策進(jìn)行糾正,并盡可能讓這些修改即時(shí)體現(xiàn)在AI輸出的結(jié)果中。
6.接受監(jiān)督
增強(qiáng)用戶對“接受監(jiān)督”這一可信AI要素的感知,關(guān)鍵在于提升監(jiān)管的可見性,并面向用戶側(cè)建立有效的反饋機(jī)制。
1)讓監(jiān)督可見
通過標(biāo)識和文案增加監(jiān)管的可見性。使用類似于金融支付的安全認(rèn)證、食品包裝的有機(jī)認(rèn)證等標(biāo)識,或是告知當(dāng)前AI符合標(biāo)準(zhǔn)或相關(guān)監(jiān)管條例,并提供進(jìn)一步閱讀的路徑。
2)提供監(jiān)督渠道
在用戶與AI的交互過程中嵌入反饋機(jī)制,例如設(shè)置“反饋”“舉報(bào)”或“上報(bào)錯(cuò)誤”等按鈕,便于用戶在遇到問題時(shí)及時(shí)反饋,降低監(jiān)督門檻。
用戶反饋后,平臺要及時(shí)響應(yīng),告知問題的處理進(jìn)度或后續(xù)流程,例如提示“我們已收到您的反饋,預(yù)計(jì)將在24小時(shí)內(nèi)答復(fù)”,讓用戶感受到自己的反饋不僅被接收,還得到了實(shí)際響應(yīng)。
3)處理結(jié)果公示
公開用戶舉報(bào)的問題及相應(yīng)的改進(jìn)情況,例如累計(jì)收到多少問題、平臺的處理進(jìn)度,以及部分具有代表性的處理案例。這種機(jī)制不僅能讓用戶感受到反饋確實(shí)帶來了改變,也有助于塑造平臺負(fù)責(zé)任、透明的形象。
圍繞可信AI的六個(gè)要素,我梳理了近30條可落地的設(shè)計(jì)或產(chǎn)品策略,希望能幫助大家將抽象的原則轉(zhuǎn)化為具體的用戶體驗(yàn)觸點(diǎn)。
當(dāng)然,不同AI產(chǎn)品的業(yè)務(wù)目標(biāo)、技術(shù)能力與發(fā)展階段各不相同,適配的策略也會有所差異,不必追求面面俱到。建議結(jié)合實(shí)際需求靈活選取、自由組合,從中逐步構(gòu)建出符合自身產(chǎn)品特點(diǎn)的可信AI體驗(yàn)路徑。
最后
AI是否可信,技術(shù)起決定作用。但用戶是否信任,體驗(yàn)設(shè)計(jì)同樣不可或缺。
準(zhǔn)確可靠、可解釋、安全穩(wěn)定、保護(hù)隱私、公平以及接受監(jiān)督,這些要素不僅是模型的內(nèi)在指標(biāo),也應(yīng)該在產(chǎn)品的每一次交互中“被看見”“被理解”,才能真正構(gòu)成AI產(chǎn)品的“信任力”。
在這個(gè)復(fù)雜而高速演進(jìn)的AI時(shí)代,可信不是一個(gè)靜態(tài)目標(biāo),而是一種動態(tài)的、需要持續(xù)構(gòu)建的關(guān)系,它來自堅(jiān)實(shí)的技術(shù)底座,也源于每一個(gè)尊重用戶感知的設(shè)計(jì)決策。
希望我的這篇文章,能為大家在打造具有信任力的AI產(chǎn)品過程中,帶來一些啟發(fā)和支撐。
參考文獻(xiàn)
1.狄行思,宋歌?!度斯ぶ悄芩惴ㄐ湃螜C(jī)制的構(gòu)建與反思》
2.胡曉萌,陳力源,劉正源?!洞笳Z言模型的信任建構(gòu)》
3.黃心語,李曄?!度藱C(jī)信任校準(zhǔn)的雙途徑:信任抑制與信任提升》
4.朱翼?!缎袨榭茖W(xué)視角下人機(jī)信任的影響因素初探》
5.齊玥,陳俊廷,秦邵天,杜峰?!锻ㄓ萌斯ぶ悄軙r(shí)代的人與AI信任》
6.向安玲?!稛o以信,何以立:人機(jī)交互中的可持續(xù)信任機(jī)制》
本文由 @設(shè)計(jì)來電 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
寫的很好,一看就很專業(yè),作者是大廠的吧?
我覺得光是找這些問題都已經(jīng)是一個(gè)比較困難的事了:哪些問題正在侵蝕人與AI之間的信任?背后的根源又來自哪里?