“近期生活狀態(tài)被各個APP的算法吃透”:用戶對算法的感知及規(guī)訓(xùn)
近段時間以來,生活狀態(tài)似乎被算法摸透,想你所想,個性化推薦......這篇文章從用戶感知算法、規(guī)訓(xùn)算法兩個大的方面專業(yè)性的分析了技術(shù)與人類生活之間的科技效應(yīng)。推薦對用戶體驗、算法感知、個性化推薦等感興趣的童鞋閱讀。
01 用戶對算法的感知
從貨幣市場基金、股票、退休賬戶到我們收聽的音樂,無不受到算法技術(shù)的影響,它甚至可以決定我們能否獲得器官移植和配偶選擇。這表明算法已愈來愈深地嵌入到我們的日常生活中。
以往研究認(rèn)為,由于知識和技術(shù)的門檻,算法技術(shù)的程序和原理被技術(shù)開發(fā)者和設(shè)計者置于某種框架的同時,也對用戶形成了“黑箱”,而算法編碼所制定的價值觀及特權(quán)也被納入“黑箱”。
由此,算法成為了用戶的“控制者”而不是“代理人”。然而,近年來有研究發(fā)現(xiàn),用戶對算法具有一定的感知能力并可以據(jù)此調(diào)整自己的行為,從而對算法進行規(guī)訓(xùn),使算法為我所用。
如有用戶在社交媒體上表示“近期生活狀態(tài)被各個APP的算法吃透。”“QQ音樂的算法越來越差了,怎么調(diào)教過還給我推難聽的歌???”“我愛看,抖音記住多給我推帥哥”……
這表明部分用戶不僅感知到了算法推薦的存在而且可以根據(jù)自己的需求調(diào)整社交媒體的使用行為。那么,用戶是如何感知到算法的存在的呢?
首先,在用戶面對個性化推薦內(nèi)容時,他們較為容易感知到算法的存在,如有用戶在抖音視頻評論區(qū)下發(fā)表評論:“不過就是多看了一會兒,就一直給我推他了?!边@表明用戶可以根據(jù)推薦的內(nèi)容追溯自己的使用行為,進而依據(jù)自己的經(jīng)驗來理解算法的運作機制。
除發(fā)現(xiàn)曾看過的同類內(nèi)容又被推送到自己的手機頁面時以外,用戶在購物平臺發(fā)現(xiàn)自己和朋友聊天時所涉及的商品會被立馬推送至購物平臺的首頁時,也可以明顯地感知到算法的存在。
(圖片來源于抖音截圖)
其次,在用戶發(fā)現(xiàn)推薦的內(nèi)容與自己的興趣相關(guān)程度較低,且自己無法很好地控制推薦的內(nèi)容時,他們會明顯感知到算法的存在。
例如,當(dāng)用戶在進行有目的的網(wǎng)購時,盡管用戶清楚地知道自己想要購買什么商品,但由于一些商品推送信息的突然出現(xiàn),部分用戶在最終還是會購買一些與自己真正需求無關(guān)的商品。
這時他們會發(fā)現(xiàn)平臺并不像往常一樣全部推薦他們感興趣的內(nèi)容,而自己也并不能有效地控制這類內(nèi)容的推薦,這種與以往不同的體驗會使他們較為清晰地意識到算法的存在。但這并不與算法的智能推薦功能相矛盾。推送與用戶興趣相關(guān)程度較低的內(nèi)容并不是算法“失靈”,而是算法通過排序、排除等實際操作使商品信息流入用戶界面,從而促使用戶購買的另一種手段,在一定程度上也使得資本變得可見。
在這種情況下,用戶往往會認(rèn)為算法的效用較大,自己并不能對其進行有效的控制,由此產(chǎn)生規(guī)訓(xùn)算法的想法。
02 基于認(rèn)知和體驗的算法規(guī)訓(xùn)行為
用戶對算法的認(rèn)知和體驗,便是用戶對算法進行規(guī)訓(xùn)的前提和動力源。這種對算法的感知、體驗以及由此產(chǎn)生的情感可能會引起用戶對算法的反思,并有助于加深用戶對算法規(guī)則和功能的理解,由此指導(dǎo)用戶的媒介使用行為。
因此,部分用戶可以根據(jù)以往經(jīng)驗明確地知道采取何種個性化策略來使算法變得真正“個性化”。通過這些策略,他們可以干預(yù)界面內(nèi)容推送的組成,實現(xiàn)對算法的規(guī)訓(xùn)。
然而,由于不同的用戶對算法推薦的認(rèn)知、體驗及評價不同,其規(guī)訓(xùn)算法的策略也有所不同。部分用戶較為接受并贊揚算法的智能性及其給日常生活帶來的便利性,相信如果用戶與算法系統(tǒng)按照技術(shù)開發(fā)者和設(shè)計者的意圖進行交互,那么算法就能進行最佳的工作,從而增強用戶搜索引擎、社交媒體和智能助手等的使用體驗。
因此,這些用戶會積極地與算法進行互動,向系統(tǒng)輸入盡可能多的相關(guān)數(shù)據(jù),以優(yōu)化其內(nèi)容推送,如有用戶坦稱:“我把自己的生活交給了一個圖像識別算法,因為它聰明得多。”盡管這在一定程度上體現(xiàn)了算法對用戶的控制,但這并不意味著用戶處于“技術(shù)無意識”的狀態(tài)。
部分用戶認(rèn)為,以同意被算法監(jiān)控來換取好的服務(wù)與產(chǎn)品,是一場公平的交易,他們通過向算法系統(tǒng)提供更多的用戶信息和行為數(shù)據(jù)推動算法更加精準(zhǔn),從而達到了規(guī)訓(xùn)的目的,加強了與算法系統(tǒng)的交互。然而,并不是所有用戶都采用上述積極的方式來進行算法實踐并規(guī)訓(xùn)算法,部分用戶對算法摻雜著負面和正面的評價,因此在規(guī)訓(xùn)算法使之為我所用時會采取更謹(jǐn)慎的方法。
有用戶認(rèn)為算法的推薦內(nèi)容多是主流的、規(guī)范化的,而這種“主流”與“規(guī)范”實際上壓制了用戶基于種族、性取向和階級地位等的社會身份。
這類用戶會通過改變個人參與來規(guī)訓(xùn)算法以重塑算法身份,使之與用戶的自我概念保持一致,如有意地給予來自具有同樣社會身份的創(chuàng)作者的內(nèi)容以熱度,如點贊、評論和轉(zhuǎn)發(fā)等,希望這些被算法壓制的內(nèi)容可以反過來被算法放大。
除重塑算法身份以外,還有用戶會廣泛收集和分析數(shù)據(jù),使算法能在特定的環(huán)境中提供更好的服務(wù)。例如,由于算法具有根據(jù)用戶識別的系統(tǒng)內(nèi)置的個性化定價機制,有用戶便采用無痕瀏覽模式與戲弄定位的方式來選購機票,以防止在系統(tǒng)識別的基礎(chǔ)上為自己的旅行支付更多費用。
此外,有部分用戶基于對算法的負面評價,與算法進行了積極的斗爭,這涉及到利用顛覆戰(zhàn)術(shù)來規(guī)避、操縱甚至破壞算法系統(tǒng)。如有用戶會采用取消關(guān)注賬號和話題標(biāo)簽、故意不點擊某類帖子等方法來規(guī)避某些內(nèi)容的推送。
有用戶認(rèn)為,算法對用戶信息的收集與識別會被極少數(shù)人用來創(chuàng)造利潤,蘊藏著極大的隱私風(fēng)險,同時還會通過內(nèi)容推送來傳遞不符合道德的價值觀,因此部分用戶采取了較為激進的戰(zhàn)術(shù)來規(guī)訓(xùn)算法系統(tǒng),如安裝廣告攔截器、使用虛擬專用網(wǎng)絡(luò)(VPN)等。但在實踐中,用戶很少采用這類激進的策略。
03 用戶規(guī)訓(xùn)算法的意義
用戶對算法的規(guī)訓(xùn)是用戶基于自己的感知、理解和體驗等對算法進行的調(diào)適、規(guī)避和抵抗,但它并不否認(rèn)算法的力量,而是在算法的框架內(nèi)進行運作,以利用算法達到不同的目的,從而加強了人與算法技術(shù)的交互。
這表明人與媒介技術(shù)二者相互建構(gòu),而這種互構(gòu)是一種持續(xù)不斷的復(fù)雜過程,這也在一定程度上回應(yīng)了以往技術(shù)決定論者對算法技術(shù)的強大效果觀點。
實際上,用戶對算法的規(guī)訓(xùn)不僅倒逼算法技術(shù)迭代,也推動了平臺組織的制度重塑。這表現(xiàn)在,一方面,重塑了組織平臺的技術(shù)規(guī)范,如已有平臺開始對用戶反饋系統(tǒng)的流程進行閉環(huán)管理,并更新升級用戶體驗界面的技術(shù)配置,這在一定程度上為在算法系統(tǒng)中增加用戶話語權(quán)提供了通路;另一方面,也重塑了平臺的組織文化——如今已有越來越多的平臺組織從以往的“以用戶為中心”轉(zhuǎn)變到“癡迷客戶”,客戶包括了內(nèi)容生產(chǎn)者和消費者、B端客戶和C端客戶等,在重視用戶對算法系統(tǒng)的建構(gòu)能力的基礎(chǔ)上加強對客戶的理解與服務(wù)意識。
同時,用戶利用一系列底層運作規(guī)訓(xùn)算法,促使算法身份與個人的自我概念保持一致,也在一定程度上削弱了算法規(guī)則對社會特定群體的偏見。
研究表明,算法對用戶是否屬于某個社交類別的評估不是固定的,而是動態(tài)的,平臺算法與其用戶共同生成了關(guān)于種族、身材外貌、能力狀況、階級地位、LGBTQ身份等社會身份及從屬關(guān)系的定義,它們將平臺的用戶分類為上述不同的社會身份,并闡明具有某種社會身份的含義。
因此,用戶對算法的規(guī)訓(xùn)促使其算法身份不再單方面由算法和算法設(shè)計者決定,用戶可以通過規(guī)訓(xùn)使特定社會身份的相關(guān)內(nèi)容在平臺算法中的排序上升,進而在一定程度上削弱了社交媒體中對某些社會群體的偏見。
當(dāng)然,盡管用戶對算法的規(guī)訓(xùn)可以帶來一系列積極效應(yīng),但我們?nèi)孕杩吹剑惴夹g(shù)在為我們帶來智能化和便利性的生活的同時,我們的個人需求也被代碼運作事無巨細的過問并被一一滿足,這使得用戶在身體內(nèi)部產(chǎn)生了順從的愿望,成為“被控制者”——
我們享受獲得信息的便利性,但卻以自己的隱私信息和行為數(shù)據(jù)為代價;我們享受內(nèi)容的精準(zhǔn)推送,但卻對損耗的時間、碎片化的注意力和繭房效應(yīng)無動于衷。因此,無論何時,我們都應(yīng)對媒介技術(shù)保持理性的態(tài)度,正視技術(shù)給人類社會帶來的雙重效應(yīng)。
參考文獻:
Pasquale, F.(2015).The Black Box Society, Cambridge Massachusetts: Harvard University Press.
Bucher, T. (2017). The algorithmic imaginary: Exploring the ordinary affects of Facebook algorithms.Information, Communication & Society,20(1), 30-44.
Gran, A. B., Booth, P., & Bucher, T.(2021). To be or not to be algorithm aware: a question of a new digital divide?.Information, Communication & Society,24(12), 1779-1796.
Cotter, K. (2019). Playing the visibility game: How digital influencers and algorithms negotiate influence on Instagram. .New Media & Society,21(4), 895-913.
Dogruel, L., Facciorusso, D.& Stark, B.(2022).‘I’m still the master of the machine.’ Internet users’ awareness of algorithmic decision-making and their perception of its effect on their autonomy,Information, Communication & Society,25(9),1311-1332.
Velkova, J., & Kaun, A. (2021). Algorithmic resistance:Media practices and the politics of repair.Information, Communication & Society,24(4), 523-540.
Lomborg, S., & Kapsch, P. H. (2020). Decoding algorithms.Media, Culture & Society,42(5), 745-761.
Swart, J. (2021). Experiencing algorithms: How young people understand, feel about, and engage with algorithmic news selection on social media.Social Media + Society,7(2), 1-11.
Bucher, T. (2018).If…then: Algorithmic power and politics. Oxford University Press.
Beer,D.(2009).“Power Through the Algorithm? Participatory Web Cultures and the Technological Unconscious”,New Media &Society,11(6),985-1002.
Karizat, N., Delmonaco, D., Eslami, M., & Andalibi, N. (2021). Algorithmic folk theories and identity: How TikTok users co-produce Knowledge of identity and engage in algorithmic resistance.Proceedings of the ACM on Human-Computer Interaction,5(CSCW2), 1-44.
Milan S.(2018). Political agency, digital traces, and bottom-up data practices.International Journal of Communication,12,507–527.
Brunton F and Nissenbaum H.(2016).Obfuscation: A User’s Guide for Privacy and Protest.Cambridge, MA: MIT Press.
Silverstone, R.(2005).“Domesticating Domestication. Reflections on the Life of a Concept.”Domestication of Media and Technology. Eds. Berker, T. et al. New York, NY: Open University Press.
Geiger, R. S. (2017). Beyond opening up the black box: investigating the role of algorithmic systems in Wikipedian organizational culture.Big Data & Society,4(2), 1-14.
Haim, M., Graefe, A., & Brosius, H. (2018). Burst of the filter bubble? Effects of personalization on the diversity of Google News.Digital Journalism,6(3), 330–343.
克里斯托弗?斯坦納.(2012).算法帝國.北京: 人民郵電出版社.
張超.(2018).新聞生產(chǎn)中的算法風(fēng)險:成因、類型與對策.中國出版(13),38-42.
陳陽 &呂行.(2022).控制的辯證法:農(nóng)村青少年的短視頻平臺推薦算法抵抗——基于“理性—非理性”雙重中介路徑的考察. 新聞記者(07),71-87.
張萌.(2022).從規(guī)訓(xùn)到控制:算法社會的技術(shù)幽靈與底層戰(zhàn)術(shù). 國際新聞界(01),156-173.
趙璐.(2022).制約還是馴化:算法想象、可見性管理策略與制度再生產(chǎn). 當(dāng)代傳播(04),53-58.
唐錚,段景文 & 嚴(yán)云依.(2022).雙重馴化與人技混合:馴化視角下的算法再定義. 學(xué)術(shù)研究(04),56-60.
作者:張媛媛;微信公眾號:羊村傳播(ID:yangcunmedia)
來源:https://mp.weixin.qq.com/s/mMwz9V_vDRnf0fiAMZSkOQ
本文由 @羊村傳播 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
- 目前還沒評論,等你發(fā)揮!