推薦算法應該向媒體記者學習的 5 個新聞業(yè)原則

0 評論 3177 瀏覽 12 收藏 7 分鐘

媒體犯錯會道歉,為什么算法就不用呢?或許我們應該重新審視,被算法統(tǒng)治的資訊平臺和社交媒體平臺。一起來看,資訊推薦算法在這個時代,應該向媒體記者學習些什么。

本文根據(jù)Flipboard 聯(lián)合創(chuàng)始人兼 CEO Mike McCue 在 Web Summit 大會上的演講整理而成的文章。

資訊推薦算法,本意是幫人們找到可能感興趣的更多內(nèi)容。但是,不管在專門的資訊推薦 App 還是社交媒體上,垃圾新聞、低俗資訊反而成為主力內(nèi)容。本質(zhì)上,這是因為投機者們、垃圾內(nèi)容的制造者們很快找到了推薦算法天然的缺陷,學會如何利用它來迎合人性的弱點,煽動情緒,刺激欲望。

這就是現(xiàn)狀。比現(xiàn)狀更糟糕的是,推薦算法讓垃圾內(nèi)容的制造者占了上風,而真正的新聞機構(gòu)也不得不將自己的內(nèi)容惡俗化,以迎合推薦算法。所以假新聞越來越多,真新聞越來越少;低俗內(nèi)容越來越多,高品質(zhì)內(nèi)容越來越少。

這不是算法的錯,算法盡職盡責做了自己的工作,但算法的參數(shù)和控制指標需要重置,算法背后的人需要做出改變。

不要丟掉記者和編輯們的價值。新聞業(yè)的規(guī)矩告訴我們,「講故事」是要負責任的,傳播新聞需要保證完整性。我建議資訊平臺的推薦算法,向媒體記者學習,遵循五個新聞業(yè)原則:

一、真相和準確性

「造謠一張嘴,辟謠跑斷腿。」「我們是兼職在辟謠,別人是全職在傳播偽科學?!?/p>

現(xiàn)在大家終于知道了謊言比真相更容易傳播,但資訊推薦算法更關(guān)心「相關(guān)性」而非信息本身是不是真相,怎么辦?

讓編輯負責辨別真相,編輯們可以區(qū)分出虛構(gòu)的內(nèi)容和事實,把他們的意見添加到推薦算法中。讓經(jīng)過專業(yè)訓練的新聞從業(yè)者來決定什么是質(zhì)量,什么是真相,什么是準確性。讓他們來監(jiān)控和改進算法,防止算法被濫用。

二、獨立性

讓編輯來確保推薦算法是為讀者服務的,而不是為商業(yè)模式,為廣告主服務。現(xiàn)在的推薦算法讓那些騙點擊的標題黨(clickbait)內(nèi)容和廣告凸顯出來,正常的內(nèi)容反而被打壓,這是現(xiàn)在網(wǎng)絡新聞最嚴重的問題——內(nèi)容的權(quán)重,并不是根據(jù)內(nèi)容是否對讀者有益來判斷的,而是為商業(yè)模型服務的,讓人們花更多時間沉浸在垃圾內(nèi)容中,對這些公司的商業(yè)模型更有益。

三、公平和公正性

分歧和極端內(nèi)容更受算法的青睞,也更容易引發(fā)讀者的對立。新聞從業(yè)者常說,在每個新聞事件至少有兩面,記者們的工作是發(fā)現(xiàn)和聽取多樣化的聲音。當編輯和工程師合作來調(diào)整算法,呈現(xiàn)多角度不同的觀點,才能加深我們對世界的理解和同情心。如果我們不理解為什么會有不同的意見,就不會真正團結(jié)。

四、人性

新聞事實必須被認真調(diào)查,有理有據(jù),才能保證媒介是用來曝光或慶祝真相的,不是用來偽造事實傷害他人。這是職業(yè)操守,也是人性。算法不會對謊言泛濫負責任,但記者和編輯是需要對此負責的。所以編輯和工程師可以合作,一起設計算法,嚴格限制有害的內(nèi)容被觀看,及時調(diào)整推薦給平臺上用戶的內(nèi)容。

五、問責制

沒有什么系統(tǒng)是完美的。當錯誤出現(xiàn),比如假新聞被炒作或者惡俗內(nèi)容被推送給用戶,平臺方應該迅速糾正錯誤和調(diào)整算法。對于一家新聞機構(gòu)而言,出現(xiàn)錯誤時一定會做立即做公開的勘誤和道歉,以保證機構(gòu)的聲譽和讀者的信任。但是,算法和平臺方卻從來不會負同樣的責任。

算法是互聯(lián)網(wǎng)的基本組成,但算法并不是自己跑到服務器上的。是人創(chuàng)造了算法,所以人應該為算法的行為負責任。當算法像新聞記者一樣對事實敏感,也珍惜自己的聲譽,我們才有機會解決假新聞和惡俗內(nèi)容泛濫的問題。現(xiàn)在的情況是,人們已經(jīng)不再相信在互聯(lián)網(wǎng)上看的所謂熱點內(nèi)容。

事情不應該這樣發(fā)展。原本,互聯(lián)網(wǎng)是全世界的民眾分享信息,平等訪問全球信息的地方。但是今天,算法被投機者們挾持了,破壞了信息獲取的體驗,就像互聯(lián)網(wǎng)得了癌癥一樣。我們必須更快速地發(fā)現(xiàn)那些制造垃圾內(nèi)容的投機者,必須最小化假新聞的傳播,從而讓高品質(zhì)內(nèi)容成為主流。

所以,當算法出現(xiàn)錯誤時,必須被追究責任。這需要勇氣,更需要形成一套基本原則。

 

原文:https://about.flipboard.com/inside-flipboard/what-algorithms-can-learn-from-journalism

標題:What Algorithms Can Learn from Journalism

作者:Mike McCue

編譯:郝曉茹/ 光澗實驗室(公眾號:lightstream0)

本文由 @郝曉茹 翻譯發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!