AI幻覺泛濫的時代,也是搜索價值被重估的時代

0 評論 180 瀏覽 0 收藏 17 分鐘

在AI幻覺泛濫的時代,信息的真實性面臨前所未有的挑戰(zhàn)。本文探討了AI生成內容中的虛假信息問題,以及搜索引擎如何通過校驗和篩選,重新確立其在信息獲取中的核心地位,成為知識和真實的守護者。

幾周前,刺猬公社發(fā)起過一場“認出那個AI作家”的測試,用部分作家原文,和Deepseek、Kimi等AI產品模仿作家風格生成的文本,組成了一套共25道的測試題。

沒想到,在準備題目的過程中,就已經先行遭遇了AI幻覺的“背刺”。

AI幫我收集了10段沈從文本人寫的內容。但是等等!“一切都那么寧靜那么美好?!边@種畫風格格不入的句子,真的是現(xiàn)代文學大家沈從文寫出來的嗎?

于是,我不得不打開百度,一段段查證這些AI收集的文本是否真實。結果發(fā)現(xiàn),10段內容中有6條都是編造的,其中1條內容甚至是某位網友發(fā)布的沈從文小說讀后感。

當我們的AI朋友變得越來越智能、越來越體貼時,一種觀點認為,搜索引擎很快就將不復存在,AI助手將取而代之,成為大眾日常獲取信息和知識的主要渠道。

但事實是,曾經一度被調侃為“網絡檢測器”的搜索引擎,正在AI生成時代重新證明自己的價值。最核心的原因,是在初期的興奮退卻后,人們發(fā)現(xiàn),AI不止擁有了人類的智慧,也學會了人類的謊言。

校驗信息準確度的需求,與AI的生成能力一同涌現(xiàn);假如AI欺騙了你,至少還有搜索引擎為信息兜底。

1.被AI哄騙,正在成為一種常態(tài)

過去兩年,生成式AI將內容生產效率推向此前從未有過的高度,但風險和挑戰(zhàn)隨之而來——消費AI生產的內容和被AI哄騙,正在同時成為一種常態(tài)。

AI的“騙”,主要包括因幻覺問題而產生的胡編亂造,例如杜撰不存在的餐廳、編造未發(fā)生的事件。而隨著文本生成能力的提升,AI已能為虛構信息編造足夠多的細節(jié),進一步加大普通用戶對于真假信息的辨別難度。

今年春節(jié)假期,在巴塞羅那旅行的王宇,讓當時爆火的Deepseek為自己推薦餐廳,得到了五個完整的推薦列表。王宇一眼相中了其中一家名叫“Restaurante Tio Che”的餐廳,Deepseek將其繪聲繪色地描述為“加泰羅尼亞打工人的食堂”,每日會更換平價套餐,人均10歐元的套餐內包含湯、主菜、甜點和面包。

受訪者供圖

試試“D老師嚴選”的提議很快獲得了同伴的認可,但當王宇準備導航前往時,才發(fā)現(xiàn)地圖軟件中根本無法找到這個目的地。他用搜索引擎尋找這家餐廳的信息,才發(fā)現(xiàn)一切都是被編造的——他輸入D老師提供的餐廳地址,發(fā)現(xiàn)那里只有一個輪胎店,而且還不是“米其林輪胎”。

受訪者供圖

不死心的王宇又搜索了Deepseek推薦的另一家餐廳,發(fā)現(xiàn)同樣是被虛構的?!笆O聨准沂遣皇羌俚奈也恢溃驗槲抑辉嚵藘杉?,都不存在,然后就放棄了?!?/p>

AI在推薦餐廳時胡編亂造,最多只會浪費一點用戶的時間和感情,但如果相同場景搬到教育、醫(yī)療、法律等專業(yè)領域,一旦錯誤信息被簡單采信,將給用戶造成更多實質性困擾。

Vlog博主小盧曾在小紅書分享讓AI幫忙搜集論文相關文獻的慘痛經歷。“我把之前的文獻放到百度上,發(fā)現(xiàn)要么就是查不到出處,要么就是年限太遠不能用。昨天凌晨3點30還在改論文……”靠AI用幾秒鐘生成的信息,最終要花好幾個小時在搜索引擎上校驗。小盧最后還是放棄了耍小聰明,老老實實地讓百度AI羅列相關文獻信息和鏈接,再逐一搜索查看確認。

AI的“哄“,則是另外一種隱藏在答案背后的偏向性判斷。隨著AI深度思考過程的白盒化,越來越多用戶發(fā)現(xiàn),為了”哄“人高興,AI會思考提問者的立場,給出提問者想聽的答案,而不是正確或客觀的答案。

人與人之間,會因為謊言而產生信任危機,人與生成式AI的信任關系甚至更為脆弱脆弱。南方都市報調查顯示,68.63%的用戶表示擔憂生成式AI的虛假信息與詐騙。一旦經歷過AI“哄騙”,用戶很難再保持百分百信任,“狼來了”的故事,在AI時代同樣奏效。

而當用戶對AI生成的內容產生疑慮時,會天然產生校驗的訴求——搜索引擎依然是校驗信息的最主要工具。甚至,AI幻覺越泛濫,用戶對AI生成內容的信任度越低,使用搜索引擎校驗的需求也越高。

AI非但不會取代搜索引擎,反而會驅動用戶重回搜索。

2.AI是手段,而不是目的

此前,刺猬公社曾發(fā)起過一場問卷測試,將魯迅文本和AI模仿魯迅風格生成的新文本打亂順序,交給參與者判斷。測試結果顯示,只有6.5%的用戶能百分百區(qū)分魯迅和AI模仿的魯迅,58%的用戶得分低于90分。

測試中準確率最低的一道題,近40%的參與者誤以為這段AI文本來自魯迅

一位僅獲得68分的測試者告訴刺猬公社,錯題集中在由Kimi和Deepseek模仿生成的文本中,他對魯迅作品的了解主要來自中學時期的課本,算不上熟悉,那些由AI生成的、意象豐富的句子對他來說辨別難度太高。

生成式AI的加速發(fā)展,看似降低了知識獲取的門檻,所有用戶只需要一個對話窗口,就能不斷獲取藏匿于世界任何角落的信息。但只要AI還在持續(xù)“說謊”,辨別能力和校驗能力,就會成為獲取知識的新門檻——一個工科專業(yè)碩士畢業(yè)的成年人,知道如何通過圖書館借閱魯迅全集,卻只能在一場AI魯迅的測試中得到68分。

問題的關鍵在于,用戶本不應該承擔過高的辨別和校驗成本。從體驗視角看,用戶期待的是獲得可信的優(yōu)質信息,而不是拿到足以把自己淹沒的垃圾信息,再從垃圾堆里找可用信息。

在4月20日的萬象大會上,百度副總裁、百度搜索總經理趙世奇表達了類似的觀點:“我們認為,用戶要的不是信息轟炸,內容生態(tài)的下一程,一定不是比誰生產的更多更快,而是比誰創(chuàng)作的內容更可信、更優(yōu)質,真正為用戶提供價值?!?/p>

尤其對于搜索業(yè)務來說,使用AI不應該成為目的,而應該成為協(xié)助用戶獲取優(yōu)質內容的手段,讓用戶更高效地實現(xiàn)“所搜即所得“。既要搭上AI時代的快車,又要保障內容可信度,百度搜索從內容端和分發(fā)端,主動接過了篩選優(yōu)質信息的責任。

內容供給側,百度擁有牢固的優(yōu)質內容基礎。

百度百科依然是當前中文互聯(lián)網世界最全面、最權威的詞條內容產品。很多用戶會以百科截圖作為辨別事件真?zhèn)蔚淖C據(jù),對AI生成內容的真實性產生疑慮時,百度百科相關詞條的釋義,也成為大眾對于真相的校準器。

百度百科既是一個內容產品,某種程度上,也是一個工具產品。越是在信息繁雜的時代,作為信息標尺的百科就越需要關注內容的真實性——它可以不討好用戶,但一定需要百分百準確。為了讓內容創(chuàng)作者和用戶之間建立零距離信任,百度百科升級“本尊認證”功能,支持創(chuàng)作者本人編輯詞條,確保信息準確真實。

分發(fā)側,趙世奇認為,百度搜索的價值不是簡單的信息“搬運工”,而是優(yōu)質內容的“篩選器”。

對于平臺來說,分發(fā)即篩選,流量的分配方式,本來就承載著平臺對于內容價值的取向和判斷。趙世奇在發(fā)言中透露,百度搜索將從技術手段和使用場景入手,將搜索流量導向真實可信的優(yōu)質內容。

技術手段上,百度搜索利用智能評估 、溯源校準、權威認證三重機制,確保搜索結果真實可溯源。智能評估是基礎準備,利用評估模型,將優(yōu)質內容送入優(yōu)先分發(fā)池,獲得更多流量;溯源校準機制,則讓每一次AI搜索,都優(yōu)先展示官網、權威媒體、行業(yè)達人等優(yōu)質權威內容源;權威認證機制則讓優(yōu)質內容源獲得“認證標簽”并優(yōu)先展示,讓用戶能一眼看見“防偽碼”,找到穩(wěn)定可靠的信源。

使用場景上,百度最新推出的百看模式,則進一步幫用戶提前完成信息整合和篩選,通過結構化、多模態(tài)的展示方式,讓用戶一次性獲得所有可能需要的信息。

刺猬公社在百度尋求埃及旅行建議時發(fā)現(xiàn),只需提出一個簡單的問題,例如“埃及赫爾格達有哪些好玩的”,就能獲得由AI處理過的,結構化呈現(xiàn)的高價值信息。其中既有海上活動、沙漠探險等不同類型的活動攻略,也有餐廳推薦、聯(lián)系方式等實用信息,甚至還包括一條長達11分鐘的中英雙語字幕的赫爾格達旅行vlog。

百看模式下的赫爾格達旅行攻略

最終成行的游艇出海之旅,作者拍攝

集成文字框架、圖片、視頻、鏈接、智能體等多元化呈現(xiàn)方式的百看模式,能讓用戶做到使用一次搜索,就掌握全部有效信息。

整體來看,百度搜索對自身內容生態(tài)的認知非常清晰:守好內容質量底線、優(yōu)先篩選分發(fā)高質量內容、以AI輔助優(yōu)質信息呈現(xiàn)。將AI作為手段而不是目的,才能放大搜索業(yè)務在AI時代的稀缺價值。

3.搜索生態(tài),知識的守城者

真實和虛假,是一組共生的概念,當我們無法判斷什么是虛假時,真實也將失去邊界。這是我們認為,生成式AI發(fā)展越蓬勃,搜索越有價值的原因。我們需要具有確定性的信息和知識,它們來自客觀規(guī)律而非主觀幻想,它們不會因為提問者的心情和立場而變換答案。

給內容以確定性,正是一個健康的搜索生態(tài)所應該具有的職能。為了達成這種職能,平臺側以技術護航,以分發(fā)優(yōu)質內容為導向;而在平臺背后,則是無數(shù)專業(yè)和通識領域的內容貢獻者。

百度百科有794萬的貢獻用戶,他們來自社會各界,可能是高校學者、各領域的專家,也可能是一個普通學生,一個資深愛好者,或是一個在某領域有一技之長的工人??邕^社會身份的限制,只要能編輯真實、可信的詞條,人人都能成為知識的貢獻者。這是一個特殊的、緊密的、無法被擊破的知識共同體。

而在教育、法律、醫(yī)療等專業(yè)化知識領域,百度擁有豐富的歷史信息積累和強大的知識“造血能力”。

例如醫(yī)療領域,范鐵兵等23000多名專業(yè)醫(yī)生和百度共建千萬級病案庫,通過AI技術輔助用戶找到相似病例,實現(xiàn)患者與醫(yī)生的精準匹配。法律領域,張嘉良等執(zhí)業(yè)律師,將多年從業(yè)經驗沉淀到數(shù)字分身,同步開展普法直播、答復萬人在線咨詢,讓律師能夠更聚焦處理關鍵事務。

這些案例中,解決問題,成為了搜索業(yè)務的延長線。百度的AI技術幫助領域專家更高效地普及知識、處理問題,也讓用戶在獲得信息之后,迅速鏈接所需資源,進入解決實際問題的流程。

在“真實可溯源,優(yōu)質即流量”的搜索生態(tài)定位下,百度無疑也將向更多優(yōu)質、專業(yè)的內容生產者敞開新的大門。在演講的最后環(huán)節(jié),趙世奇對現(xiàn)場的創(chuàng)作者說:“當信息爆炸的迷霧散去,用戶最終追隨的,永遠是源頭可溯的真相,是經得起時間檢驗的信任。”

是人類共同構建的搜索生態(tài),組成了知識的第一重城門,讓作為最后一重城門的圖書館不必暴露在外。

在AI幻覺泛濫的時代,守住可信的搜索生態(tài),就是守住真實和知識的最小半徑。

本文由人人都是產品經理作者【刺猬公社】,微信公眾號:【刺猬公社】,原創(chuàng)/授權 發(fā)布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!