僅需7張照片,任何人都能在這個世界上“無中生你”

0 評論 3608 瀏覽 4 收藏 15 分鐘

伴隨著越來越多AIGC工具免費開放,人們一方面可以利用相應(yīng)工具實現(xiàn)多種方式的展現(xiàn),而另一方面,人們的“偽造”成本也可以被降低,比如結(jié)合AIGC類工具,說不定就可以通過一句話的描述來憑空變出一個“人”。這便是AIGC對社會秩序所發(fā)起的挑戰(zhàn)。具體如何解讀,不妨來看作者的看法。

注意看,這是一位小學(xué)老師,他正赤裸著上身在學(xué)校教室里自拍。

如果這是一張真實的照片,那么圖片中這位名為John的小學(xué)老師很可能將被學(xué)校直接勒令開除。

僅需7張照片,任何人都能在這個世界上“無中生你”

圖片來自Arts Technica網(wǎng)站,版權(quán)屬于原作者

但好在,這位John是一個由Arts Technica為了做人工智能社交圖片實驗而虛構(gòu)出來的人物。John的人物設(shè)定是一位普通的小學(xué)老師,和我們生活中的大部分的人一樣,在過去的 12 年里,John喜歡在 Facebook 上發(fā)布自己在工作記錄、家庭生活、假期照片等。

Arts Technica團隊通過從中選取了7張含有John的圖片,再使用了近期大火的Stable Diffusion和谷歌研究院發(fā)布的Dreambooth兩個AIGC工具,接著就在社交媒體上生成了不同版本、讓人真假難辨的John。

在這些照片里,John從一位普通的、喜歡分享日常生活的英文老師,一會變成了一個喜歡在教室里、公眾場合脫衣服自拍的“危險分子”,一會又變成了一個喜歡穿各種奇裝異服搞怪的“小丑”……翻看照片,每一張似乎都不是John,但每一張卻都有著John的臉。

而實際上,如今通過借助各種免費開放的AIGC工具,John的經(jīng)歷可能會輕易地發(fā)生在我們每個普通人的身上。

一、當AIGC遇上真人

Arts Technica表示,一開始在計劃做這個實驗時,他們征集了一些愿意分享自己的社交媒體圖片來做AI實驗訓(xùn)練的志愿者,但由于生成出來的照片太真實、帶來的潛在名譽危害太大,讓他們最終放棄了使用真人的照片,而是選擇先用AI生成了一個虛擬的John。

實驗結(jié)果讓他們感覺到,在當前的技術(shù)環(huán)境下,我們每個普通人都處在一種潛在的危險之中。

整個實驗過程其實非常簡單:從社交媒體上拿到的7張有個人臉部圖像的圖片,再使用網(wǎng)上開源和免費的Stable Diffusion及Dreambooth的合成代碼,你就可以通過輸入一段描述性的語句,生成各種不同風(fēng)格和不同場景下有關(guān)這個人的圖片。

比如網(wǎng)友們用馬斯克網(wǎng)上的公開照片作為訓(xùn)練集,用它們生成了的各種風(fēng)格的圖片。

一些人也用維基百科的聯(lián)合創(chuàng)始人Jimmy Wales的公開照片進行訓(xùn)練,把這個溫文爾雅的企業(yè)家變成了一位運動型的健美先生。

在這里,首先要帶大家快速回顧一下Stable Diffusion和Dreambooth的功能。

Stable Diffusion 是一個文字轉(zhuǎn)圖片的生成模型??梢灾挥脦酌腌姇r間就生成比同類技術(shù)分辨率、清晰度更高,更具“真實性”或“藝術(shù)性”的圖片結(jié)果。和其它同類型的AI生成圖片相比,Stable Diffusion 的生成結(jié)果更為寫實。

此外,Stable Diffusion還有一個重要特點就是其完全免費開源,所有代碼都在 GitHub 上公開,任何人都可以拷貝使用。也正是“寫實”和“開源”兩個特性,也讓它在DALL·E、Imagen 等封閉及半封閉同類產(chǎn)品中“殺”出了一條道路。

Dreambooth則是來自于谷歌AI實驗室的一種新的從文本到圖像的“個性化”(可適應(yīng)用戶特定的圖像生成需求)擴散模型。它的特點是,只需幾張(通常 3~5 張)指定物體的照片和相應(yīng)的類名(如“狗”)作為輸入,即可通過文字描述讓被指定物體出現(xiàn)在用戶想要生成的場景中。

比如你輸入一輛汽車圖片,就可以下指令毫不費力的改變它的顏色。你輸入一張松獅狗的照片,你可以在保留它的面部特點的情況下將它轉(zhuǎn)變成熊、熊貓、獅子等等,也可以讓它穿上不同的衣服出現(xiàn)在不同的場景之中。

僅需7張照片,任何人都能在這個世界上“無中生你”

圖片來自于https://dreambooth.github.io/

僅需7張照片,任何人都能在這個世界上“無中生你”

圖片來自于https://dreambooth.github.io/

本來呢,Stable Diffusion聚焦于用文本生成創(chuàng)意圖片,Dreambooth則聚焦于有條件限制地“改造”圖片,這兩個工具之間并沒有什么直接的交集。但奈何廣大網(wǎng)友們的想象力和行動力都太過強大,他們把這兩個開源產(chǎn)品一搗鼓,很快就搞出了一個可以將Stable Diffusion和Dreambooth結(jié)合使用的新工具。

在這個新的工具中,你可以使用Dreambooth的功能用任何幾張圖片作為訓(xùn)練圖,在生成目標之后,再結(jié)合Stable Diffusion強大的文本轉(zhuǎn)化功能,就可以讓這個指定目標以任何你所想要描繪的形式出現(xiàn)。

二、娛樂之外,也打開了“潘多拉魔盒”

在這個新玩法出現(xiàn)之后,網(wǎng)友們就像發(fā)現(xiàn)了新大陸一般,開始紛紛嘗試改造自己的照片。

有人把自己化身為了西部牛仔、有人走進了中世紀的油畫、有人變成了鐵血戰(zhàn)士等等……與此同時,各種關(guān)于教普通人如何使用Stable Diffusion+Dreambooth的工具的教程視頻、文章也開始在網(wǎng)上出現(xiàn)。

圖片截自于Youtuber James Cunliffe

然而,當大家都在開心地po著自己的圖片,大夸技術(shù)有趣炫酷的同時,也有很多人開始關(guān)注到這個技術(shù)背后的隱藏的巨大風(fēng)險。

相較于此前已經(jīng)被討論得很多的“深度偽造(Deepfake)”技術(shù)來說,AIGC類工具讓偽造從“換臉”直接進化到了“無中生有”的階段,也就是說,任何人通過一句話的描述就可以憑空“變出”一個你。此外,“偽造”技術(shù)的門檻也變得更低,跟著一個Youtube視頻學(xué)個10分鐘,沒有技術(shù)背景的小白也可以輕松掌握。

據(jù)統(tǒng)計,目前全世界有超過 40 億人使用社交媒體,如果你曾在社交媒體平臺上公開上傳過自己的照片,那么一旦有人產(chǎn)生了不良的動機,就將很容易地使用這些的圖片進行造假和濫用。最后的結(jié)果可能是一張暴力照片、一張不雅照、一張侮辱性的照片,而這些照片則將能輕易地被用于栽贓嫁禍、校園霸凌、造謠傷害等各種灰暗的場景之中。

目前,從Stable Diffusion目前的生成圖片來看,如果仔細觀察還是比較容易分辨出人物的真假。但問題在于,鑒于最近幾年來AIGC技術(shù)的進步非常迅速,人們或許將可能很快就無法用肉眼分辨生成照片和真實照片之間的區(qū)別。

而且,即使就是一張經(jīng)不起推敲的照片,但傳遞的負面信息其對一個人的破壞力也可能是驚人的。比如。若真的有文章開頭這位名為John的小學(xué)老師,當有人看到他在教室里或者其他不雅照時,無論真假,很可能僅僅是一個懷疑或者是謠言,就能毀掉他的聲譽和事業(yè)。

這就像是丹麥電影《狩獵》里演的一樣,即使最后證明小女孩對男教師的猥褻指控都是編造的,但由傳言所帶來的惡意依然在男教師的生活中如影隨形。

三、嘗試用“魔法打敗魔法

其實對于AIGC技術(shù),開發(fā)人員們也早已意識到了其可能帶來的危害。比如當谷歌宣布推出Imagen、Dreambooth時,在解釋文檔中都避免使用了真人的照片,而是用物品和可愛的動物的圖片舉例進行了說明。

不僅是谷歌,DallE等同類工具也無一不是如此。對此,麻省理工評論曾對這種轉(zhuǎn)移公眾視線的做法進行了強烈質(zhì)疑。他們在文中寫道:“我們只看到各種可愛的圖像,但看不到任何包含仇恨、刻板印象、種族主義、暴力、性別歧視的畫面。但即使不說,我們也清楚的知道,它們就在那里?!?/p>

目前,針對這個問題,很多平臺也在嘗試著用各種方法解決。其中,OpenAI和谷歌等一些平臺的解決辦法是將工具關(guān)在籠子里,僅開放給少數(shù)受信任的用戶使用;Stability AI 在最新發(fā)布的 2.0 版本的訓(xùn)練數(shù)據(jù)集中刪除了大部分含有不良信息的數(shù)據(jù),同時在軟件許可協(xié)議中明確規(guī)定不允許創(chuàng)建人物圖像。

但政策性的規(guī)定畢竟指標不治本,近期,包括Stable Diffusion在內(nèi)的一些平臺也在嘗試使用技術(shù)手段解決這個問題,其中包括“不可見水印”技術(shù)。通過這種人眼看不到的水印,系統(tǒng)將能夠自動識別圖片的真假,同時能對圖片的編輯和再生成進行保護。

此外,針對訓(xùn)練的源頭——原始圖片保護上,上個月,MIT的研究人員宣布開發(fā)了一項過專門針對AI照片編輯的 PhotoGuard 技術(shù),用以阻止 AI 使用某些圖像接受訓(xùn)練。比如同樣的一張肉眼看不出區(qū)別的照片,使用了PhotoGuard技術(shù)之后,AI便無法從中提取到足夠的有效信息。

圖片來自gradientscience

最近一兩年來,AIGC的技術(shù)突飛猛進,一大批圖像生成工具和ChatGPT的爆火出圈,讓大家意識到老生常談的人工智能時代這次似乎真的已經(jīng)在拐角了。

不久前Stable Diffusion的研究人員就曾表示,Stable Diffusion 將很可能在一年之內(nèi)就在智能手機上運行。很多同類工具也都開始著手在更輕量化的設(shè)備上訓(xùn)練這些模型,比如目前ChatGPT的各種插件已經(jīng)開始被用戶廣泛使用。因此人們可能很快就會看到,由人工智能推動的創(chuàng)意產(chǎn)出將在未來幾年出現(xiàn)爆炸式增長。

但隨著AIGC走向公眾化、平民化,深度合成內(nèi)容制作的技術(shù)門檻越來越低,普通人僅需要少量的圖像、音頻、視頻、文本等樣本數(shù)據(jù),就能夠模糊信息真實和虛假的邊界。在沒有出臺相關(guān)法律規(guī)范的前提下,技術(shù)一旦被濫用,將會給個人、企業(yè)造成巨大風(fēng)險與實質(zhì)性危害。

自從今年AI繪畫類工具爆火以來,很多人把目光放在了AI對于藝術(shù)創(chuàng)作的顛覆上,但實際上,AI不僅是改變了創(chuàng)作模式,而是可能也對社會秩序發(fā)起了挑戰(zhàn)。有條件地限制AI的能力,這也可能是在讓AIGC改變我們的生活之前,必須要首先解決的問題。

參考文章:

  1. https://arstechnica.com/information-technology/2022/12/thanks-to-ai-its-probably-time-to-take-your-photos-off-the-internet/
  2. PhotoGuard技術(shù):http://gradientscience.org/photoguard/

作者:Juny,編輯:VickyXiao;公眾號:硅星人(ID:covricuc)

原文鏈接:https://mp.weixin.qq.com/s/Ip-LyuSEG_xI9ttJP2Sz-g

本文由 @硅星人 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載

題圖來自 Unsplash,基于 CC0 協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!