AI 合成以假亂真:只需 7 張照片,就能讓真人“社死”(ai圖片合成器)
作者 | 核子可樂(lè)、凌敏
經(jīng)過(guò)迅速發(fā)展,如今的 AI 技術(shù)已經(jīng)可以利用社交媒體素材輕松偽造出有害照片。
近日,Arstechnica 的研究人員做了一項(xiàng)研究:大家在社交媒體上發(fā)布的真實(shí)照片,會(huì)被 AI 的二次創(chuàng)作“玩壞”嗎?
為了找到答案,研究人員聯(lián)系了一位志愿者,使用其提供的幾張真實(shí)照片,用 AI 生成假照片。結(jié)果顯示,這些假照片的威力巨大,很有可能破壞其聲譽(yù)。最終,研究人員創(chuàng)建了一個(gè)名為約翰的虛擬人物,以其作為案例,一起看看 AI 是怎么把約翰“玩壞”的。
提供了 7 張照片后,約翰被 AI“玩壞”了
這位名叫約翰的虛構(gòu)人物,在假想的場(chǎng)景中是一名小學(xué)教師。和大多數(shù)人一樣,他在過(guò)去 12 年里通過(guò) Facebook 發(fā)布了不少自己工作、居家和外出時(shí)的照片。
以約翰的 7 張照片作為訓(xùn)練數(shù)據(jù),就能訓(xùn)練出足以偽造約翰形象的強(qiáng)大 AI 模型,并能把約翰的照片毫無(wú)破綻地放在任意背景之下。
這個(gè) AI 模型生成的假照片栩栩如生,甚至到了以假亂真的底部,比如,約翰打扮成小丑跑去喝酒,約翰在周末參加準(zhǔn)軍事組織的訓(xùn)練,約翰幾年前曾入獄服刑。
這些約翰照片來(lái)自名為 Stable Diffusion(1.5 版)的 AI 圖像生成器,外加名為 Dreambooth 的技術(shù)。雖然約翰不是真人,但用真人的 5 張以上圖像完全可以重現(xiàn)類似的結(jié)果。這類照片不難獲取,社交媒體的發(fā)布內(nèi)容可以、視頻中的靜止幀也行。
整個(gè)訓(xùn)練過(guò)程大概需要一個(gè)小時(shí),訓(xùn)練完成后,圖像內(nèi)容的生成還需要幾個(gè)小時(shí)——這不是因?yàn)樯蛇^(guò)程太慢,而是研究人員從大量不完美的圖片里挑出質(zhì)量最高的圖片。但無(wú)論如何,這樣還是比親自動(dòng)手用 PS 畫假約翰簡(jiǎn)單得多。
在 AI 的支持下,約翰可以是犯罪分子,也可以是變態(tài)狂人,如果使用針對(duì)色情內(nèi)容優(yōu)化的附加 AI 模型,約翰甚至可以成為色情明星。
AI 還能把約翰放置在奇妙的背景下,例如讓他成為中世紀(jì)的騎士或者宇航員,讓他顯得年輕或衰老、肥胖或瘦弱、戴眼鏡或不戴,也能給他換上不同的服飾。
有的合成圖像并不完美。如果仔細(xì)觀察,有經(jīng)驗(yàn)的人會(huì)發(fā)現(xiàn)這些并非真圖。但相應(yīng)的 AI 技術(shù)一直在迅速發(fā)展,我們可能很快就無(wú)法分辨合成照片與真實(shí)照片間的區(qū)別。而且即使存在缺陷,這些偽造圖像仍有可能毀掉約翰的名譽(yù)乃至生活。
這就是技術(shù)的兩面性所在。人們當(dāng)然可以用 AI 創(chuàng)建天馬行空的神奇畫面,Lensa 等近期大熱的商業(yè)服務(wù)和應(yīng)用就是一例。然而,一旦有人未經(jīng)他人同意就使用對(duì)方的面部圖像,那么同樣的技術(shù)也可能造成可怕的后果。
背后的工作原理
計(jì)算機(jī)科學(xué)家們已經(jīng)找到了利用真實(shí)照片教 AI 偽造新畫面的高質(zhì)量方法,在過(guò)去的一年里,這項(xiàng)技術(shù)正日漸成熟。不過(guò),這項(xiàng)技術(shù)一直存在爭(zhēng)議,因?yàn)槌掌?,它還允許人們?cè)谖唇?jīng)許可下模仿在世藝術(shù)家的創(chuàng)作風(fēng)格。
目前最具影響力的 AI 圖像生成器之一是 Stable Diffusion。這種深度學(xué)習(xí)圖像合成模型能夠利用文本描述生成全新圖像,可以運(yùn)行在 Windows 或 Linux PC 的強(qiáng)大本地 GPU 上,也可以在 Mac 或者租用的云端硬件上起效。
在 Stability AI 雄厚財(cái)力的支持下,CompVis 學(xué)術(shù)組織利用互聯(lián)網(wǎng)上獲取的幾億張公開圖像訓(xùn)練出了 Stable Diffusion AI 模型。Stability AI 于 2022 年 8 月 22 日將 Stable Diffusion 以開源軟件的形式發(fā)布,現(xiàn)在任何人均可免費(fèi)使用,其功能也被集成至越來(lái)越多商業(yè)產(chǎn)品當(dāng)中。
通過(guò)強(qiáng)化訓(xùn)練,Stable Diffusion 神經(jīng)網(wǎng)絡(luò)學(xué)會(huì)了單詞與圖像中各像素位置間的一般統(tǒng)計(jì)關(guān)聯(lián)。大家可以給 Stable Diffusion 提供一條文本提示,例如“摩根·弗里曼坐在教室里”,然后就能得到相應(yīng)的全新圖像。
制作這類大明星的圖像很簡(jiǎn)單,因?yàn)?Stable Diffusion 的訓(xùn)練數(shù)據(jù)集里沒(méi)準(zhǔn)有幾百?gòu)埬Ωじダ锫恼掌?,它知道這位演員長(zhǎng)什么樣子。但如果想制作約翰這類普通人的圖像,就得給 Stable Diffusion 一點(diǎn)額外的幫助。這就是 Dreambooth 的意義所在。
Dreambooth 微調(diào)模型
谷歌研究人員于 2022 年 8 月 30 日宣布,Dreambooth 使用一種特殊的“微調(diào)”技術(shù)幫助 Stable Diffusion 完成了新的學(xué)習(xí)。
最初,Dreambooth 其實(shí)跟 Stable Diffusion 沒(méi)有任何關(guān)系,而且谷歌為了防止被濫用而屏蔽了 Dreambooth 的代碼。但在公布不久之后,就有人主動(dòng)把 Dreambooth 跟 Stable Diffusion 結(jié)合了起來(lái),并將其代碼作為開源項(xiàng)目免費(fèi)發(fā)布。
從那時(shí)起,Dreambooth 開始成為 Stable Diffusion 學(xué)習(xí)全新藝術(shù)風(fēng)格的重要“家教”。用戶們?cè)诰€上存儲(chǔ)庫(kù)里分享自己的 Dreambooth 微調(diào)模型,并供其他人下載以快速獲得類似的視覺效果。
但從一開始,谷歌研究人員就知道這種技術(shù)完全可以用到人身上,而麻煩也將隨之而來(lái)。因此他們?cè)诠?Dreambooth 時(shí),使用的是柯基犬的圖像。但這點(diǎn)小心思當(dāng)然躲不過(guò)評(píng)判者的法眼,《麻省理工科技評(píng)論》批評(píng)稱,AI 科學(xué)家顯然是在用這種消極的方式回避其成果所帶來(lái)的潛在負(fù)面影響。
用 AI“打敗”AI
未來(lái),也許會(huì)有新的技術(shù)手段來(lái)防范這種照片濫用。例如,法律可能要求未來(lái)的 AI 圖像生成器在輸出中嵌入肉眼不可見的水印,以供日后檢驗(yàn)。
比如,Stable Diffusion 就默認(rèn)嵌入水印,但開源版本的用戶可以刪除或禁用水印組件來(lái)解決問(wèn)題。不過(guò),即使法律強(qiáng)制要求,市面上也還有其他不加水印的 Deepfakes 技術(shù)存在。
最近,麻省理工學(xué)院的研究人員公布了 PhotoGuard 對(duì)抗方法,能用一種不可見的方法巧妙修改照片,借此防止 AI 操縱現(xiàn)有圖像。但其目前只適用于 AI 編輯(即「修改」),而非圖像訓(xùn)練或生成。
另外,時(shí)間也許能解決一切。隨著人們對(duì)偽造圖像認(rèn)知的增強(qiáng),社會(huì)文化最終也許能夠消化掉這些新問(wèn)題。我們會(huì)慢慢接受這樣一種新的媒體呈現(xiàn)方式,并開始關(guān)注照片是否擁有可信來(lái)源。但在適應(yīng)新形勢(shì)之前,AI 合成的偽造品肯定會(huì)造成一段時(shí)期的混亂。