首頁>生活 >
Deepfake 正在盜用自拍照 一鍵脫掉女性衣服 2020-10-23 16:10:03  來源:雷鋒網(wǎng)

還記得 “一鍵脫衣 AI”DeepNude 嗎?

去年 6 月,這款深度造軟件發(fā)布僅幾個小時便因訪問請求過大迅速宕機,而其原因是它可以一鍵脫掉女性衣服,制造大量色情圖片。

近日,據(jù)調(diào)查發(fā)現(xiàn),這款色情的軟件再次出現(xiàn)在了即時消息應用程序——Telegram 中。

截止目前,該軟件在 TeleGram 平臺已經(jīng)公開發(fā)布了約 104,852 張色情圖片,這一數(shù)據(jù)還不包括私下分享傳播的圖片。更重要的是,這些圖片 70% 全部來自社交網(wǎng)絡中的真實女性,甚至包括未成年人。

也就是說,日常在 Facebook、微博等社交媒體中分享的自拍照,很可能會被人用來生成 “果照”。

DeepNude 盯上了 “可能認識的人”

這項調(diào)查來自美國阿姆斯特丹的網(wǎng)絡安全公司 Sensity,這家公司專注于所謂的 “視覺威脅情報”,尤其是那些深度造假視頻的傳播。他們調(diào)查發(fā)現(xiàn),截至 7 月底,Telegram 平臺七個主要頻道均在使用 DeepNude 軟件。

該軟件吸引了全球 103585 名用戶,其中用戶最多的頻道有 45,615 人。這些用戶大部分聚集在俄羅斯及東歐周邊地區(qū)。

據(jù)了解,這款軟件爆火的原因有三點。一是操作非常簡單,只需要一張照片,上傳至軟件后,幾秒就可以自動生成裸照,不需要任何技術(shù)知識或者專門的硬件支持。

二是所有人免費使用。不過它也有盈利模式,未付費用戶獲得的裸照后會打上水印標簽或者只有局部裸露,用戶支付 1.28 美元才可以獲得無水印圖片,但使用權(quán)限僅限七天 100 張。

三是可以獲得熟悉的人的裸照。Deepfake 偽造色情視頻已經(jīng)屢見不鮮,主要以為名人為目標。但根據(jù)一項民意調(diào)查顯示,大多數(shù)用戶對 “現(xiàn)實生活中認識的女性”更感興趣,占比達到了 63%。

而 DeepNude 恰好提供了這樣的支持,任何用戶使用任何照片都可以生成裸照。

從 TeleGram 平臺的公開數(shù)據(jù)來看,許多照片中的女性都是普通上班族、大學生,而且這些照片都是來自 TikTok、Instagram、Facebook 等平臺的自拍照。

需要注意的是,這款深度造假軟件只針對女性。如果上傳一張男性或者其他任何無生命照片,系統(tǒng)也會自動被替換成女生的身體,并識別成相應的器官。

Sensity 首席科學家喬治 · 帕特里尼(Giorgio Patrini)介紹稱,目前已經(jīng)超過 680,000 名女性在未知情的情況下被偽造成了色情圖片,并上傳到了公共媒體平臺。

目前,Sensity 公司的相關(guān)調(diào)查數(shù)據(jù)已經(jīng)對外披露,相關(guān)執(zhí)法部門也對此展開了調(diào)查。而至此,為何允許該色情軟件出現(xiàn)在社交平臺中,Telegram 一直未給出公開答復。

另外,據(jù) Sensity 調(diào)查顯示,除了 Telegram 之外,另一家俄羅斯社交媒體平臺 VK 也發(fā)現(xiàn)了 DeepNude,而且它已經(jīng)開始公開為軟件打廣告。

不過,此事件一出后,相關(guān)負責人便立刻出面回應否認了這一說法。同時他強調(diào),

VK 不容忍平臺上出現(xiàn)此類內(nèi)容或鏈接,同時也會阻止分發(fā)它們的社區(qū)。另外,此類社區(qū)或鏈接并未使用 VK 廣告工具進行宣傳,我們也進行額外的檢查,并阻止不當內(nèi)容的出現(xiàn)。

創(chuàng)建者:我不是偷窺狂,只是出于獵奇心

然而,就是這樣一款色情造假軟件,它的創(chuàng)建初心竟然是出于好奇心和對技術(shù)的熱忱。

2019 年 6 月 27 日,DeepNude 軟件首次公開上線,隨后不久,系統(tǒng)就因為用戶訪問量過大而宕機。

但就是這幾個小時,這款針對女性的 “一鍵脫衣 AI”已經(jīng)在國內(nèi)外引起軒然大波。

有關(guān) “侵犯隱私、性別歧視”等指責聲在 Twitter、Reddit、微博等各大社交媒體平臺層出不窮。深度學習先驅(qū)吳恩達(Andrew Ng)還發(fā)推稱,DeepNude 是 “人工智能最令人惡心的應用之一”。

而對于外界的種種指責,它的開發(fā)者阿爾貝托(Alberto)卻公開回應稱:

“這個世界還沒為 DeepNude 做好準備!”“我不是偷窺狂。我是技術(shù)的愛好者”。

同時他強調(diào),“我不關(guān)心裸照之類的。有些人自己不想用,就想著讓別人也用不上,這很蠢。對技術(shù)知識的封堵和審查,是無法阻止它的擴散和傳播。”

據(jù)了解,Alberto 的研發(fā)靈感是來自某雜志上的一個 X 射線眼鏡。他對 AI 技術(shù)非常感興趣,當發(fā)現(xiàn) GAN 網(wǎng)絡能夠把白天照片編變成黑夜照片后,便意識到同樣利用 GAN 也可以將一張穿衣服的照片轉(zhuǎn)換成一張不穿衣服的照片。正是出于這樣的好奇,最終研發(fā)出了 DeepNude。

具體來說,DeepNud 是基于稱為 “pix2pix”的開源 “圖像到圖像翻譯”軟件構(gòu)建的,該軟件于 2018 年由加州大學伯克利分校的 AI 研究人員首次發(fā)現(xiàn)。其核心技術(shù) GAN 能夠通過識別真實圖像,創(chuàng)造自己的偽造品。比如將白天到夜晚的風景照片或從黑白變?yōu)槿噬?/p>

但不管是出于獵奇,還對技術(shù)研發(fā)的準確,這款軟件確實是濫用 AI 技術(shù)產(chǎn)生了惡劣的影響。如知名作家尼娜 · 揚科維奇(Nina Jankowicz)表示,DeepNude 對世界各地的女性都有巨大影響,尤其是在俄羅斯等社會較為保守的國家。如果公開發(fā)表令人信服但虛假的裸照,受害者可能會失去工作,或者面臨伴侶暴力。

Sensity 公司也表示,這些虛假的色情圖像或視頻很可能被用做勒索、騷擾的手段。

Deepfake 威脅,正在肆虐

不僅是 DeepNude,所有 Deepfake 軟件均是如此。

如波士頓大學法學教授 Danielle Citron 所說,“Deepfake 已經(jīng)成為了攻擊女性強有力的武器。"

Deepfake 深度造假軟件背后的核心技術(shù)都是生成式對抗網(wǎng)絡 GAN。GAN 通過生成器與鑒別器之間的相互 Battle 來生成逼真的虛假圖像、視頻或者語音。

自 2017 年,Deepfake 首次被用于制作色情視頻后——神奇女俠下海事件,社交網(wǎng)絡便開始大量充斥著此類視頻,據(jù)統(tǒng)計,在所有 Deepfake 創(chuàng)作的視頻中,色情視頻占據(jù)了 96%。隨著技術(shù)的不斷升級,Deepfake 的逼真程度已經(jīng)達到了肉眼難以分辨的地步,同時它也開始被應用到政治領(lǐng)域。如 Donald Trump、Barack Hussein Obama, Elon Musk 等名人政客的虛假換臉視頻已屢見不鮮。

據(jù)普林斯頓大學教授 Jacob Shapiro 最新研究結(jié)果顯示,2013 年至 2019 年期間,社交媒體已累計發(fā)起 96 次政治運動,而其中,93% 為原創(chuàng)內(nèi)容,86% 放大了已有內(nèi)容,74% 歪曲了客觀事實。而其目的多為詆毀政客、誤導公眾、激化矛盾等。

為了應對 Deepfake 軟件帶來的威脅和挑戰(zhàn),2019年,F(xiàn)acebook 斥巨資發(fā)起 “Deepfake 檢測挑戰(zhàn)賽”(Deepfake Detection Challenge,DFDC)。今年 Deepfake 檢測的識別準確率已經(jīng)達到了 82.56%。

除此之外,學術(shù)界以及其他企業(yè)團隊也在研發(fā) Deepfake 的檢測方式。但盡管檢測方式越來越多,準確度越來越高,制造虛假視頻的趨勢依然沒有得到很好的抑制。

究其原因,其一可能是 AI 生成虛假內(nèi)容越來越方便,如 DeepNude,只需要一張照片,人人都可以上手。而其二,如 Sensity 公司負責人所說,DeepNude 目前還處于法律的灰色地帶。

因此,要想關(guān)上 Deepfake 潘多拉的魔盒,需要制度的約束和人心向善的引導。

關(guān)鍵詞: deepfake

相關(guān)閱讀:
熱點
圖片 圖片