現代AI技術的發展突飛猛進,以前隻能在電影中看到的畫面,如今也開始逐漸出現實生活中。

但在AI迅速發展的背後,也暗藏著許多嚴重的安全隱患。

如果有一天,你發現自己的臉出現在別人的身體上,Ta還做出瞭一些奇奇怪怪的舉動,你會怎麼想?

AI換臉,實際上已經是一個發展得比較成熟的技術瞭。

其中最出名的工具,還是要屬DeepFake。

DeepFake自誕生起,就被大量用來制作假新聞和惡作劇,當然也包括虛假的換臉色情視頻。

不過,使用DeepFake需要一定的技術門檻,所以並沒有被大范圍應用。

於是,許多開發者盯上瞭AI換臉技術的潛在市場,先後推出瞭面向大眾的“簡易版本”的AI工具。

各位還記得去年擴展迷曾報道過的“AI一鍵脫衣”軟件——DeepNude嗎?

2019年6月,一名程序員開發的一款名為DeepNude的應用在海內外爆紅。

用戶隻需要上傳一張女性照片,DeepNude就能借助神經網絡技術,自動“脫掉”女性身上的衣服,並填補出裸體。

有媒體測試瞭Taylor Swift等女星的照片,DeepNude都成功通過AI算法用裸露的器官和皮膚替換掉瞭人物身上的衣物。

DeepNude操作起來比Deepfakes簡單太多,因此該軟件在發佈後幾小時內,便因訪問請求過大迅速宕機。

其實,這些偽造的圖片細節上經不起推敲,遠不如精心PS的效果。

但是從某種程度上來說,DeepNude卻相當於DeepFakes技術的進化版。

因為它的操作更簡單,處理速度更快,用戶隻需點擊一下就能在30秒內獲得一張“真實”色情圖片。

如果它被有心人利用,可能引發更多的惡劣後果。

不出意外,DeepNude一經曝光後網上便開始流傳大量女星裸體的虛假照片,該軟件也迅速遭到全球輿論的抨擊。

有專業人士稱,“這項技術是非常可怕的,現在任何人都可能成為受害者,即使她並沒有拍過裸照。這種技術不應該向公眾開放。”

一方面,它侵犯瞭照片本人的隱私;另一方面,它還可能成為不法之徒敲詐勒索、人身攻擊的工具。

而在國內的社交平臺上,對於DeepNude的出現同樣是一面倒的罵聲。

當時,面對這些質疑,DeepNude的開發者Alberto卻認為,技術無罪。

“我認為用DeepNude做的,用PS同樣可以做到,”他說,“並且DeepNude不會自己散播圖像,隻有創建瞭這些圖像的用戶才會用來做壞事。”

Alberto還表示,“技術已經發展到這一步瞭,如果我不這樣做,別人也會在一年內做出來。”

盡管如此,就在發佈後的第二天,DeepNude還是在批評聲中宣告下線瞭。

開發者Alberto在推特上承認人們濫用它的概率太高,並表示這款軟件被如此廣泛的傳播也是他始料未及的,因此不會再發佈其他版本,也沒有其他人可以使用該技術。

至此,DeepNude事件還並沒有結束。

因為DeepNude下架後,其源代碼仍可在各種torrent網站和開放源代碼存儲庫中找到。

近日,美國阿姆斯特丹的網絡安全公司Sensity就調查發現,這款軟件再次出現在瞭即時通訊軟件Telegram中。

這次,它具有更簡單的操作界面:任何人都可以通過Telegram向該機器人發送真人照片,並在幾分鐘之內收到一張生成的虛假裸照。

該服務也是完全免費的,不過用戶在生成裸照後,需要支付1.28美元才可以獲得無水印圖片,開發者便以此獲利。

Sensity推測,Telegram機器人可能使用的正是DeepNude的算法。

調查結果顯示,截止目前,該軟件在TeleGram平臺已經公開發佈瞭約104852名女性的色情圖片。

而該機器人在宣傳網站聲稱,截至10月22日,其已經制作瞭70萬張色情圖片。

這個數字,還不包括其成員私下分享傳播的圖片。

而這些受害者70%都是來自社交平臺(TikTok、Instagram、Facebook等)上的普通女性,她們分佈於阿根廷,意大利,俄羅斯和美國。

更重要的是,其中還包括未成年人。

據調查,這個機器人於2019年7月11日發佈,目前已連接到七個Telegram頻道。

它在全球擁有103585名用戶,有70%在俄羅斯和東歐片區,阿根廷,意大利和美國也有數名用戶。

在發現此事後,Sensity公司迅速公開瞭相關調查數據,執法部門也介入並展開瞭調查。

不過,Telegram一直未就此事給出公開答復。

如今,AI生成虛假內容越來越方便,DeepNude這類技術目前還處於法律的灰色地帶,本文中的例子隻是冰山一角。

技術是一把雙刃劍,良性的應用才能讓這個世界更加美好。

要想關上潘多拉的魔盒,需要制度的約束和人心向善的引導。

誰的身邊都有女性親人好友,而這項技術的錯誤應用則會導致她們受到潛在的傷害和威脅。

技術雖無罪,但技術的運用仍然需要遵守法律和道德的底線。