Deepfake 色情內容失控!

2023-10-18 167 10/18

新的研究表明,深度造假影片的數量正在激增,世界上最大的搜尋引擎正在將點擊量集中到數十個專門發布未經同意的造假影片的網站。

 

GOOGLE和微軟的搜尋引擎對深度偽造色情影片有問題。自從五年前深度造假出現以來,該技術一直被用來虐待和騷擾女性——利用機器學習在未經許可的情況下將某人的頭部變成色情內容。現在,在人工智慧技術的進步和不斷擴大的 Deepfake 生態系統的推動下,非自願的 Deepfake 色情影片的數量正在呈指數級增長。

一位獨立研究人員對非自願的深度偽造色情影片進行了一項新的分析,並與《連線》雜誌分享,該分析表明這些影片已變得多麼普遍。據該研究人員稱,過去七年中,至少有 244,625 個影片被上傳到專門或部分託管深度假貨色情影片的前 35 個網站。該研究人員要求匿名,以避免成為網路攻擊目標。

今年前 9 個月,網站上傳了 113,000 個視頻,比 2022 年全年上傳的 73,000 個視頻增加了 54%。分析預測,到今年年底,2023 年將製作更多視頻比每隔一年的總數還要多。

這些令人震驚的數字只是非自願深度造假問題的縮影——問題的整體規模要大得多,並涵蓋其他類型的操縱圖像。近年來出現了一個主要針對女性且在未經人們同意或不知情的情況下產生的深度偽造濫用行業。適用於靜態圖像的換臉應用程式以及只需點擊幾下即可在照片中「脫掉某人的衣服」的應用程式也非常引人注目。這些應用程式可能創建了數百萬張圖像。

「這是針對普通人、普通高中生、普通成年人的事情,它已經成為一種日常現象,」在賓州大學進行數位權利和網路性暴力研究的索菲·馬多克斯說。「如果我們能夠讓這些技術更難獲得,那將會產生很大的影響。煽動性犯罪不應該需要兩秒鐘。”

這項新研究重點介紹了 35 個不同的網站,這些網站專門託管深度偽造色情影片或將這些影片與其他成人材料合併在一起。(它不包括在社交媒體上發布的影片、私下分享的影片或經過處理的照片。)《連線》沒有命名或直接連結到這些網站,以免進一步提高其知名度。研究人員抓取了這些網站來分析深度造假影片的數量和持續時間,並研究了人們如何使用分析服務SimilarWeb找到這些網站。

許多網站明確表示他們託管或傳播 Deepfake 色情影片 - 通常在其名稱中包含“ deepfakes”一詞或其派生詞。排名前兩位的網站各包含​​ 44,000 個視頻,另外五個網站則託管超過 10,000 個深度偽造視頻。他們中的大多數有數千個視頻,而有些只列出了幾百個。研究人員分析的一些影片已被觀看數百萬次。

研究還發現另外 300 個一般色情網站以某種方式包含未經同意的深度偽造色情內容。研究人員表示,「洩漏」網站和轉發人們社群媒體圖片的網站也包含了深度偽造圖像。一家經營照片的網站聲稱,它有 35 萬張照片中的人物「脫光衣服」。

在線上測量深度偽造影片和影像的整體規模非常困難。追蹤內容在社群媒體上的共享位置具有挑戰性,而濫用內容也在私人訊息群組或封閉管道中共享,通常由受害者認識的人共享。9月,20多名11至17歲的女孩在西班牙阿爾門德拉萊霍鎮挺身而出,因為人工智慧工具在她們不知情的情況下被用來產生她們的裸照。

澳洲莫納什大學副教授 Asher Flynn 表示:「用於創建深度偽造的非自願色情圖像的人工智慧工具的可用性顯著增長,色情平台和非法在線網絡上對此類內容的需求也在增加。」 ,誰專注於人工智慧和技術促進的濫用。隨著新的生成式人工智慧工具的出現,這種情況只會增加。

 

許多創建深度偽造影片或圖像的網站和工具的入口網站都是透過搜尋。數百萬人被引導至研究人員分析的網站,其中 50% 至 80% 的人透過搜尋找到網站。透過搜尋尋找深度偽造影片很簡單,不需要人們對搜尋內容有任何特殊知識。

這個問題是全球性的。研究人員使用 VPN 在加拿大、德國、日本、美國、巴西、南非和澳洲測試了 Google 搜尋。在所有測試中,深度偽造網站都顯著地顯示在搜尋結果中。名人、主播和內容創作者經常成為影片的目標。Maddocks 表示,深度造假的傳播已成為“流行病”,這是2017 年 12 月第一批深度造假影片引起關注時許多研究人員首先擔心的問題。

 

自從創建深度偽造影片所需的工具出現以來,它們變得更容易使用,並且製作的影片的品質也得到了改善。圖像生成工具的浪潮還提供了創建更高品質的濫用圖像並最終創建影片的潛力。第一批深度偽造品開始出現五年後,第一部將共享偽造圖像定為犯罪的法律 才剛出台。

弗林表示,這些深度造假應用程式的激增,加上 Covid-19 時代對數位通訊的更大依賴,以及“法律和政策未能跟上步伐”,造成了一場“完美風暴”。

專家表示,除了新法律之外,還需要更好地進行技術教育,並採取措施阻止旨在造成傷害的工具的傳播。這包括託管網站和搜尋引擎的公司(包括Google和微軟的必應)所採取的行動。目前,《數位千禧年版權法》(DMCA) 投訴是女性必須從網站上刪除影片的主要法律機制。

Henry Ajder 是一位深度造假和生成人工智慧專家,他一直在監控 這些技術的傳播,他表示,這給人尋找深度造假色情影片、改變人們面孔的應用程式以及專門允許創建未經同意的圖像的工具的過程增加了更多「摩擦」。可以減少傳播。「這是為了盡可能讓別人更難找到它,」他說。他說,這可能是搜尋引擎降低了有害網站的排名,或是網路服務供應商封鎖了網站。「考慮到這些業務的數量和規模,以及平台的需求(歷史上從未認真對待這些問題)突然這樣做,很難感到真正樂觀,」阿傑德說。

Google發言人 Ned Adriance表示:「與任何搜尋引擎一樣,Google會對網路上存在的內容進行索引,但我們積極設計我們的排名系統,以避免用他們不想看到的意外有害或露骨內容來震驚人們。」刪除搜尋結果時的頁面。谷歌的支援頁面稱,人們可以要求刪除「非自願的虛假色情內容」。其刪除表單要求人們手動提交 URL 和用於查找內容的搜尋字詞。「隨著這個領域的發展,我們正在積極努力增加更多的保障措施,以幫助保護人們,基於我們為其他類型的非自願露骨圖像構建的系統,」阿德里安斯說。

 

微軟首席數位安全長 Courtney Gregoire 表示,該公司不允許深度造假,可以透過其網路 表格進行檢舉。「傳播未經同意的親密圖像 (NCII) 是對個人隱私和尊嚴的嚴重侵犯,對受害者造成毀滅性影響,」格雷瓜爾說。“微軟禁止在我們的平台和服務上進行 NCII,包括在未經受害者同意的情況下招攬 NCII 或提倡製作或重新分發親密圖像。”

雖然影片和圖片的數量持續激增,但對受害者的影響可能是持久的。「基於性別的網路騷擾對女性的言論自由產生了巨大的寒蟬效應,」馬多克斯說。根據《連線》報道,被 Deepfake 攻擊的 Twitch 女性主播明顯感受到了被侵犯、受到更多騷擾、浪費了時間,一些人表示,未經同意的內容已經傳給了家人。

莫納什大學教授弗林表示,她的研究發現,由於數位濫用,心理健康問題(例如焦慮、憂鬱、自殘和自殺)的「比例很高」。弗林說:“無論圖像是偽造的還是‘真實的’,對一個人的心理和身體健康以及他們的就業、家庭和社會生活的潛在影響可能是巨大的。”