對抗你的聲音被Deepfake!AntiFake技術可以防止你的聲音被AI深度偽造

2023-12-11 21 12/11
對抗你的聲音被Deepfake!AntiFake技術可以防止你的聲音被AI深度偽造

Deepfake 人工智慧系統最險惡的功能之一是能夠複製一個人的聲音,即使只是一段簡短的錄音。人們聲音的深度偽造版本以及偽造的視訊可以用來使其聽起來和看起來好像政客或名人說了一些他們實際上從未說過的話。此外,還有一些情況是,人們接到詐騙電話,其中朋友或家人的深度偽造聲音要求他們因某種緊急情況盡快匯款。 此外,複製的聲音可用於繞過語音識別安全系統。

然而,一種名為 AntiFake 的新軟體工具可以幫助防止這種情況發生。

對抗你的聲音被Deepfake!AntiFake技術可以防止你的聲音被AI深度偽造

已經有技術可以確定所謂的聲音是否是深度偽造的,AntiFake 是最早阻止此類偽造聲音產生的系統之一。 簡而言之,它是透過讓人工智慧系統更難讀取真人聲音錄音中的關鍵聲音特徵來實現這一點。

對抗你的聲音被Deepfake!AntiFake技術可以防止你的聲音被AI深度偽造

「該工具使用了一種對抗性人工智慧技術,該技術最初是網路犯罪分子工具箱的一部分,但現在我們反過來用它來防禦他們。」發明者、聖路易華盛頓大學電腦科學與工程助理教授張寧說。

 「我們只是稍微弄亂了錄製的音訊訊號,對其進行扭曲或擾動,使其對人類聽眾來說仍然聽起來不錯,但這與人工智慧感知到的完全不同。」

這意味著,即使深度偽造是根據經過 AntiFake 修改的錄音建立的,它聽起來也不會像說話者的實際聲音。 迄今為止進行的測試表明,該技術在防止合成令人信服的深度贋品方面的有效性超過 95%。

張說:「雖然我不知道人工智慧語音技術的下一步會是什麼——新的工具和功能一直在開發——但我確實認為我們利用對手的技術來對抗他們的策略將繼續有效。」

任何需要的人都可以免費獲得防偽程式碼:

https://sites.google.com/view/yu2023antifake

 

  • 延伸閱讀:英特爾推出即時Deepfake檢測器,聲稱準確率達96%
  • 延伸閱讀:SBF傳影片給你說他破產了但沒有輸「想教你一個賺錢的方法」,Deepfake升級的詐騙術
  • 延伸閱讀:DeepFake換臉詐騙要怎麼破解?叫他「向左向右~轉」