作者:Frank Fang 來自大紀元 (強調我們的),
聯邦調查局警告公眾,犯罪分子正在拍攝社交媒體照片和視頻,以在性勒索計劃中製造深度造假。
該機構發出警告 公共服務聲明 6 月 6 日,提請注意惡意行為者如何利用由人工智能 (AI) 提供支持的圖像和視頻編輯工具來創建 deepfakes,這些偽造品是從其他良性內容創建的虛假媒體。
“FBI 繼續收到受害者的報告,包括未成年兒童和不同意的成年人,他們的照片或視頻被更改為露骨內容t,”該機構在警報中說。 “這些照片或視頻隨後會在社交媒體或色情網站上公開傳播,目的是騷擾受害者或進行性勒索。”
該機構指出,截至今年 4 月,它觀察到報告性勒索的受害者人數有所增加,虛假媒體使用“發佈在其社交媒體網站或網絡帖子上的內容,根據要求提供給惡意行為者,或捕獲在視頻聊天期間。”
通常,惡意行為者有兩種不同的需求,根據聯邦調查局的說法。 他們要么希望受害者提供金錢或禮品卡,以換取不與家人或社交媒體朋友分享虛假圖像或照片,要么讓受害者提供自己真實的性主題圖像或視頻。
因此,聯邦調查局敦促公眾在網上發布自己的照片和視頻時“謹慎行事”,包括社交媒體和約會應用程序。
“雖然在發布或分享時看似無害, 圖像和視頻可以為惡意行為者提供豐富的內容來進行犯罪活動,”該機構說。
該機構補充說:“內容創作技術的進步和在線可訪問的個人圖像為惡意行為者尋找和瞄準受害者提供了新的機會。” “這讓他們很容易受到尷尬、騷擾、勒索、經濟損失或持續的長期再次受害。”
FBI 分享了一份建議清單,包括要求父母監控孩子的在線活動,並經常在線搜索孩子的信息以了解哪些信息是公開的。
“考慮使用反向圖像搜索引擎來查找在您不知情的情況下在互聯網上流傳的任何照片或視頻,”一個推薦說。
其他建議包括在社交媒體帳戶上實施隱私設置,以及在接受好友請求和進行視頻聊天時謹慎行事。
警告
近年來,美國當局一直在發出有關 deepfake 技術的警告。
2022年6月,聯邦調查局 發出警告 關於越來越多的投訴報告稱,在遠程工作崗位的面試中使用深度偽造視頻來獲取敏感數據。
“這些報告中確定的遠程工作或在家工作職位包括信息技術和計算機編程、數據庫以及與軟件相關的工作職能。 值得注意的是,一些報告的職位包括訪問客戶 PII [personally identifiable information]、財務數據、公司 IT 數據庫和/或專有信息,” 該機構說 在公告中。
聯邦貿易委員會 (FTC) 發出消費者警示 3 月,提醒公眾犯罪分子一直在使用深度偽造音頻誘騙受害者相信他們的親人已被綁架。
“騙子可以使用 AI 克隆您所愛之人的聲音. 他所需要的只是一段你家人聲音的簡短音頻片段——他可以從網上發布的內容中獲得——以及一個語音克隆程序,”該委員會寫道。 “當騙子打電話給你時,他聽起來就像你的親人一樣。”
在這種情況下,聯邦貿易委員會要求人們掛斷電話,特別是如果來電者希望通過電匯、加密貨幣或禮品卡獲得付款。
“不要相信聲音。 打電話給據稱與您聯繫的人並核實故事。 使用您知道是他們的電話號碼。 如果您無法聯繫到您所愛的人,請嘗試通過其他家庭成員或他們的朋友與他們取得聯繫,”該委員會表示。
立法
5 月,眾議員 Joe Morelle (DN.Y.) 提出了一項法案,規定分享未經同意的性化深度偽造視頻是非法的。
該立法被稱為《防止親密圖像深度偽造法》(HR3106), 將禁止未經同意披露經過數字修改的親密圖像,並將共享這些圖像定為刑事犯罪。
“AI 生成和修改過的圖像的傳播可能會造成不可挽回的情感、經濟和聲譽傷害——不幸的是,女性受到的影響尤為嚴重,”Morelle 說 在一份聲明中 伴隨法案的介紹。
他補充說:“隨著人工智能不斷發展並滲透到我們的社會中,我們必須採取積極措施來打擊虛假信息的傳播並保護個人免受網絡危害。” “我很自豪能夠推出這項採取常識性步驟來保護他們隱私的立法,我期待著與我的同事合作,將其通過為法律。”
SAG-AFTRA 主席 Fran Drescher 對該立法表示讚賞。
“該法案將有助於遏制一種令人難以置信的破壞性做法,這種做法觸及個人隱私、安全和自主權的核心。 性虐待,無論是身體上還是數字上發生的,都不應作為‘個人表達’而被原諒或允許,而且絕不應該容忍,”他說 在一份聲明中.
德雷舍爾補充說:“Deepfakes是侵權、客觀化和剝削,必須被定為非法並受到法律的懲罰。 該法案是確保該技術不被用於造成傷害的有力步驟。”