免费少妇a级毛片,julia无码中文字幕在线,高清拍拍拍无挡视频免费1000,亚洲成av人电影网站

網絡上“AI名人”泛濫 深度偽造之惡何解?

分享到:
分享到:

網絡上“AI名人”泛濫 深度偽造之惡何解?

2024年12月16日 07:45 來源:錢江晚報
大字體
小字體
分享到:

  “張文宏”深夜帶貨,女孩照片被熟人“換臉”

  本報記者 朱高祥

  張文宏開始直播帶貨了?

  近日,不少網友發文稱,短視頻平臺上,疑似知名醫生張文宏正在售賣一種蛋白棒,家中老人信以為真而大量下單。但仔細辨認可以發現,帶貨視頻為AI合成。張文宏本人回應稱,這些假的AI合成信息就像蝗災一樣,一次又一次發生,像漫天飛過來的蝗蟲一樣害人。

  不僅是張文宏,網絡上的“AI名人”已成泛濫趨勢:“假靳東”迷倒一眾大媽、“假雷軍”辣評世間百態、“假拜登”宣布第三次世界大戰開始、“假馬克龍”直播回答“政府聘用滅霸”……

  而更早之前的韓國Deepfake(深度偽造)性犯罪事件,不僅讓韓國全體女性陷入“換臉恐慌”,更是引發全球關注,大眾擔心一種更廣泛的、充滿敵意的網絡環境開始滲入真實世界。

  人工智能方興未艾,公眾該如何面對新一代的“施虐者”?

  女孩照片被盜成色情視頻

  群組內容不堪入目

  河北保定女孩欣欣(化名)從未想過Deepfake會發生在自己身上。

  今年7月9日,正在刷抖音的欣欣突然收到了一條私信,被網友告知有自稱其男友的人在外網盜用她的照片后進行AI換臉并傳播。

  “我聽到這個消息之后有些震驚且不敢相信,但真的看到這些照片后,我感到無比憤怒。”欣欣告訴記者,對方不僅制作大量AI換臉的不良照片與視頻,還隨意泄露了自己的個人信息,包括網名、真名、年紀、學校、專業等等。

  欣欣隨后通過多個途徑進行了查證,這些照片和視頻均是對方從自己的小紅書搬運,經加工處理,制作出不堪入目的色情影像。欣欣第一時間選擇報警并咨詢律師,開始固定更多證據。

  “當天晚上8點多,我報警備案,當時我沒有排除熟人或者陌生人的各種可能性。后續我經過各種賬號套話,得知對方了解我的家屬關系等更隱私的信息,我就逐步縮小了嫌疑人范圍,心中也有了懷疑的對象。”欣欣隨后發布了一條僅對方可見的朋友圈,且把內容做了特殊標記,很快這條內容出現在外網。

  欣欣把這條直接證據交給了警方,不久后警方給出處理結果:對方因傳播淫穢物品,被處以行政拘留十日。

  “沒想到Deepfake離自己如此之近,更沒想到施害者就是身邊的熟人。”欣欣說,在處理這件事情的過程中,她了解到身邊有很多女孩子在遭受類似的事件,甚至更嚴重。她們被泄露個人隱私、被造謠、被AI換臉、被性騷擾等等。

  欣欣告訴記者,因為這段經歷,短暫接觸過幾個軟件,上面有成百上千的群組,群組里多的有上萬人,里面內容不堪入目,充斥著各種女生的AI換臉照片與視頻,以及污蔑、詆毀、造謠的話,惡心程度超出想象。

  “由于造謠成本低,他們甚至不需要完整圖片,只需要一張臉部圖片就能完成所有,而且很難被抓到,這使得他們更加肆意妄為。”欣欣說。

  普通人難識別深度偽造內容

  專家:請勇敢舉報

  正如欣欣所言,發生在身邊的Deepfake犯罪事件并非個案。

  由英文“deep machine learning”(深度機器學習)和“fake photo”(假照片)組合而成的Deepfake(深度偽造),能基于人類行為特征如面部、聲音等合成圖像、視頻、音頻。當前這一技術,正被濫用成為針對婦女暴力、詐騙犯罪的新前沿。

  據新華社報道,韓國教育部9月9日說,韓國今年已發生400多起涉及中小學生的相關案件,受害者累計超過600人。

  與此同時,韓國用戶使用的社交媒體Telegram上,被發現存在多個傳播和分享該類型色情內容的群聊,其中已知最大的一個聊天室成員超過22萬人。這類性犯罪事件的受害者人數尚難以統計。已知的被波及群體,包括女學生、女教師等,其中包含大量未成年人。

  近段時間,在一些國內的短視頻平臺上,除了“AI名人”,“AI接吻視頻”也十分流行。有博主宣稱只需要下載一個軟件,花費9.9元就可以完成。看著兩個毫無關系的照片人物“活生生”親吻擁抱在一起,不少網友直呼可怕。

  融力天聞律師事務所高級合伙人劉赤軍律師告訴記者,Deepfake之于視頻,就像Photoshop之于圖片,兩者都直觀沖擊了真實和虛擬之間的界限。但Deepfake能夠實現以極低的成本,制作出完全虛構又極其逼真的視頻。

  奇安信行業安全研究中心主任裴智勇表示,深度偽造,一般是指利用人工智能技術,生成高度逼真的視頻、音頻、圖片、文案等內容。這些內容多被用于網絡欺詐、制造謠言、擾亂公共秩序和生成各類色情內容。這些偽造內容大多使用了人工智能技術中的深度計算技術,識別難度很大。

  “讓普通人用肉眼或耳朵來識別深度偽造的視頻、音頻內容是不現實的,因為深度偽造本身就意味著難以識別,沒有經過專業訓練的普通人很難從技術角度識破深度偽造內容。”裴智勇說。

  在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現實,但這并不意味著對惡意造假者無計可施:“國內對于網絡色情視頻和圖片都有非常成熟的治理方法,即便不能用技術鑒別真偽,也可以從平臺一側阻止色情內容的傳播,定位色情內容的傳播源頭并實施打擊。”

  裴智勇提醒,在自拍、短視頻盛行的時代,當公眾遇到有人使用偽造視頻、音頻等內容對財產侵害、名譽損害時,最好的辦法還是及時報警或向平臺進行舉報,減少深度偽造內容帶來的影響。

【編輯:于曉】
發表評論 文明上網理性發言,請遵守新聞評論服務協議
本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

評論

頂部