<ins id="aazt7"><big id="aazt7"><button id="aazt7"></button></big></ins>
        <sub id="aazt7"></sub>
        <b id="aazt7"><tr id="aazt7"><var id="aazt7"></var></tr></b>
      1. <video id="aazt7"><input id="aazt7"></input></video>
      2. 網(wǎng)絡(luò)上“AI名人”泛濫 深度偽造之惡何解?

        分享到:
        分享到:

        網(wǎng)絡(luò)上“AI名人”泛濫 深度偽造之惡何解?

        2024年12月16日 07:45 來源:錢江晚報
        大字體
        小字體
        分享到:

          “張文宏”深夜帶貨,女孩照片被熟人“換臉”

          本報記者 朱高祥

          張文宏開始直播帶貨了?

          近日,不少網(wǎng)友發(fā)文稱,短視頻平臺上,疑似知名醫(yī)生張文宏正在售賣一種蛋白棒,家中老人信以為真而大量下單。但仔細辨認可以發(fā)現(xiàn),帶貨視頻為AI合成。張文宏本人回應(yīng)稱,這些假的AI合成信息就像蝗災(zāi)一樣,一次又一次發(fā)生,像漫天飛過來的蝗蟲一樣害人。

          不僅是張文宏,網(wǎng)絡(luò)上的“AI名人”已成泛濫趨勢:“假靳東”迷倒一眾大媽、“假雷軍”辣評世間百態(tài)、“假拜登”宣布第三次世界大戰(zhàn)開始、“假馬克龍”直播回答“政府聘用滅霸”……

          而更早之前的韓國Deepfake(深度偽造)性犯罪事件,不僅讓韓國全體女性陷入“換臉恐慌”,更是引發(fā)全球關(guān)注,大眾擔(dān)心一種更廣泛的、充滿敵意的網(wǎng)絡(luò)環(huán)境開始滲入真實世界。

          人工智能方興未艾,公眾該如何面對新一代的“施虐者”?

          女孩照片被盜成色情視頻

          群組內(nèi)容不堪入目

          河北保定女孩欣欣(化名)從未想過Deepfake會發(fā)生在自己身上。

          今年7月9日,正在刷抖音的欣欣突然收到了一條私信,被網(wǎng)友告知有自稱其男友的人在外網(wǎng)盜用她的照片后進行AI換臉并傳播。

          “我聽到這個消息之后有些震驚且不敢相信,但真的看到這些照片后,我感到無比憤怒。”欣欣告訴記者,對方不僅制作大量AI換臉的不良照片與視頻,還隨意泄露了自己的個人信息,包括網(wǎng)名、真名、年紀、學(xué)校、專業(yè)等等。

          欣欣隨后通過多個途徑進行了查證,這些照片和視頻均是對方從自己的小紅書搬運,經(jīng)加工處理,制作出不堪入目的色情影像。欣欣第一時間選擇報警并咨詢律師,開始固定更多證據(jù)。

          “當(dāng)天晚上8點多,我報警備案,當(dāng)時我沒有排除熟人或者陌生人的各種可能性。后續(xù)我經(jīng)過各種賬號套話,得知對方了解我的家屬關(guān)系等更隱私的信息,我就逐步縮小了嫌疑人范圍,心中也有了懷疑的對象?!毙佬离S后發(fā)布了一條僅對方可見的朋友圈,且把內(nèi)容做了特殊標記,很快這條內(nèi)容出現(xiàn)在外網(wǎng)。

          欣欣把這條直接證據(jù)交給了警方,不久后警方給出處理結(jié)果:對方因傳播淫穢物品,被處以行政拘留十日。

          “沒想到Deepfake離自己如此之近,更沒想到施害者就是身邊的熟人。”欣欣說,在處理這件事情的過程中,她了解到身邊有很多女孩子在遭受類似的事件,甚至更嚴重。她們被泄露個人隱私、被造謠、被AI換臉、被性騷擾等等。

          欣欣告訴記者,因為這段經(jīng)歷,短暫接觸過幾個軟件,上面有成百上千的群組,群組里多的有上萬人,里面內(nèi)容不堪入目,充斥著各種女生的AI換臉照片與視頻,以及污蔑、詆毀、造謠的話,惡心程度超出想象。

          “由于造謠成本低,他們甚至不需要完整圖片,只需要一張臉部圖片就能完成所有,而且很難被抓到,這使得他們更加肆意妄為?!毙佬勒f。

          普通人難識別深度偽造內(nèi)容

          專家:請勇敢舉報

          正如欣欣所言,發(fā)生在身邊的Deepfake犯罪事件并非個案。

          由英文“deep machine learning”(深度機器學(xué)習(xí))和“fake photo”(假照片)組合而成的Deepfake(深度偽造),能基于人類行為特征如面部、聲音等合成圖像、視頻、音頻。當(dāng)前這一技術(shù),正被濫用成為針對婦女暴力、詐騙犯罪的新前沿。

          據(jù)新華社報道,韓國教育部9月9日說,韓國今年已發(fā)生400多起涉及中小學(xué)生的相關(guān)案件,受害者累計超過600人。

          與此同時,韓國用戶使用的社交媒體Telegram上,被發(fā)現(xiàn)存在多個傳播和分享該類型色情內(nèi)容的群聊,其中已知最大的一個聊天室成員超過22萬人。這類性犯罪事件的受害者人數(shù)尚難以統(tǒng)計。已知的被波及群體,包括女學(xué)生、女教師等,其中包含大量未成年人。

          近段時間,在一些國內(nèi)的短視頻平臺上,除了“AI名人”,“AI接吻視頻”也十分流行。有博主宣稱只需要下載一個軟件,花費9.9元就可以完成??粗鴥蓚€毫無關(guān)系的照片人物“活生生”親吻擁抱在一起,不少網(wǎng)友直呼可怕。

          融力天聞律師事務(wù)所高級合伙人劉赤軍律師告訴記者,Deepfake之于視頻,就像Photoshop之于圖片,兩者都直觀沖擊了真實和虛擬之間的界限。但Deepfake能夠?qū)崿F(xiàn)以極低的成本,制作出完全虛構(gòu)又極其逼真的視頻。

          奇安信行業(yè)安全研究中心主任裴智勇表示,深度偽造,一般是指利用人工智能技術(shù),生成高度逼真的視頻、音頻、圖片、文案等內(nèi)容。這些內(nèi)容多被用于網(wǎng)絡(luò)欺詐、制造謠言、擾亂公共秩序和生成各類色情內(nèi)容。這些偽造內(nèi)容大多使用了人工智能技術(shù)中的深度計算技術(shù),識別難度很大。

          “讓普通人用肉眼或耳朵來識別深度偽造的視頻、音頻內(nèi)容是不現(xiàn)實的,因為深度偽造本身就意味著難以識別,沒有經(jīng)過專業(yè)訓(xùn)練的普通人很難從技術(shù)角度識破深度偽造內(nèi)容。”裴智勇說。

          在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現(xiàn)實,但這并不意味著對惡意造假者無計可施:“國內(nèi)對于網(wǎng)絡(luò)色情視頻和圖片都有非常成熟的治理方法,即便不能用技術(shù)鑒別真?zhèn)?,也可以從平臺一側(cè)阻止色情內(nèi)容的傳播,定位色情內(nèi)容的傳播源頭并實施打擊?!?/p>

          裴智勇提醒,在自拍、短視頻盛行的時代,當(dāng)公眾遇到有人使用偽造視頻、音頻等內(nèi)容對財產(chǎn)侵害、名譽損害時,最好的辦法還是及時報警或向平臺進行舉報,減少深度偽造內(nèi)容帶來的影響。

        【編輯:于曉】
        發(fā)表評論 文明上網(wǎng)理性發(fā)言,請遵守新聞評論服務(wù)協(xié)議
        本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
        未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
        Copyright ©1999-2024 chinanews.com. All Rights Reserved

        評論

        頂部

        无码一区二区三区久久精品色欲_免费国产一区二区不卡在线_欧美一级高清片在线观看_99国严欧美久久久精品l5l
          <ins id="aazt7"><big id="aazt7"><button id="aazt7"></button></big></ins>
            <sub id="aazt7"></sub>
            <b id="aazt7"><tr id="aazt7"><var id="aazt7"></var></tr></b>
          1. <video id="aazt7"><input id="aazt7"></input></video>
          2. 伊人久久大香线蕉AV色 | 日韩亚洲中文字幕永久在线 | 日本在线高清不卡免费播放 | 日本大道香蕉中文在线 | 亚洲制服丝袜中文字幕自拍 | 一本大道香蕉久在线播放29 |