国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用AI對抗AI——基于視頻人臉篡改的檢測

Hf1h_BigDataDig ? 來源:YXQ ? 2019-07-16 10:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

還記得權(quán)力的游戲第八季么? Jon Snow也加入了千萬罵編劇的粉絲的陣營,并且因此向粉絲道歉。

這個視頻當然是假的,他嘴巴的移動方式看起來就很奇怪。

這是一個DeepFake生成的視頻,一個用來娛樂或欺騙大眾人工智能產(chǎn)物。

之前文摘菌也報道過,這項技術(shù)的上線后就廣受詬病,后來又有一個小團隊開發(fā)出一款新的應用DeepNude,可以一鍵實現(xiàn)脫衣,之后也因為反響惡劣而被迫下架。

人們對于無法分辨真假的恐懼是合理的,畢竟這種技術(shù)的出現(xiàn)將會滋生出許多想象不到的新的犯罪手段的誕生。

最近,南加州大學信息科學研究所計算機的研究人員發(fā)表一篇論文,研究通過訓練AI尋找視頻畫面中的不一致性來檢測AI生成的假視頻,論文同時也被提交到CVPR 2019。

用AI對抗AI,來看看如何實現(xiàn)

對于偽造生成的假視頻,研究人員發(fā)現(xiàn),用于生成虛假視頻的主流AI模型(以及其他方法,如2016年的Face2Face程序),都是通過逐幀修改視頻且并不注意時間的連貫性。這會使得生成視頻中的人物移動看起來非常笨拙,人們通常會注意到這類奇怪的動作。

為了實現(xiàn)找出奇怪動作這一過程的自動化,研究人員首先要訓練一個神經(jīng)網(wǎng)絡(luò)—這種人工智能程序以個人的海量視頻為基礎(chǔ),可以用來“學習”人類在說話時如何移動的重要特征。

然后,研究人員使用這些參數(shù)將偽造視頻的堆疊幀輸入AI模型,以檢測視頻隨時間的不一致性。根據(jù)該論文,這種方法可以判斷“AI偽造視頻”,準確率超過90%。

研究人員使用的模型是一個遞歸卷積模型(Recurrent convolutional model),這個深度學習模型能夠很好的提取到視頻中的信息。

整個過程分為兩步:

將視頻中的人臉進行裁剪對齊

對于獲取人臉區(qū)域,研究人員使用由FaceForensics++提供的模型。

論文鏈接:

https://arxiv.org/abs/1901.08971

研究人員嘗試了兩種人臉對齊技術(shù)的結(jié)合:

顯式使用面部坐標對齊,在參考坐標系中,人的面部是先天決定的,所有的面孔是使用同一個參考坐標系;

隱式排列對齊,使用STN。

在后一種情況下,網(wǎng)絡(luò)根據(jù)輸入圖像預測對齊參數(shù),因此可能學會縮放人臉的特定部分,必要時可將訓練集中的預期損失最小化。

在這兩種情況下,核心思想都是我們希望循環(huán)卷積模型將人臉“tubelet”作為輸入,這是一個跨越視頻幀的時空緊密對齊的人臉序列。

所有篡改類型的檢測精度。結(jié)果表明,采用線性和雙向遞歸網(wǎng)絡(luò)的DenseNet性能最好

基于視頻人臉篡改的檢測

對于人臉篡改的檢測,我們使用一個類似于用于視覺識別的Long-term循環(huán)卷積網(wǎng)絡(luò)。

論文鏈接:

https://arxiv.org/abs/1411.4389

其中輸入是來自查詢視頻的幀序列,這個模型背后是在利用跨幀的時間差異。由于篡改是在逐幀的基礎(chǔ)上進行的,研究人員認為圖像中會存在時間差異。因此,由對人臉的篡改引起的低層次的差別則有可能表現(xiàn)為跨幀不一致特性的時間差異。

骨干網(wǎng)絡(luò)(Backbone encoding network)

在實驗中,研究人員探索了ResNet和DenseNet兩種架構(gòu)作為模型的CNN分量。

無論采用何種架構(gòu),首先對主干網(wǎng)絡(luò)進行FF++訓練分割,使交叉熵損失最小化,進行二值分類,形成特征,從合成人臉中識別真實人臉。然后用RNN對Backbone進行擴展,最后在多種策略下形成端到端訓練。

RNN的訓練策略

研究人員使用放置在骨干網(wǎng)絡(luò)不同位置的多個循環(huán)模型進行實驗:用它將骨干網(wǎng)絡(luò)連接在一起,用來進行特征學習,將特征傳遞給隨時間推移聚合輸入的RNN。

在這里研究人員也嘗試了兩種策略:一是在骨干網(wǎng)的最終特性基礎(chǔ)上,簡單地使用單一的遞歸網(wǎng)絡(luò);二是嘗試在骨干網(wǎng)結(jié)構(gòu)的不同層次上訓練多個遞歸神經(jīng)網(wǎng)絡(luò)。

所有篡改類型的ROC曲線。每一行對應一個不同的篡改類型。左列為線性圖,右列為線性對數(shù)圖

希望能從源頭阻止deepfake假視頻

研究的共同作者Wael AbdAlmageed表示,這種模式可以被社交網(wǎng)站和視頻網(wǎng)站用于大規(guī)模識別deepfake假視頻,因為它不需要通過“學習”特定個體的關(guān)鍵特征來進行識別,而是通用的。

“我們的模型對于任何人來說都是通用的,因為我們不關(guān)注某個人的身份,而是關(guān)注面部運動的一致性,”AbdAlmageed說,“我們將發(fā)布自己的模型,所以社交網(wǎng)絡(luò)無需訓練新的模型。網(wǎng)站只需要在其平臺中加上該檢測軟件,以檢查上傳到平臺的視頻是否為deepfake生成的假視頻?!?/p>

機器學習的出現(xiàn)讓造假的成本逐漸變低,很多玩火不嫌事大的開發(fā)者還開發(fā)出許多不需要寫代碼直接可以造假的小軟件,盡管他們不一定是出于惡意,但是不排除軟件最后被用到“作惡”的地方。

雖然還有許多方法可以反“AI造假”(例如在拍攝圖片時生成"噪聲水印"),但利用AI來識別AI造假,并且將這項技術(shù)加載到視頻網(wǎng)站的審查過程中,那么從源頭大規(guī)模地阻止假視頻流向公眾,或許可以成為現(xiàn)實。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39776

    瀏覽量

    301373
  • DeepFake
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    7036

原文標題:解鈴還須系鈴人!南加大訓練AI檢測Deepfake“假視頻”,準確率超90%

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用NORDIC AI的好處

    運動/手勢識別、可穿戴健康監(jiān)測、預測性維護、樓宇與工業(yè)傳感網(wǎng)絡(luò)本地分析、聲音/關(guān)鍵詞/圖像識別等,都有官方明確提到的典型例。[Unlock Edge AI 博客; Nordic Edge AI 技術(shù)頁]
    發(fā)表于 01-31 23:16

    瑞芯微SOC智能視覺AI處理器

    。B2版本通常在功耗、穩(wěn)定性和部分外圍接口支持上有所優(yōu)化。NPU: 集成0.8 TOPS的NPU,支持INT8/INT16混合運算,能滿足大多數(shù)邊緣側(cè)的輕量級AI推理需求(如分類、檢測、識別)。多媒體
    發(fā)表于 12-19 13:44

    【CPKCOR-RA8D1】關(guān)于AI人臉檢測移植遇到的一些問題

    + CPKEXP-EKRA8X1 擴展板(OV7725 攝像頭、4.5\" MIPI-DSI 屏)。 移植詳情【CPKCOR-RA8D1】AI人臉檢測 - 瑞薩單片機論壇 - 電子技術(shù)論壇 - 廣受歡迎的專業(yè)
    發(fā)表于 10-31 13:39

    【CPKCOR-RA8D1】AI人臉檢測

    在瑞薩 RA8D1 開發(fā)板上集成 AI 人臉檢測功能 1. 項目概述 該項目是根據(jù)官方AI人臉檢測
    發(fā)表于 10-29 17:59

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    是一種快速反應能力,是直接的感知;靈感是一種通過思考和探索獲得的創(chuàng)造性想法,是一種創(chuàng)意。 AI怎么模擬直覺與靈感呢?四、AI代替人類的假說 這可能嗎? 機器來生成假說: 1、直接生成 生成式
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    想到,除了研究大腦的抽象數(shù)學模型外,能否拋棄傳統(tǒng)的芯片實現(xiàn)方式,以化學物質(zhì)和生物組件、材料及相關(guān)現(xiàn)象來構(gòu)建人工神經(jīng)網(wǎng)絡(luò)或提取其功能來用于AI處理,甚至直接生物體來實現(xiàn)AI功能,這就是從AI
    發(fā)表于 09-06 19:12

    RK3576助力智慧安防:8路高清采集與AI識別

    框架實現(xiàn)高質(zhì)量采集與拼接。 ? AI視頻識別與行為分析:內(nèi)置AI推理引擎(支持RKNN),可實現(xiàn)人臉識別、車牌識別、行為分析等功能。 ? 多種顯示與推流方式:支持HDMI、DP、MIP
    發(fā)表于 08-22 17:41

    【Milk-V Duo S 開發(fā)板免費體驗】人臉檢測

    多張人臉識別 針對畫面中存在多張人臉的情況進行測試 識別效果較好,速度較快。 同時終端輸出檢測到的人臉數(shù)量 動態(tài)效果見底部視頻。 總
    發(fā)表于 07-27 16:53

    【Milk-V Duo S 開發(fā)板免費體驗】人臉檢測測試(視頻)

    運行/mnt/system/usr/bin/ai/sample_vi_fd /mnt/cvimodel/scrfd_768_432_int8_1x.cvimodel 檢測人臉時打印 視頻
    發(fā)表于 07-11 22:33

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】視頻會議場景下的 AI 應用(電子云臺 EPTZ、人像居中 / 追蹤、畫中畫)

      近幾年由于各種原因,很多的會議都轉(zhuǎn)到了線上,各種視頻會議軟件用戶也都呈幾何倍數(shù)增長。   視頻會議場景下,對于音視頻處理都有一定要求,AI 時代下,人們已經(jīng)不僅僅滿足于聽的到,看的
    發(fā)表于 07-09 20:56

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】AI 算法模型(人臉檢測、軀干檢測、車牌識別)

    K230D 支持多種 AI 應用,并且內(nèi)置于 CanMV 鏡像中,分為單模型應用和多模型應用兩種,內(nèi)容涵蓋物體、人臉、人手、人體、車牌、OCR、音頻(KWS、TTS)等多個應用領(lǐng)域。 這里選擇幾種
    發(fā)表于 07-05 00:52

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】03 攝像頭調(diào)用+AI人臉檢測

    aidemo.face_det_post_process() 將模型輸出結(jié)果轉(zhuǎn)換為人臉檢測框。 內(nèi)部實現(xiàn)解碼 Anchor;根據(jù)置信度篩選;執(zhí)行 NMS 去重。 2.5 nncase_runtime 支持 AI2D 格式、推理
    發(fā)表于 07-01 22:43

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】人臉檢測、手勢識別、車牌識別

    API . 人臉檢測 人臉檢測應用對視頻中每一個人臉檢測
    發(fā)表于 06-30 20:44

    《DNESP32S3使用指南-IDF版_V1.6》第五十八章 人臉檢測實驗

    監(jiān)控和跟蹤。人臉檢測技術(shù)通過使用算法自動搜索圖像/視頻幀中的人臉,判斷是否存在人臉,并返回人臉
    發(fā)表于 03-24 09:34

    《DNESP32S3使用指南-IDF版_V1.6》第五十七章 樂鑫AI庫簡介

    第五十七章 樂鑫AI庫簡介 樂鑫的ESP-WHO庫是一個基于樂鑫芯片的圖像處理開發(fā)平臺,其中包括了實際應用中可能出現(xiàn)的開發(fā)示例,如人臉檢測、人臉識別、貓臉
    發(fā)表于 03-21 09:47