国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

「自行科技」一文了解生成式對抗網絡GAN

自行科技 ? 來源:自行科技 ? 作者:自行科技 ? 2022-09-16 09:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、什么是GAN網絡

生成式對抗網絡(Generative adversarial network, GAN)是一種深度學習模型,是近年來復雜分布上無監督學習最具前景的方法之一。

主要包含兩個模塊:生成器(Generator)和判別器(Discriminator)。生成器要不斷優化自己生成的數據讓判別器判斷不出來,判別器也要進行優化讓自己判斷得更準確。二者關系形成對抗,因此叫生成式對抗網絡。

二、 GAN的意義及用途

意義:GAN網絡可以幫助我們建立模型,相比于在已有模型上進行參數更新的傳統網絡,更具研究價值。同時,GAN網絡是一種無監督的學習方式,它的泛化性非常好。用途:(1)數據生成,主要指圖像生成。圖像生成:基于訓練的模型,生成類似于訓練集的新的圖片。

文本描述生成圖像:給定一個文本描述句,生成符合描述句內容的圖像。

(2)圖像數據增強:增強圖像中的有用信息,改善圖像的視覺效果。

(3)圖像外修復:從受限輸入圖像生成具有語義意義結構的新的視覺和諧內容來擴展圖像邊界。

(4)圖像超分辨率:由一幅低分辨率圖像或圖像序列恢復出高分辨率圖像。

(5)圖像風格遷移:通過某種方法,把圖像從原風格轉換到另一個風格,同時保證圖像內容沒有變化。

三、 GAN的發展

自2014年GAN的第一次提出,GAN在圖像領域、語音與自然語言處理(Natural language processing, NLP)領域以及其他領域開始快速發展,衍生出了一系列模型。其中,比較流行的有DCGAN(Deep convolutional generative adversarial networks),StyleGAN,BigGAN,StackGAN,Pix2pix,CycleGAN等。

DCGNN:這是第一次在GAN中使用卷積神經網絡(Convolutional neural network, CNN)并取得了非常好的結果。它是GAN研究的一個里程碑,因為它提出了一個重要的架構變化來解決訓練不穩定,模式崩潰和內部協變量轉換等問題。從那時起,基于DCGAN的架構就被應用到了許多GAN架構。StyleGAN:GAN研究領域的重大突破,在面部生成任務中創造了新紀錄。算法的核心是風格轉移技術或風格混合。除了生成面部外,它還可以生成高質量的汽車,臥室等圖像。BigGAN:用于圖像生成的最新進展,生成的圖像質量足以以假亂真,這是GAN首次生成具有高保真度和低品種差距的圖像。StackGAN:2017年,由“StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks”論文中提出。作者使用StackGAN完成文本到圖像的生成過程,并得到了非常好的結果。Pix2pix:對于圖像到圖像的翻譯任務,Pix2pix也顯示出了令人印象深刻的結果。無論是將夜間圖像轉換為白天的圖像還是給黑白圖像著色,或者將草圖轉換為逼真的照片等,Pix2pix都呈現出很好的效果。CycleGAN:將對偶學習與GAN進行結合,能將一類圖片自動轉化為另一類圖片。其中對偶學習是一種類似于雙語翻譯任務的雙重學習機制,利用原始任務和雙重任務之間的反饋信號對模型進行訓練。與輸入必須是成對數據的Pix2pix模型相比,CycleGAN對非成對數據也能進行訓練,更具普適性。

四、 GAN的網絡結構

在介紹GAN網絡結構之前,我們先了解兩個概念:生成器和判別器。

生成器:輸入為隨機數據,輸出為生成數據(通常是圖像)。通常這個網絡選用最普通的多層隨機網絡即可,網絡太深容易引起梯度消失或者梯度爆炸。判別器:我們把生成器生成的數據稱為假數據,對應的,來自真實數據集的數據稱為真數據。判別器輸入為數據(這里指代真實圖像和生成圖像),輸出是一個判別概率。需注意的是,這里判別的是圖像的真假,而非圖像的類別。輸入一個圖片后,我們并不需要確認這張圖片是什么,而是判別圖像來源于真實數據集,還是由生成器輸出得到。網絡實現同樣可用最基本的多層神經網絡。

bb7607ac7e3f45a7b627be478f55c561~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=XSCePeGgL%2Fils61w%2FwM2YlXaCTU%3D

圖1 GAN網絡結構

GAN 的主要思想就是在生成數據的過程中加入一個可以判斷真實數據和生成數據的判別器,使生成器和判別器相互對抗,判別器的作用是努力地分辨真實數據和生成數據,生成器的作用是努力改進自己從而生成可以迷惑判別器的數據。GAN的網絡結構如圖1所示。GAN網絡結構主要包含判別器D和生成器G,判別器D和生成器G通常由包含卷積或全連接層的多層網絡實現。判別器D:使用了混合整流器線性激活函數和sigmoid激活函數,輸入為真實數據x和生成器G輸出的假數據G(z)。目標是實現對數據來源的二分類判別:真(來源于真實數據的分布)或者假(來源于生成器的假數據G(z))生成器G:使用了maxout激活函數,輸入為隨機噪聲z。目標是使自己生成的假數據G(z)在D上的表現D(G(z)),和真實數據x在D上的表現D(x)一致。GAN的訓練包括兩個方面:最大化判別器分類準確率的判別器的參數和找到最大程度混淆判別器的生成器的參數。當更新一個模型生成器的參數時,另一個模型判別器的參數是固定的,反之亦然。通常是兩個網絡單獨且交替訓練,先訓練判別器,再訓練生成器,再訓練判別器,如此反復,直到達到納什均衡。

6dc17019175b4ac8a23857844b7c398b~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=fOusrrd58047vGm0V4AzJoBvohY%3D

圖2 生成器樣本示例

GAN網絡訓練用到的數據集:MNIST,the Toronto Face Database(TFD)和CIFAR-10數據集。圖2展示了經過訓練后從生成器中抽取的樣本示例,其中,最右邊的列顯示了鄰近樣本的最近訓練示例,以證明模型沒有記憶訓練集。樣本是公平隨機抽取,而不是精心挑選。圖2中,a)表示GAN網絡在MNIST數據集上的生成效果,b)表示GAN網絡在TFD數據集上的生成效果。c)和d)均表示GAN網絡在CIFAR-10數據集上的生成效果,只是c)中GAN網絡采取全連接模型,而d)中是卷積判別器和反卷積生成器。在使用GAN進行圖像生成任務時,比較典型的網絡結構有DCGAN網絡和基于先驗知識的StackGAN網絡。DCGAN將CNN與GAN進行了融合,利用CNN強大的特征提取能力來提高GAN的學習效果。DCGAN主要是在網絡結構上對 GAN 進行了改進。生成器相當于反卷積網絡,而判別器相當于卷積網絡。DCGAN的生成器網絡結構如圖3所示。

1ed704fcb2cd4b13b22cf8d3dc2f2351~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=JDbHAdZuTP%2ByMjRLlII9cUZ24%2Bk%3D

圖3 DCGAN生成器網絡結構

DCGAN網絡最先采用CNN結構實現GAN模型,介紹了如何使用卷積層,并給出一些額外的結構上的指導建議來實現。另外,它還討論如何可視化GAN的特征、隱空間的插值、利用判別器特征訓練分類器以及評估結果。關于DCGAN的應用主要集中在圖像處理方面,可以說這個模型是最典型、應用最廣泛的GAN變種模型。StackGAN是一種新的堆疊生成對抗網絡,用于從文本描述合成照片真實感圖像,其網絡結構如圖4。StackGAN首次從文本描述生成256×256分辨率的圖像,且生成的圖像具有照片般逼真的細節。StackGAN網絡結構分為兩個部分:Stage-ⅠGAN和Stage-ⅡGAN。 Stage-ⅠGAN:根據給定的文本描述,繪制對象的原始形狀和原始顏色,并根據隨機噪聲向量繪制背景布局,生成低分辨率圖像。生成器G0:首先是經過一個CA(調節增強技術)模塊,對文本嵌入進行降維。StackGAN沒有直接將降維后的文本嵌入作為condition,而是將它接了一個全連接層,并從得到的獨立的高斯分布中隨機采樣得到高斯條件變量。接著,將高斯條件變量與噪聲向量經過級聯得到的一組向量輸入到生成器中,然后,經過上采樣之后生成一張64*64的圖像。判別器D0:首先,文本嵌入經過一個全連接層被壓縮到128維,然后經過空間復制將其擴成一個4×4×128的張量。同時,圖像會經過一系列的下采樣到4×4。然后,圖像過濾映射會連接圖像和文本張量的通道。隨后,張量會經過一個1×1的卷積層去連接跨文本和圖像學到的特征。最后,會通過只有一個節點的全連接層去產生圖像真假的概率。

d86f744ed3b24a519e53b7a617100a96~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=XPAN687P4hLS4TCRll5hm9c6988%3D

圖4 StackGAN網絡結構

Stage-Ⅱ GAN:

修正第一階段低分辨率圖像的缺陷,通過再次文本描述來完成對象的細節,生成了高分辨率的真實感圖像。與通常的GAN不同,本階段不使用隨機噪聲。

生成器G:將第二階段生成器設計為一個具有殘差塊的編解碼網絡。Stage-Ⅰ GAN生成的64×64的圖片,加上對文本嵌入進行CA操作得到的高斯條件變量,與前一階段相似,高斯條件變量被擴成一個16×16×128的張量(綠色部分)。同時,由前一個GAN生成的64×64的圖像,會經過下采樣變成16×16(紫色部分)。連接圖像特征和文本特征后,經過殘差塊,再上采樣,生成圖片。判別器D:對于判別器,其結構類似于第一階段判別器,僅具有額外的下采樣塊。另外,為了明確地強制GAN更好地學習圖像和條件文本之間的對齊,我們在兩個階段都采用了匹配感知判別器。StackGAN訓練用到的數據集:CUB,Oxford-102和MS COCO數據集。圖5中a),b)和c)分別展示了基于這三個數據集的測試集,StackGAN網絡生成的圖像示例??傮w來說,StackGAN生成的高分辨率的圖像,細節信息較豐富,且能較好地反映相應的文本描述。

6a813559535946bf8203d46eead0e51f~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=HoMCC7vCBtxtt10aBraagn%2BQLng%3D

圖5 StackGAN網絡生成的圖像示例

五、 GAN的實際應用示例圖

(1)生成人臉:

fb74ae67eddd4a799f52035f9798ee7a~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=L8rW2B3THzmcP0ghTZrjuzkcWEs%3D

圖6 基于GAN方法生成人臉

(2)語義圖像-圖片轉化:

4ae1be5926364717b1c28c9b3797b00d~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=0D8Ush0PloJ1UnIKizN6N9uhayY%3D

圖7基于GAN方法將語義圖像轉化成圖片

(3)生成動漫人物形象:

72b4685c039c413e89e76dc3cc68c9ec~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=p%2FSgwFxDUZQlWJjN7rMs%2BMibS1M%3D

圖8基于GAN方法生成動漫人物

(4)路況預測:圖9中,奇數列顯示解碼圖像,偶數列顯示目標圖像:

25dc239df8f342ac8c1108be14968389~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=esrwokKvYpan9LdkokilKtJQRDg%3D

圖9基于GAN方法的路況預測結果

(5)人臉圖像修復:圖10中,依次顯示真實圖像,缺失圖像,修復圖像:

2dc8ed2df326433c96658e390cbf5b75~noop.image?_iz=58558&from=article.pc_detail&x-expires=1663895976&x-signature=9f766TwEUQANvaZsxm0ZCfFfMPc%3D

圖10基于GAN方法修復人臉圖像



審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5598

    瀏覽量

    124396
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    CHA8107-QCB兩級氮化鎵(GaN)高功率放大器

    CHA8107-QCB兩級氮化鎵(GaN)高功率放大器CHA8107-QCB 是 United Monolithic Semiconductors(UMS)推出的款兩級氮化鎵(GaN)高功率放大器
    發表于 12-12 09:40

    網絡接口:數字世界的“門鈴”,你了解多少?

    插上網線,連接Wi-Fi,可曾想過數據是如何在網絡世界穿梭的?今天,讓我們起揭開網絡接口的神秘面紗! 你是否曾好奇,當我們插上網線或連接Wi-Fi時,數據是如何在網絡世界中穿梭的?這
    發表于 11-26 18:53

    了解3C認證自我聲明制度

    、什么是3C認證自我聲明3C認證自我聲明(CCCSelf-Declaration),是國家市場監督管理總局自2019年起推行的新型管理方式。它允許部分低風險產品企業不再通過第三方認證機構發證,而是
    的頭像 發表于 11-11 11:58 ?1135次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>了解</b>3C認證自我聲明制度

    樂高化組裝,測試 | 云鎵GaN自動化雙脈沖測試平臺

    云鎵半導體樂高化組裝,測試|云鎵GaN自動化雙脈沖測試平臺作為種新型開關器件,GaN功率器件擁有開關速度快、開關損耗低等優點。當前不
    的頭像 發表于 11-11 11:47 ?791次閱讀
    樂高化組裝,<b class='flag-5'>一</b>鍵<b class='flag-5'>式</b>測試 | 云鎵<b class='flag-5'>GaN</b>自動化雙脈沖測試平臺

    不只有AI協作編程(Vibe Coding):生成系統級芯片(GenSoC)將如何把生成設計推向硬件層面

    但是否能將這種生成的、目標驅動的方法從軟件層向下延伸呢?這理念是否可以直接應用于硬件本身呢?通過GenSoC,開發者可用自然語言或高級模型描述系統行為,XMOS的工具鏈將自動生成
    的頭像 發表于 11-07 14:04 ?533次閱讀

    Leadway GaN系列模塊的功率密度

    場景提供高性價比的全國產解決方案。、功率密度提升的核心邏輯材料特性突破: GaN(氮化鎵)作為寬禁帶半導體,電子遷移率(2000cm2/Vs)和飽和漂移速度(2.5×10?cm/s)遠超傳統硅基器件
    發表于 10-22 09:09

    探索無限可能:生成推薦的演進、前沿與挑戰

    TL;DR 過去年間,生成推薦取得了長足的實質性進展,特別是在憑借大型語言模型強大的序列建模與推理能力提升整體推薦性能方面。基于LLM(Large Language Models, LLMs
    的頭像 發表于 10-20 16:42 ?6369次閱讀
    探索無限可能:<b class='flag-5'>生成</b><b class='flag-5'>式</b>推薦的演進、前沿與挑戰

    ALM(應用生命周期管理)解析:了解其概念、關鍵階段及Perforce ALM工具推薦

    什么是ALM(應用生命周期管理)?它遠不止是SDLC!了解其概念、關鍵階段以及如何借助Perforce ALM這類工具,實現端到端的可追溯性、加速發布并保障合規性。
    的頭像 發表于 09-19 11:03 ?1841次閱讀
    ALM(應用生命周期管理)解析:<b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>了解</b>其概念、關鍵階段及Perforce ALM工具推薦

    思必馳鳴智能客服大模型通過生成人工智能服務備案

    近日,江蘇網信發布新生成人工智能服務備案信息,其中,由思必馳控股子公司馳必準自主研發的鳴智能客服大模型通過《生成
    的頭像 發表于 09-16 18:08 ?1200次閱讀

    智能體化AI和生成AI的區別

    生成 AI 的核心是“生成內容” —— 比如用大模型寫報告,是對輸入指令的被動響應。而智能體化 AI(Agentic AI)的關鍵是 “自主決策”:它像個有經驗的助理,能感知環境、
    的頭像 發表于 08-25 17:24 ?1626次閱讀

    生成 AI 重塑自動駕駛仿真:4D 場景生成技術的突破與實踐

    生成AI驅動的4D場景技術正解決傳統方法效率低、覆蓋不足等痛點,如何通過NeRF、3D高斯潑濺等技術實現高保真動態建模?高效生成極端天氣等長尾場景?本文為您系統梳理AI驅動的4D場景生成
    的頭像 發表于 08-06 11:20 ?5144次閱讀
    <b class='flag-5'>生成</b><b class='flag-5'>式</b> AI 重塑自動駕駛仿真:4D 場景<b class='flag-5'>生成</b>技術的突破與實踐

    帶你了解嵌入主板

    嵌入主板是專為嵌入系統設計的計算機主板。它與我們常見的臺式機或筆記本電腦主板有著顯著的區別,核心在于它不是為了通用計算,而是為了執行特定任務而設計、集成到更大的設備或系統中。以下是嵌入主板
    的頭像 發表于 06-30 16:12 ?696次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>帶你<b class='flag-5'>了解</b>嵌入<b class='flag-5'>式</b>主板

    了解電壓諧波

    我們經常會聽到諧波,到底什么是諧波,怎么定義的?為什么要關注諧波?什么時候關注諧波?諧波如何計算或標準規定的諧波的算法是怎樣的?GB關于電壓諧波又是如何評估的?帶著諸多的問題,我們一起來了解。
    的頭像 發表于 06-28 17:23 ?4714次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>了解</b>電壓諧波

    谷歌新生成AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI 上推出新生成 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發表于 06-18 09:56 ?1091次閱讀

    ?Diffusion生成動作引擎技術解析

    Diffusion生成動作引擎 Diffusion生成動作引擎是種基于擴散模型(Diffusion Models)的
    的頭像 發表于 03-17 15:14 ?3044次閱讀