国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

當前生成圖像最逼真的BigGAN被谷歌超越!造假效果更為逼真

傳感器技術 ? 來源:楊湘祁 ? 作者:電子發燒友 ? 2019-03-11 15:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當前生成圖像最逼真的BigGAN被超越了!

出手的,是谷歌大腦和蘇黎世聯邦理工學院。他們提出了新一代GAN:S3GAN。

它們生成的照片,都是真假難辨。

下面這兩只蝴蝶,哪只更生動?

兩張風景照片,哪張更真實?

難以抉擇也正常,反正都是假的。上面的照騙,都是左邊出自S3GAN,右邊的出自BigGAN之手。

它們還有更多作品:

至于哪些是S3GAN,答案文末揭曉。

肉眼難分高下,就用數據說話。跑個FID(Frechet Inception Distance)得分,分值越低,就表示這些照騙,越接近人類認識里的真實照片——

S3GAN是8.0分,而BigGAN是8.4分。新選手略微勝出。

你可還記得BigGAN問世之初,直接將圖像生成的逼真度提高了一個Level,引來Twitter上花樣贊賞?

如今它不止被超越,而且是被輕松超越。

“輕松”在哪呢?

S3GAN達到這么好的效果,只用了10%的人工標注數據。而老前輩BigGAN,訓練所用的數據100%是人工標注過的。

如果用上20%的標注數據,S3GAN的效果又會更上一層樓。

標注數據的缺乏,已經是幫GAN提高生成能力,拓展使用場景的一大瓶頸。如今,這個瓶頸已經幾乎被打破。

現在的S3GAN,只經過了ImageNet的實驗,是實現用更少標注數據訓練生成高保真圖像的第一步。

接下來,作者們想要把這種技術應用到“更大”和“更多樣化”的數據集中。

不用標注那么多

為什么訓練GAN生成圖像,需要大量數據標注呢?

GAN有生成器、判別器兩大組件。

其中判別器要不停地識破假圖像,激勵生成器拿出更逼真的圖像。

而圖像的標注,就是給判別器做判斷依據的。比如,這是真的貓,這是真的狗,這是真的漢堡……這是假圖。

可是,沒有那么多標注數據怎么辦?

谷歌和ETH蘇黎世的研究人員,決定訓練AI自己標注圖像,給判別器食用。

自監督 vs 半監督

要讓判別器自己標注圖像,有兩種方法。

一是自監督方法,就是給判別器加一個特征提取器 (Feature Extractor) ,從沒有標注的真實訓練數據里面,學到它們的表征 (Feature Representation) 。

對這個表征做聚類 (Clustering) ,然后把聚類的分配結果,當成標注來用。

這里的訓練,用的是自監督損失函數。

二是半監督方法,也要做特征提取器,但比上一種方法復雜一點點。

在訓練集的一個子集已經標注過的情況下,根據這些已知信息來學習表征,同時訓練一個線性分類器 (Linear Classifier) 。

這樣,損失函數會在自監督的基礎上,再加一項半監督的交叉熵損失 (Cross-Entropy Loss) 。

預訓練了特征提取器,就可以拿去訓練GAN了。這個用一小部分已知標注養成的GAN,叫做S2GAN。

不過,預訓練也不是唯一的方法。

想要雙管齊下,可以用協同訓練 (Co-Training) :

直接在判別器的表征上面,訓練一個半監督的線性分類器,用來預測沒有標注的圖像。這個過程,和GAN的訓練一同進行。

這樣就有了S2GAN的協同版,叫S2GAN-CO。

升級一波

然后,團隊還想讓S2GAN變得更強大,就在GAN訓練的穩定性上面花了心思。

研究人員說,判別器自己就是一個分類器嘛,如果把這個分類器擴增 (Augmentation) 一下,可能療效上佳。

于是,他們給了分類器一個額外的自監督任務,就是為旋轉擴增過的訓練集 (包括真圖和假圖) ,做個預測。

再把這個步驟,和前面的半監督模型結合起來,GAN的訓練變得更加穩定,就有了升級版S3GAN:

架構脫胎于BigGAN

不管是S2GAN還是S3GAN,都借用了前輩BigGAN的網絡架構,用的優化超參數也和前輩一樣。

不同的是,這個研究中,沒有使用正交正則化 (Orthogonal Regularization) ,也沒有使用截斷 (Truncation) 技巧。

△BigGAN的生成器和鑒別器架構圖

訓練的數據集,來自ImageNet,其中有130萬訓練圖像和5萬測試圖像,圖像中共有1000個類別。

圖像尺寸被調整成了128×128×3,在每個類別中隨機選擇k%的樣本,來獲取半監督方法中的使用的部分標注數據集。

最后,在128核的Google TPU v3 Pod進行訓練。

超越BigGAN

研究對比的基線,是DeepMind的BigGAN,當前記錄的保持者,FID得分為7.4。

不過,他們在ImageNet上自己實現的BigGAN,FID為8.4,IS為75,并以此作為了標準。

在這個圖表中,S2GAN是半監督的預訓練方法。S2GAN-CO是半監督的協同訓練方法。

S3GAN,是S2GAN加上一個自監督的線性分類器 (把數據集旋轉擴增之后再拿給它分類) 。

其中,效果最好的是S3GAN,只使用10%由人工標注的數據,FID得分達到8.0,IS得分為78.7,表現均優于BigGAN。

如果你對這項研究感興趣,請收好傳送門:

論文:

High-Fidelity Image Generation With Fewer Labels

https://arxiv.org/abs/1903.02271

文章開頭的這些照騙展示,就出自論文之中:

第一行是BigGAN作品,第二行是S3GAN新品,你猜對了嗎?

另外,他們還在GitHub上開源了論文中實驗所用全部代碼:

https://github.com/google/compare_gan

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6254

    瀏覽量

    111371
  • 圖像
    +關注

    關注

    2

    文章

    1096

    瀏覽量

    42326

原文標題:史上最強GAN被谷歌超越!標注數據少用90%,造假效果卻更逼真

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    融合多場耦合效應:生成式人工智能技術演進及其在航空發動機復雜工程系統中的賦能機制研究

    人工智能技術正經歷著從感知智能向生成智能、再向代理智能與物理智能演進的深刻變革。在這一進程中,生成式AI技術的突破性發展尤為引人矚目,其不僅能夠在自然語言處理和計算機視覺領域生成高度逼真的
    的頭像 發表于 02-26 10:07 ?350次閱讀
    融合多場耦合效應:<b class='flag-5'>生成</b>式人工智能技術演進及其在航空發動機復雜工程系統中的賦能機制研究

    谷歌評論卡,碰一碰即可完成谷歌評論 #谷歌評論卡 #NFC標簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發布于 :2026年01月15日 17:02:00

    量子、雷達、生物醫學…復雜信號如何精準生成?答案在這臺“信號引擎”

    在量子精密操控與復雜雷達仿真的前沿,任意波形發生器(AWG)正成為定義信號的核心引擎。本文將解析AWG在驅動量子比特操控、生成逼真假目標回波及生物醫學信號仿真。
    的頭像 發表于 12-24 12:29 ?130次閱讀
    量子、雷達、生物醫學…復雜信號如何精準<b class='flag-5'>生成</b>?答案在這臺“信號引擎”

    借助NVIDIA Isaac Sim與World Labs Marble加速機器人仿真環境構建

    一直以來,為機器人仿真構建逼真的 3D 環境是一項非常耗費人力的工作,往往需要數周的手動建模與配置。如今,借助生成式世界模型,開發者只需輸入文本提示,就能在極短時間內生成一個逼真、可直
    的頭像 發表于 12-24 10:28 ?1482次閱讀

    使用Firebase AI Logic生成圖像模型的兩種新功能

    為您的應用添加自定義圖像,能夠顯著改善和個性化用戶體驗,有效提高用戶參與度。本文將探討使用 Firebase AI Logic 生成圖像的兩種新功能: 其一是 Imagen 專屬編輯功能預覽版;其二
    的頭像 發表于 11-30 09:28 ?421次閱讀

    看點:谷歌Veo 3.1迎來重大更新硬剛Sora 2 12英寸硅片國產龍頭西安奕材今日申購

    給大家帶來一些業界資訊: 谷歌Veo 3.1迎來重大更新硬剛Sora 2 據外媒報道,在10月16日,谷歌發布了AI視頻生成模型Veo 3.1,升級音頻集成與敘事控制能力;以及更逼真的
    的頭像 發表于 10-16 16:00 ?1019次閱讀

    HarmonyOSAI編程編輯區代碼生成

    Accept ALL或使用快捷鍵Alt+Enter,接受當前生成的全部內容。或使用快捷鍵Shift+Ctrl+Y或點擊界面中Shift+Ctrl+Y區域,分段逐一接受并保留生成內容;使用快捷鍵
    發表于 08-20 15:24

    AI開啟更逼真的游戲時代

    ,電子游戲正在借助人工智能創造出越來越逼真的場景和交互體驗。GPU不再僅僅局限于圖形渲染,如今已廣泛應用于多種AI任務,包括生成更真實的非玩家角色(NPC)、動態世界、個
    的頭像 發表于 08-20 11:22 ?1297次閱讀
    AI開啟更<b class='flag-5'>逼真的</b>游戲時代

    NVIDIA RTX PRO 4500 Blackwell產品特性

    AI 浪潮正席卷全球,驅動著各行各業的深刻變革。面對生成式 AI 的創意爆發、實時仿真的復雜需求以及逼真渲染的品質追求,企業亟需強大的工具來擁抱這股變革力量。
    的頭像 發表于 08-05 16:39 ?2240次閱讀
    NVIDIA RTX PRO 4500 Blackwell產品特性

    利用NVIDIA 3D引導生成式AI Blueprint控制圖像生成

    AI 賦能的圖像生成技術突飛猛進,從早期模型會生成手指過多的人類圖像,到現在能創造出令人驚嘆的逼真視覺
    的頭像 發表于 06-05 09:24 ?891次閱讀

    Gemini API集成Google圖像生成模型Imagen 3

    開發者現在可以通過 Gemini API 訪問 Google 最先進的圖像生成模型 Imagen 3。該模型最初僅對付費用戶開放,不久后也將面向免費用戶推出。
    的頭像 發表于 05-14 16:53 ?1258次閱讀

    技術分享 | 高逼真合成數據助力智駕“看得更準、學得更快”

    自動駕駛研發如何高效獲取海量訓練數據?高逼真合成數據技術正在提供新解法。通過仿真平臺可生成多場景、多傳感器的精準標注數據。文章詳解如何構建符合nuScenes標準的數據集,覆蓋復雜交通場景,為感知模型訓練提供高效、可控的數據支持。
    的頭像 發表于 04-29 10:47 ?3518次閱讀
    技術分享 | 高<b class='flag-5'>逼真</b>合成數據助力智駕“看得更準、學得更快”

    如何使用離線工具od SPSDK生成完整圖像

    SDSDK)會生成一個缺少前 4KB 的文件。 這些將由 flashloader 直接在目標上填充,使用將要傳達給它的參數,對吧? 我需要離線工作。我需要生成一個 “完整圖像”,但無法訪問目標。 我該怎么做?
    發表于 03-28 06:51

    ?Diffusion生成式動作引擎技術解析

    Diffusion生成式動作引擎 Diffusion生成式動作引擎是一種基于擴散模型(Diffusion Models)的生成式人工智能技術,專注于生成連續、
    的頭像 發表于 03-17 15:14 ?3044次閱讀

    使用OpenVINO GenAI和LoRA適配器進行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無奇的文本提示詞轉換為令人驚艷的視覺效果
    的頭像 發表于 03-12 13:49 ?1875次閱讀
    使用OpenVINO GenAI和LoRA適配器進行<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>