国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

能創(chuàng)造出有逼真紋理和形狀的一個生成式AI系統(tǒng)

電子工程師 ? 來源:lq ? 2018-12-06 10:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI 生成逼真三維物體模型并不像人們以為的那么困難。

近日,在 NeurIPS 2018 會議上接收的論文“視覺對象網(wǎng)絡(luò):圖像生成與分離式的3D表示”中,麻省理工學(xué)院計算機(jī)科學(xué)與人工智能實驗室(MIT CSAIL)和 Google 的研究人員介紹了能創(chuàng)造出有逼真紋理和形狀的一個生成式 AI 系統(tǒng)。

該系統(tǒng)是視覺對象網(wǎng)絡(luò)(VON)系統(tǒng),不僅可以生成比某些最先進(jìn)的方法更真實的圖像,還可以進(jìn)行形狀和紋理編輯、視點轉(zhuǎn)換以及其他三維調(diào)整。

“現(xiàn)代深層生成模型學(xué)會了合成逼真的圖像,”研究人員寫道,“但大多數(shù)計算模型只專注于生成 2D 圖像,而忽略了 3D 世界的美好......這種視角不可避免地限制了它們在許多領(lǐng)域的實際應(yīng)用,例如合成數(shù)據(jù)生成、機(jī)器人學(xué)習(xí)、虛擬現(xiàn)實和游戲行業(yè)。”

視覺對象網(wǎng)絡(luò)系統(tǒng)則可以通過合成三維形狀和二維圖像來解決這個問題,類似于研究人員所稱的“分離式的對象表示”。圖像生成模型被分解為三種因素:形狀、視點和紋理,另外,在計算“2.5 D”草圖和添加紋理之前,它需要學(xué)習(xí)合成三維形狀。

重要的是,由于這三個因素是條件獨立的,所以模型不需要二維和三維形狀之間的配對數(shù)據(jù)。這使得團(tuán)隊能夠在大規(guī)模的二維圖像和三維形狀集上進(jìn)行訓(xùn)練,如 Pix3D,Google 圖像搜索和ShapeNet,后者包含 55 個對象類別的數(shù)千個 CAD 模型。

為了讓 VON 系統(tǒng)學(xué)習(xí)如何生成自己的形狀,該團(tuán)隊在上述三維形狀數(shù)據(jù)集上訓(xùn)練了一個生成式對抗網(wǎng)絡(luò)(GAN) 。而紋理生成被歸類了到另一個基于 GAN 的神經(jīng)網(wǎng)絡(luò)

經(jīng)過大約兩到三天的訓(xùn)練,AI 系統(tǒng)始終如一地生成了令人信服的 128 x 128 x 128 模型,具有優(yōu)異的反射率、環(huán)境照明和反照率(一種漫射光的度量)。

為了評估圖像生成模型,團(tuán)隊計算了用于生成三維模型的 Fréchet Inception Distance(弗雷歇初始距離,F(xiàn)ID)——一種與人類感知相關(guān)的度量。此外,他們還向亞馬遜 Mechanical Turk 上的五名測試者展示了由 VON 和其他最先進(jìn)模型生成的 200 對圖像,這些受試者需要在這些圖像中選擇更真實的結(jié)果。

VON 的表現(xiàn)非常出色。它與所有 AI 模型相比具有最低的 FID 值,并且 Mechanical Turk 的受訪者表示更喜歡 VON 生成的 74% 到 85%的圖像。

研究人員未來將專注于從粗糙到精細(xì)化的建模,以產(chǎn)生更高分辨率的生成形狀和圖像,并將紋理分解為光照和外觀(lighting and appearance),并合成自然場景。

“我們的主要想法是將圖像生成過程分解為形狀、視點和紋理三種因素,”Google 團(tuán)隊寫道,“這種分離式 3D 表示使我們能夠在對抗學(xué)習(xí)框架下從 3D 和 2D 視覺數(shù)據(jù)集合中學(xué)習(xí)模型。與現(xiàn)有的 2D 生成模型相比,我們的模型合成了更逼真的圖像,它還可以做到以前的 2D 方法也無法實現(xiàn)的各種 3D 操作。”

近年來,GAN 的研究突飛猛進(jìn),特別是在機(jī)器視覺領(lǐng)域。

Google 的 DeepMind 子公司在 10 月推出了一個基于 GAN 的系統(tǒng),以此創(chuàng)建出令人信服的食物、風(fēng)景、肖像和動物照片。9 月,Nvidia 的研究人員開發(fā)了一種 AI 模型,可以生成腦癌的合成掃描圖像,8 月,卡內(nèi)基梅隆大學(xué)的一個團(tuán)隊演示了 AI 可以將人們已存的動作和面部表情轉(zhuǎn)換成另一張照片或視頻中的目標(biāo)對象。最近,愛丁堡大學(xué)感知研究所和天文學(xué)研究所的科學(xué)家設(shè)計了一種至少可以產(chǎn)生高分辨率星系圖像的 GAN。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50115

    瀏覽量

    265571
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    21

    文章

    2368

    瀏覽量

    82572
  • 計算機(jī)科學(xué)

    關(guān)注

    1

    文章

    144

    瀏覽量

    11804
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    538

    瀏覽量

    1092

原文標(biāo)題:AI做不了“真”3D圖像?試試Google的新生成模型

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    生成AI浪潮如何驅(qū)動車載通信模組升級

    隨著生成AI浪潮席卷全球,人們對實時算力和海量數(shù)據(jù)的需求從未如此迫切。想象下,輛智能汽車不僅能流暢地執(zhí)行自動駕駛?cè)蝿?wù),還能在行駛中將T
    的頭像 發(fā)表于 01-06 10:15 ?339次閱讀
    <b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>浪潮如何驅(qū)動車載通信模組升級

    生成人工智能會讓自動駕駛更靈活嗎?

    (Generative Artificial Intelligence,GAI)。生成人工智能不僅能實現(xiàn)傳統(tǒng)AI的“識別”及“判斷”的功能,更能達(dá)成“創(chuàng)造”的需求,它能從已有的數(shù)據(jù)中
    的頭像 發(fā)表于 12-23 10:05 ?500次閱讀
    <b class='flag-5'>生成</b><b class='flag-5'>式</b>人工智能會讓自動駕駛更靈活嗎?

    生成AI虛擬調(diào)試——fe.screen-sim的架構(gòu)價值

    生成AI虛擬調(diào)試——fe.screen-sim的架構(gòu)價值
    的頭像 發(fā)表于 12-04 14:59 ?995次閱讀
    <b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>賦<b class='flag-5'>能</b>虛擬調(diào)試——fe.screen-sim的架構(gòu)價值

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用

    種快速反應(yīng)能力,是直接的感知;靈感是種通過思考和探索獲得的創(chuàng)造性想法,是種創(chuàng)意。 AI怎么模擬直覺與靈感呢?四、
    發(fā)表于 09-17 11:45

    HarmonyOSAI編程萬卡片生成

    基于AI大模型理解開發(fā)者的卡片需求信息,通過對話的交互智能生成HarmonyOS萬卡片工程。 使用約束 建議從以下維度描述卡片需求: 當(dāng)前不支持在
    發(fā)表于 09-08 17:09

    智能體化AI生成AI的區(qū)別

    生成 AI 的核心是“生成內(nèi)容” —— 比如用大模型寫報告,是對輸入指令的被動響應(yīng)。而智能體化 AI(Agentic
    的頭像 發(fā)表于 08-25 17:24 ?1663次閱讀

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    1. 項目概述 本項目旨在開發(fā)并部署高精度的深度學(xué)習(xí)模型,用于自動鑒別張圖片是由AI生成(如Stable Diffusion, DAL
    發(fā)表于 08-21 13:59

    AI開啟更逼真的游戲時代

    ,電子游戲正在借助人工智能創(chuàng)造出越來越逼真的場景和交互體驗。GPU不再僅僅局限于圖形渲染,如今已廣泛應(yīng)用于多種AI任務(wù),包括生成更真實的非玩家角色(NPC)、動態(tài)世界、
    的頭像 發(fā)表于 08-20 11:22 ?1310次閱讀
    <b class='flag-5'>AI</b>開啟更<b class='flag-5'>逼真</b>的游戲時代

    生成 AI 重塑自動駕駛仿真:4D 場景生成技術(shù)的突破與實踐

    生成AI驅(qū)動的4D場景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點,如何通過NeRF、3D高斯?jié)姙R等技術(shù)實現(xiàn)高保真動態(tài)建模?高效生成極端天氣等長尾場景?本文為您
    的頭像 發(fā)表于 08-06 11:20 ?5182次閱讀
    <b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 重塑自動駕駛仿真:4D 場景<b class='flag-5'>生成</b>技術(shù)的突破與實踐

    邊緣生成AI面臨哪些工程挑戰(zhàn)?

    本文由TechSugar編譯自electronicdesign當(dāng)大多數(shù)人想到人工智能(AI)時,他們通常想到的是能夠生成新文本、圖像或語音內(nèi)容的應(yīng)用。像ChatGPT這樣流行的文本應(yīng)用(在幾天
    的頭像 發(fā)表于 06-25 10:44 ?1152次閱讀
    邊緣<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>面臨哪些工程挑戰(zhàn)?

    谷歌新生成AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI 上推出新生成 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1120次閱讀

    利用NVIDIA 3D引導(dǎo)生成AI Blueprint控制圖像生成

    AI的圖像生成技術(shù)突飛猛進(jìn),從早期模型會生成手指過多的人類圖像,到現(xiàn)在創(chuàng)造出令人驚嘆的
    的頭像 發(fā)表于 06-05 09:24 ?905次閱讀

    生成AI如何重塑設(shè)計思維與品牌創(chuàng)新?從工具到認(rèn)知革命的躍遷

    當(dāng)MidJourney生成的視覺方案出現(xiàn)在國際設(shè)計獎項的決賽名單,當(dāng)Adobe Firefly成為設(shè)計師的標(biāo)配工具,問題正從行業(yè)邊緣走向中心:生成
    的頭像 發(fā)表于 05-30 15:55 ?651次閱讀

    生成人工智能認(rèn)證:重構(gòu)AI時代的人才培養(yǎng)與職業(yè)躍遷路徑

    ,恰似座連接技術(shù)前沿與個體成長的橋梁,既承載著時代對人才的迫切需求,也指向著未來職場的核心競爭力。 、技術(shù)革命的雙重性:賦能與失衡并存 生成人工智能的突破性,在于其首次讓機(jī)器具備
    的頭像 發(fā)表于 05-23 09:29 ?867次閱讀

    ?Diffusion生成動作引擎技術(shù)解析

    Diffusion生成動作引擎 Diffusion生成動作引擎是種基于擴(kuò)散模型(Diffusion Models)的
    的頭像 發(fā)表于 03-17 15:14 ?3081次閱讀