国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌 | 大規模深度推薦模型的特征嵌入問題有解了!

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-16 13:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀:本文主要介紹下Google在大規模深度推薦模型上關于特征嵌入的最新論文。

一、背景

大部分的深度學習模型主要包含如下的兩大模塊:輸入模塊以及表示學習模塊。自從NAS[1]的出現以來,神經網絡架構的設計上正在往數據驅動的自動機器學習方向演進。不過之前更多的研究都是聚焦在如何自動設計表示學習模塊而不是輸入模塊,主要原因是在計算機視覺等成熟領域原始輸入(圖像像素)已經是浮點數了。

輸入模塊:負責將原始輸入轉換為浮點數;表示學習模塊:根據輸入模塊的浮點值,計算得到模型的最終輸出;

而在推薦、搜索以及廣告工業界的大規模深度模型上,情況卻完全不同。因為包含大量高維稀疏的離散特征(譬如商品id,視頻id或者文章id)需要將這些類別特征通過embedding嵌入技術將離散的id轉換為連續的向量。而這些向量的維度大小往往被當做一個超參手動進行設定。

一個簡單的數據分析就能告訴我們嵌入向量維度設定的合理與否非常影響模型的效果。以YoutubeDNN[2]為例,其中使用到的VideoId的特征詞典大小是100萬,每一個特征值嵌入向量大小是256。僅僅一個VideoId的特征就包含了2.56億的超參,考慮到其他更多的離散類特征輸入模塊的需要學習的超參數量可想而知。相應地,表示學習模塊主要包含三層全連接層。也就是說大部分的超參其實聚集在了輸入模塊,那自然就會對模型的效果有著舉足輕重的影響。

二、主要工作

Google的研究者們在最新的一篇論文[3]中提出了NIS技術(Neural Input Search),可以自動學習大規模深度推薦模型中每個類別特征最優化的詞典大小以及嵌入向量維度大小。目的就是為了在節省性能的同時盡可能地最大化深度模型的效果。

并且,他們發現傳統的Single-size Embedding方式(所有特征值共享同樣的嵌入向量維度)其實并不能夠讓模型充分學習訓練數據。因此與之對應地,提出了Multi-size Embedding方式讓不同的特征值可以擁有不同的嵌入向量維度。

在實際訓練中,他們使用強化學習來尋找每個特征值最優化的詞典大小和嵌入向量維度。通過在兩大大規模推薦問題(檢索、排序)上的實驗驗證,NIS技術能夠自動學習到更優化的特征詞典大小和嵌入維度并且帶來在Recall@1以及AUC等指標上的顯著提升。

三、Neural Input Search問題

NIS-SE問題:SE(Single-size Embedding)方式是目前常用的特征嵌入方式,所有特征值共享同樣的特征嵌入維度。NIS-SE問題就是在給定資源條件下,對于每個離散特征找到最優化的詞典大小v和嵌入向量維度d。

這里面其實包含了兩部分的trade-off:一方面是各特征之間,更有用的特征應該給予更多的資源;另一方面是每個特征內部,詞典大小和嵌入向量維度之間。對于一個特征來說,更大的詞典可以有更大的覆蓋度,包含更多長尾的item;更多的嵌入向量維度則可以提升head item的嵌入質量,因為head item擁有充分的訓練數據。而SE在資源限制下無法同時做到高覆蓋度和高質量的特征嵌入。所以需要引入ME(Multi-size Embedding)。

NIS-ME問題:ME允許每個特征詞典內不同的特征值可以有不同的嵌入向量維度。其實就是為了實現越頻繁的特征值擁有更大的嵌入特征維度,因為有更多的訓練數據;而長尾的特征值則用更小的嵌入特征維度。引入ME為每一個類別離散特征找到最優化的詞典大小和嵌入向量維度,就可以實現在長尾特征值上的高覆蓋度以及在頻繁特征值上的高質量嵌入向量。下圖給出了embedding使用的場景例子中,SE和ME使用上的區別。

四、NIS解決方案

要想為每個類別離散特征手動找到最優化的詞典大小和嵌入向量維度是很難的,因為推薦廣告工業界的大規模深度模型的訓練時很昂貴的。為了達到在一次訓練中就能自動找到最優化的詞典大小和嵌入向量維度,他們改造了經典的ENAS[4]:

首先針對深度模型的輸入模塊提出了一個新穎的搜索空間;

然后有一個單獨的Controller針對每一個離散特征選擇SE或者ME;

其次可以根據Controller決策后考慮模型準確度和資源消耗計算得到reward;

最后可以根據reward使用強化學習A3C[5]訓練Controller進行迭代。

搜索空間

Embedding Block的概念實際上就是原始Embedding矩陣的分塊。如下圖所示,假設原始Embedding矩陣大小是(10M,256),圖a將其分成了20個Embedding Block。Controller為每個特征有兩種選擇:圖b所示的SE以及圖c的所示的ME。

Reward函數

主模型是隨著Controller的選擇進行訓練的,因此Controller的參數實際上是根據在驗證集上前向計算的reward通過RL追求收益最大化而來。考慮到在限定資源下的深度模型訓練,這里的reward函數設計為同時考慮業務目標與資源消耗。對于推薦領域的兩大主要任務:信息檢索和排序,信息檢索的目標可以使用Sampled Recall@1;而排序的目標則可以使用AUC。

五、實驗結果

他們在兩大大規模推薦模型問題:檢索和排序上進行了實驗。在同等資源消耗的情況下,NIS可以獲得顯著提升,詳細數據如下圖所示。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6254

    瀏覽量

    111405

原文標題:Google最新論文:大規模深度推薦模型的特征嵌入問題有解了!

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    面向嵌入式部署的神經網絡優化:模型壓縮深度解析

    1.為什么需要神經網絡模型壓縮? 神經網絡已經成為解決復雜機器學習問題的強大工具。然而,這種能力往往伴隨著模型規模和計算復雜度的增加。當輸入維度較大(例如長時序窗口、高分辨率特征空間)
    的頭像 發表于 02-24 15:37 ?4779次閱讀
    面向<b class='flag-5'>嵌入</b>式部署的神經網絡優化:<b class='flag-5'>模型</b>壓縮<b class='flag-5'>深度</b>解析

    ALVA純視覺系統如何破解具身智能大規模落地的核心瓶頸

    在 2025 中國信通院深度觀察報告會上,許志遠副總工程師指出,具身智能正經歷認知與物理智能的“雙螺旋”突破,但模型、數據、形態路線三大爭議未決,大規模落地尚處早期。若想突破現存瓶頸,亟需完成技術架構、數據體系、商業化形態的三重
    的頭像 發表于 12-28 15:34 ?1136次閱讀
    ALVA純視覺系統如何破解具身智能<b class='flag-5'>大規模</b>落地的核心瓶頸

    泰凌微:布局端側AI,產品支持谷歌LiteRT、TVM開源模型

    ?電子發燒友網報道(文/李彎彎)泰凌微近日表示,公司與谷歌在智能家居、音頻等多個領域開展具體項目合作。其與谷歌已從單一的遙控器芯片供應,發展為涵蓋音頻、智能家居、端側AI等多領域的深度合作關系
    的頭像 發表于 12-15 08:21 ?1w次閱讀

    谷歌云發布最強自研TPU,性能比前代提升4倍

    精心設計,能夠輕松處理從大型模型訓練到實時聊天機器人運行以及AI智能體操作等各類復雜任務。 ? 谷歌在新聞稿中著重強調,“Ironwood”是專為應對最嚴苛的工作負載而打造的。無論是大規模模型
    的頭像 發表于 11-13 07:49 ?8621次閱讀
    <b class='flag-5'>谷歌</b>云發布最強自研TPU,性能比前代提升4倍

    TensorRT-LLM的大規模專家并行架構設計

    之前文章已介紹引入大規模 EP 的初衷,本篇將繼續深入介紹 TensorRT-LLM 的大規模專家并行架構設計與創新實現。
    的頭像 發表于 09-23 14:42 ?1109次閱讀
    TensorRT-LLM的<b class='flag-5'>大規模</b>專家并行架構設計

    大規模專家并行模型在TensorRT-LLM的設計

    DeepSeek-V3 / R1 等模型采用大規模細粒度混合專家模型 (MoE) 架構,大幅提升了開源模型的質量。Llama 4 和 Qwen3 等新發布的開源
    的頭像 發表于 09-06 15:21 ?1233次閱讀
    <b class='flag-5'>大規模</b>專家并行<b class='flag-5'>模型</b>在TensorRT-LLM的設計

    基于大規模人類操作數據預訓練的VLA模型H-RDT

    近年來,機器人操作領域的VLA模型普遍基于跨本體機器人數據集預訓練,這類方法存在兩大局限:不同機器人本體和動作空間的差異導致統一訓練困難;現有大規模機器人演示數據稀缺且質量參差不齊。得益于近年來VR
    的頭像 發表于 08-21 09:56 ?1102次閱讀
    基于<b class='flag-5'>大規模</b>人類操作數據預訓練的VLA<b class='flag-5'>模型</b>H-RDT

    薄型、多頻段、大規模物聯網前端模塊 skyworksinc

    電子發燒友網為你提供()薄型、多頻段、大規模物聯網前端模塊相關產品參數、數據手冊,更有薄型、多頻段、大規模物聯網前端模塊的引腳圖、接線圖、封裝手冊、中文資料、英文資料,薄型、多頻段、大規模物聯網前端模塊真值表,薄型、多頻段、
    發表于 05-15 18:32
    薄型、多頻段、<b class='flag-5'>大規模</b>物聯網前端模塊 skyworksinc

    模型時代的新燃料:大規模擬真多風格語音合成數據集

    模型充分學習到語音的發音規律、語義特征、語境等信息,從而提升語音識別、語音合成等關鍵能力,提供更加準確、自然、智能的語音交互體驗。 語音大模型發展面臨數據難題 然而,當前語音大模型
    的頭像 發表于 04-30 16:17 ?676次閱讀

    構建大規模Simulink模型的標準化最佳實踐

    隨著系統規模和復雜性的增長,工程團隊面臨著一系列在小規模上不存在的全新挑戰。
    的頭像 發表于 04-24 13:03 ?1060次閱讀
    構建<b class='flag-5'>大規模</b>Simulink<b class='flag-5'>模型</b>的標準化最佳實踐

    AI原生架構升級:RAKsmart服務器在超大規模模型訓練中的算力突破

    近年來,隨著千億級參數模型的崛起,AI訓練對算力的需求呈現指數級增長。傳統服務器架構在應對分布式訓練、高并發計算和顯存優化等場景時逐漸顯露瓶頸。而RAKsmart為超大規模模型訓練提供了全新的算力解決方案。
    的頭像 發表于 04-24 09:27 ?791次閱讀

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命 Google 發布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設計。這款功能強大的 AI 加速器旨在處理
    的頭像 發表于 04-12 11:10 ?3737次閱讀
    <b class='flag-5'>谷歌</b>第七代TPU Ironwood<b class='flag-5'>深度</b>解讀:AI推理時代的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項。 ? 在核心亮點層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設計的 TPU 芯片,能夠有力支持大規模思考
    的頭像 發表于 04-12 00:57 ?3724次閱讀

    5G 大規模物聯網系統級封裝 skyworksinc

    電子發燒友網為你提供()5G 大規模物聯網系統級封裝相關產品參數、數據手冊,更有5G 大規模物聯網系統級封裝的引腳圖、接線圖、封裝手冊、中文資料、英文資料,5G 大規模物聯網系統級封裝真值表,5G
    發表于 04-11 15:21
    5G <b class='flag-5'>大規模</b>物聯網系統級封裝 skyworksinc

    AI眼鏡大模型激戰:多大模型協同、交互時延低至1.3S

    與AI大模型深度融合,一場技術演進與場景革命正在悄然進行。 ? ? 一款眼鏡搭載多個大模型:AI 智能眼鏡下的“百模大戰” AI大模型指的是具有大量參數(通常超過數十億)的
    的頭像 發表于 03-20 08:59 ?2720次閱讀
    AI眼鏡大<b class='flag-5'>模型</b>激戰:多大<b class='flag-5'>模型</b>協同、交互時延低至1.3S