国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI最新突破性進展:語言模型可以解釋語言模型中的神經元

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-05-12 11:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大家好,我是zenRRan。

OpenAI在昨天發布了一篇論文:《Language models can explain neurons in language models》,可謂是深度學習可解釋性又向前邁了一大步!誰又能想到,使用GPT-4來解釋模型的可解釋性,用魔法打敗魔法,666。

e77cb674-ef0f-11ed-90ce-dac502259ad0.png

大致內容

使用 GPT-4 自動編寫大型語言模型中神經元行為的解釋,并對這些解釋進行打分,并為 GPT-2 中的每個神經元發布了這些(不完美的)解釋和分數的數據集。

介紹一下

語言模型變得更強大,部署更廣泛,但我們對它們內部工作原理的理解仍然非常有限。例如,可能很難從它們的輸出中檢測到它們是使用有偏見的啟發式方法還是進行胡編亂造。可解釋性研究旨在通過查看模型內部來發現更多信息。

可解釋性研究的一種簡單方法是首先了解各個組件(神經元和注意力頭)在做什么。傳統上,這需要人類手動檢查神經元,以確定它們代表數據的哪些特征。這個過程不能很好地擴展:很難將它應用于具有數百或數千億個參數的神經網絡。OpenAI提出了一個自動化過程,該過程使用 GPT-4 來生成神經元行為的自然語言解釋并對其進行評分,并將其應用于另一種語言模型中的神經元。

這項工作是對齊研究方法的第三個支柱的一部分:希望使對齊研究工作本身自動化。這種方法的一個有前途的方面是它可以隨著人工智能發展的步伐而擴展。隨著未來的模型作為助手變得越來越智能和有用,我們會找到更好的解釋。

具體如何工作的呢

他們的方法包括在每個神經元上運行 3 個步驟。

第 1 步:使用 GPT-4 生成解釋

給定一個 GPT-2 神經元,通過向 GPT-4 顯示相關文本序列和激活來生成對其行為的解釋。

OpenAI一共舉了12個例子,這里我就隨便拿出幾個代表性的吧。

e793c9ae-ef0f-11ed-90ce-dac502259ad0.png

漫威漫畫的氛圍

模型生成的解釋:參考自電影、角色和娛樂。

e7bea372-ef0f-11ed-90ce-dac502259ad0.png

similes,相似

模型生成的解釋:比較和類比,常用“喜歡(like)”這個詞。

e7d9db4c-ef0f-11ed-90ce-dac502259ad0.png

shared last names,姓氏

模型生成的解釋:姓氏,它們一般跟在名字后面。

第 2 步:使用 GPT-4 進行模擬

再次使用 GPT-4 模擬為解釋而激活的神經元會做什么。

e7f7708a-ef0f-11ed-90ce-dac502259ad0.png

漫威漫畫的氛圍

第 3 步:比較

根據模擬激活與真實激活的匹配程度對解釋進行評分

e8209794-ef0f-11ed-90ce-dac502259ad0.png

舉例:漫威漫畫的氛圍

e849ba66-ef0f-11ed-90ce-dac502259ad0.png

舉例:漫威漫畫的氛圍

最終得出比較的分數為:0.34

發現了什么

使用OpenAI自己的評分方法,可以開始衡量技術對網絡不同部分的工作情況,并嘗試改進目前解釋不力的部分的技術。例如,我們的技術對于較大的模型效果不佳,可能是因為后面的層更難解釋。

e86d1420-ef0f-11ed-90ce-dac502259ad0.png

正在解釋的模型中的參數量

盡管我們的絕大多數解釋得分很低,但我們相信我們現在可以使用 ML 技術來進一步提高我們產生解釋的能力。例如,我們發現我們可以通過以下方式提高分數:

迭代解釋。我們可以通過要求 GPT-4 提出可能的反例,然后根據它們的激活修改解釋來提高分數。

使用更大的模型來給出解釋。隨著解釋器模型能力的提高,平均分數也會上升。然而,即使是 GPT-4 也給出了比人類更差的解釋,這表明還有改進的余地。

更改已解釋模型的架構。具有不同激活函數的訓練模型提高了解釋分數。

我們正在開源我們的數據集和可視化工具,用于 GPT-4 對 GPT-2 中所有 307,200 個神經元的書面解釋,以及使用 OpenAI API 上公開可用的模型[1]進行解釋和評分的代碼。我們希望研究界能夠開發新技術來生成更高分的解釋,并開發更好的工具來使用解釋來探索 GPT-2。

我們發現超過 1,000 個神經元的解釋得分至少為 0.8,這意味著根據 GPT-4,它們解釋了神經元的大部分頂級激活行為。大多數這些很好解釋的神經元都不是很有趣。然而,也發現了許多 GPT-4 不理解的有趣神經元。希望隨著解釋的改進,能夠快速發現對模型計算的有趣的定性理解。

神經元跨層激活,更高的層更抽象:

e87e391c-ef0f-11ed-90ce-dac502259ad0.png

以Kat舉例

展望

我們的方法目前有很多局限性[2],我們希望在未來的工作中能夠解決這些問題。

我們專注于簡短的自然語言解釋,但神經元可能具有非常復雜的行為,無法簡潔地描述。例如,神經元可以是高度多義的(代表許多不同的概念),或者可以代表人類不理解或無法用語言表達的單一概念。

我們希望最終自動找到并解釋實現復雜行為的整個神經回路,神經元和注意力頭一起工作。我們當前的方法僅將神經元行為解釋為原始文本輸入的函數,而沒有說明其下游影響。例如,一個在句號上激活的神經元可以指示下一個單詞應該以大寫字母開頭,或者遞增一個句子計數器。

我們解釋了神經元的行為,但沒有試圖解釋產生這種行為的機制。這意味著即使是高分解釋也可能在分布外的文本上表現很差,因為它們只是描述了相關性。

我們的整個過程是計算密集型的。

我們對我們方法的擴展和推廣感到興奮。最終,我們希望使用模型來形成、測試和迭代完全通用的假設,就像可解釋性研究人員所做的那樣。

最終,OpenAI希望將最大的模型解釋為一種在部署前后檢測對齊和安全問題的方法。然而,在這些技術能夠使不誠實等行為浮出水面之前,我們還有很長的路要走。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經元
    +關注

    關注

    1

    文章

    369

    瀏覽量

    19174
  • 語言模型
    +關注

    關注

    0

    文章

    571

    瀏覽量

    11314
  • OpenAI
    +關注

    關注

    9

    文章

    1245

    瀏覽量

    10075

原文標題:OpenAI最新突破性進展:語言模型可以解釋語言模型中的神經元

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    構建CNN網絡模型并優化的一般化建議

    ,從而得到對我們有價值的識別信息。但這種迭代并不是十分必要的,因為從實踐來看,即使只有單層網絡的模型,只要擁有充分數量的神經元,也可以獲得較高的準確率。不過該種方式的一個重要缺點就是
    發表于 10-28 08:02

    脈沖神經元模型的硬件實現

    息電位 vrest。 LIF神經元模型在生物可解釋性上低于其他模型,只體現了神經元計算的關鍵特性,并不能夠解釋真實
    發表于 10-24 08:27

    SNN加速器內部神經元數據連接方式

    的數量級,而且生物軸突的延遲和神經元的時間常數比數字電路的傳播和轉換延遲要大得多,AER 的工作方式和神經網絡的特點相吻合,所以受生物啟發的神經形態處理器的NoC或SNN加速器通常使
    發表于 10-24 07:34

    在Ubuntu20.04系統訓練神經網絡模型的一些經驗

    , batch_size=512, epochs=20)總結 這個核心算法的卷積神經網絡結構和訓練過程,是用來對MNIST手寫數字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預
    發表于 10-22 07:03

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經形態計算、類腦芯片

    。是實現類腦芯片的基本模型。SNN神經元通過短的電脈沖相互溝通,脈沖之間的時間間隔起著重要作用。 最有利于硬件實現的脈沖神經元模型是“漏電整合-激發”
    發表于 09-17 16:43

    3萬字長文!深度解析大語言模型LLM原理

    繼續追本溯源,與騰訊學堂合作撰寫本文,嘗試讓人人都能懂大語言模型的基礎原理。1、大語言模型簡述截止到2025年“大模型”一般泛指“超大參數
    的頭像 發表于 09-02 13:34 ?3455次閱讀
    3萬字長文!深度解析大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>LLM原理

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    Neuton 可以自動處理所有這些問題。Neuton 不會從一開始就靜態定義網絡參數,而是自動生成網絡,并檢查每一個新神經元是否能提高模型性能。不增加價值的神經元會被立即移除,以節省
    發表于 08-31 20:54

    OpenAI發布2款開源模型

    OpenAI開源了兩款高性能權重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 發布了!我們做了一個開放
    的頭像 發表于 08-06 14:25 ?1028次閱讀

    無刷直流電機單神經元自適應智能控制系統

    常規PID,大大提高了系統的跟隨,能滿足BLDCM系統對實時的要求。 純分享帖,點擊下方附件免費獲取完整資料~~~ *附件:無刷直流電機單神經元自適應智能控制系統.pdf 【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所
    發表于 06-26 13:36

    無刷直流電機單神經元PI控制器的設計

    摘要:研究了一種基于專家系統的單神經元PI控制器,并將其應用于無刷直流電機調速系統。控制器實現了PI參數的在線調整,在具有PID控制器良好動態性能的同時,減少微分項對系統穩態運行時的影響,并較好
    發表于 06-26 13:34

    從FA模型切換到Stage模型時:module的切換說明

    mainAbility。mainElement標簽名稱變更,Stage模型不在使用“.”符號。 package標識HAP的包結構名稱,在應用內保證唯一。/Stage模型使用name來保證應用唯一
    發表于 06-05 08:16

    小白學大模型:從零實現 LLM語言模型

    在當今人工智能領域,大型語言模型(LLM)的開發已經成為一個熱門話題。這些模型通過學習大量的文本數據,能夠生成自然語言文本,完成各種復雜的任務,如寫作、翻譯、問答等。https
    的頭像 發表于 04-30 18:34 ?1310次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現 LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    如何借助大語言模型打造人工智能生態系統

    語言模型(LLMs)正以革命的姿態重塑我們與科技的互動模式。然而,由于其龐大的規模,它們往往屬于資源密集型范疇,不僅大幅推高了成本,還造成了能源消耗的激增。本文深入剖析了大語言
    的頭像 發表于 04-27 09:19 ?1086次閱讀
    如何借助大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>打造人工智能生態系統

    NVIDIA實現神經網絡渲染技術的突破性增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經網絡渲染技術的突破性增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預覽版增加神經網絡著
    的頭像 發表于 04-07 11:33 ?1182次閱讀

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結合視覺(圖像/視頻)和語言(文本)處理能力的多模態人工智能模型,能夠理解并生成與視覺內容相關的自然
    的頭像 發表于 03-17 15:32 ?8847次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細解析