国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

注意力可以為視覺應用程序帶來所需的上下文

醉清歌 ? 來源:醉清歌 ? 作者:醉清歌 ? 2022-07-15 08:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

嵌入式視覺技術賦予機器視覺的力量,但今天的系統仍然無法理解圖像的所有細微差別。一種用于自然語言處理的方法可以解決這個問題。

基于注意力的神經網絡,尤其是變換器網絡,徹底改變了自然語言處理 (NLP),讓機器比以往任何時候都更好地理解語言。這種技術旨在通過為人工神經網絡提供歷史或背景的概念來模擬認知過程,與使用記憶的舊方法(如長短期記憶(LSTM)和循環記憶)相比,它產生了更復雜的人工智能代理。神經網絡(RNN)。NLP 現在對輸入的問題或提示有了更深層次的理解,并且可以創建很長的文本作為響應,這些文本通常與人類可能寫的內容沒有區別。

注意力當然可以應用于圖像處理,盡管到目前為止它在計算機視覺中的使用受到限制。Perceive 首席執行官、人工智能專家 Steve Teig 在接受 EE Times 的獨家采訪時認為,注意力對于視覺應用程序將變得極為重要。

基于注意力的網絡

注意機制查看輸入序列,例如句子,并在序列中的每條數據(音節或單詞)之后決定序列的其他部分是相關的。這類似于您閱讀本文的方式:您的大腦在記憶中保留了某些單詞,即使它專注于您正在閱讀的每個新單詞,因為您已經閱讀的單詞與您正在正確閱讀的單詞結合在一起現在提供有價值的上下文來幫助您理解文本。

泰格的例子是:

汽車在街上打滑,因為它很滑。

當你讀完這句話時,你會明白“滑”可能是指街道而不是汽車,因為你已經記住了“街道”和“汽車”這兩個詞,你的經驗告訴你, “slippery”和“street”比“slippery”和“car”之間的關聯性強得多。神經網絡可以嘗試使用注意力機制來模仿這種能力。

該機制“獲取最近過去的所有單詞,并以某種方式將它們進行比較,以了解哪些單詞可能與哪些其他單詞相關,”Teig 說。“然后網絡知道至少要關注這一點,因為“滑”更有可能與街道或汽車[相關]而不是[任何其他詞]。

因此,注意力是一種專注于將呈現數據的序列減少到可能感興趣的子集(可能僅是當前和以前的句子),然后分配每個單詞可能相關程度的可能性的方法。

“[注意力]最終成為了一種利用時間的方式,以一種有點原則的方式,沒有查看曾經發生的一切的開銷,”泰格說。“這導致人??們,直到最近,還認為注意力是一種可以管理時間的技巧。當然,它對語音處理、語言處理和其他時間事物產生了巨大的積極影響。最近,就在最近幾個月,人們開始意識到,也許我們可以用注意力來做其他的信息聚焦。”

視覺轉換器

迄今為止,為視覺設計的神經網絡對注意力技術的使用非常有限。到目前為止,注意力已與卷積神經網絡 (CNN) 一起應用或用于替換 CNN 的某些組件。但谷歌科學家最近發表的一篇論文(“一幅圖像值得 16 × 16 字:大規模圖像識別的變形金剛,” 2020 年 10 月)認為注意力的概念更廣泛地適用于視覺。作者表明,純 Transformer 網絡是 NLP 中廣泛使用的一種依賴于注意力機制的網絡,當直接應用于圖像塊序列時,可以很好地執行圖像分類任務。研究人員構建的變壓器網絡 Vision Transformer (ViT) 取得了優于 CNN 的結果,但訓練所需的計算資源更少。

雖然很容易想象注意力如何應用于文本或口語對話,但將相同的概念應用于靜止圖像(而不是諸如視頻之類的時間序列)就不那么明顯了。事實上,注意力可以用在空間上,而不是這里的時間上下文中。音節或單詞類似于圖像的補丁。

Teig 的例子是一張狗的照片。顯示狗耳朵的圖像補丁可能會將自己識別為耳朵,即使是在毛茸茸的動物或四足動物身上發現的特定類型的耳朵。同樣,尾巴補丁知道它也存在于毛茸茸的動物和四足動物身上。圖像背景中的樹塊知道它有樹枝和樹葉。注意力機制詢問耳貼和樹貼有什么共同點。答案是,不多。然而,耳貼和尾貼確實有很多共同點。他們可以討論這些共性,也許神經網絡可以找到比“耳朵”或“尾巴”更大的概念。也許網絡可以理解圖像提供的一些上下文,以計算出耳朵加尾巴可能等于狗。

注意力可以通過了解圖像塊之間的相關性來推斷上下文,從而幫助 AI 代理更好地理解圖像中發生的事情。

“狗的耳朵和尾巴不是獨立的這一事實使我們能夠更簡潔地描述圖片中發生的事情:‘圖片中有一只狗’,而不是‘旁邊有一個棕色像素到一個灰色像素,旁邊是……’,這是對圖片中正在發生的事情的可怕描述,”Teig 說。“可以這么說,當系統用這些語義術語描述圖像的各個部分時,這就是可能的。然后它可以將這些聚合成更有用的概念,用于下游推理。”

Teig 說,最終的目標是讓神經網絡理解圖片是一只追逐飛盤的狗。

“祝你好運,用 1600 萬色像素做到這一點,”他說。“這是一種嘗試將其處理為‘有一只狗;有一個飛盤;狗在跑。‘ 現在我有機會理解狗可能在玩飛盤。”

更近一步

谷歌在視覺系統注意力方面的工作是朝著正確方向邁出的一步,Teig 說,“但我認為無論從理論和軟件的角度,還是從硬件的角度來看,這里都有很大的進步空間,當一個不必用巨大的矩陣來打擊數據,我非常懷疑你的大腦正在做什么。有很多東西可以在上下文中過濾掉,而無需將其與其他所有內容進行比較。”

雖然 Google 研究團隊的解決方案比 CNN 更節省地使用計算資源,但 NLP 中通常實現注意力的方式使得像轉換器這樣的網絡非常耗費資源。Transformer 經常構建巨大的 N × N 音節矩陣(用于文本)或像素(用于圖像),需要大量的計算能力和內存來處理。

“那里的數據中心人員認為,‘太好了——我們有一個數據中心,所以一切對我們來說都像是釘子,’”Teig 說,這就是我們最終得到像 OpenAI 的 GPT-3 這樣的 NLP 模型的方式,它的 1750 億個參數。“當你先驗地看到所有東西時,你可以說前面句子中的幾乎所有內容都無關緊要,這有點荒謬。你不能提前做任何過濾嗎?你真的要因為你有一個巨大的矩陣乘法器就粗暴地做這個嗎……?這有任何意義嗎?可能不是。”

科學界最近嘗試減少注意力的計算開銷,已將所需的操作數量從 N 2減少到 N√N。但這些嘗試延續了“近乎普遍的信念——我不同意——即深度學習完全是關于矩陣和矩陣乘法,”Teig 說,并指出最先進的神經網絡研究正在由那些能夠獲得大規模矩陣乘法加速器。

Teig 作為邊緣 AI 加速器芯片公司 Perceive 的首席執行官的觀點是,有更有效的方法來概念化神經網絡計算。Perceive 已經在使用其中一些概念,Teig 認為類似的見解將適用于注意力機制和轉換器網絡。

“我認為關注的精神非常重要,”他說。“我認為機器本身將在未來幾年內迅速發展……在軟件、理論上和硬件方面來代表它。”

今天的大型變壓器網絡最終會安裝到邊緣設備的加速器上嗎?在 Teig 看來,部分問題在于像 GPT-3 的 1750 億個參數這樣的網絡——大約 1 萬億位信息(為了論證而假設 8 位參數)。

他說:“這就像我們在玩20個問題的游戲,只是我要問你一萬億個問題,才能理解你剛才說的話。”也許兩萬或兩百萬不能完成,但一萬億——滾出去!缺陷不是我們有一個20-MW的小芯片;缺陷在于,擁有1750億個參數意味著你真的做錯了什么。

根據泰格的說法,減少基于注意力的網絡的參數數量,并有效地表示它們,可以為邊緣設備帶來基于注意力的嵌入式視覺。而這樣的發展“并不遙遠”。

Percept首席執行官Steve Teig將在嵌入式愿景峰會上發表兩次演講。在“直面偏見”中,他將討論人工智能系統中歧視的來源,而在“TinyML不夠大”中,他將挑戰TinyML模型必須在準確性上妥協以及它們應該在CPUMCU上運行的觀念。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 嵌入式
    +關注

    關注

    5198

    文章

    20449

    瀏覽量

    334080
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107784
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA BlueField-4為推理上下文記憶存儲平臺提供強大支持

    隨著代理式 AI 工作流將上下文窗口擴展到數百萬個 token,并將模型規模擴展到數百萬億個參數,AI 原生企業正面臨著越來越多的擴展挑戰。這些系統目前依賴于智能體長期記憶來存儲跨多輪、工具和會話持續保存的上下文,以便智能體能夠基于先前的推理進行構建,而不是每次請求都從頭
    的頭像 發表于 02-02 10:29 ?1018次閱讀
    NVIDIA BlueField-4為推理<b class='flag-5'>上下文</b>記憶存儲平臺提供強大支持

    如何基于P300個性化調控ADHD?

    oddball等認知任務時,P300振幅顯著減少,這與注意力驅動的工作記憶更新和上下文比較過程異常相關。這種生理異常導致ADHD典型的行為缺陷,如反應時變異性增加、遺漏錯誤
    的頭像 發表于 01-28 18:24 ?313次閱讀
    如何基于P300個性化調控ADHD?

    奇異摩爾入選2025中國科創好公司半導體榜單

    隨著國產大模型接連取得突破,AI產業的焦點正迅速轉移。就在本月,DeepSeek正式發布V3.2和其高算版本Speciale,主力模型V3.2強化通用Agent與長上下文處理能力,而
    的頭像 發表于 12-16 14:22 ?690次閱讀

    自然場景下注意力如何耳周腦電可靠監測

    HUIYING自然聽覺注意力概述聽覺注意力是大腦在復雜聽覺場景中選擇相關信息、抑制無關信息的重要認知功能。傳統研究多在實驗室內使用笨重設備與人工刺激進行,限制了其生態效度。本研究采用語音包絡跟蹤、被
    的頭像 發表于 12-05 18:03 ?3957次閱讀
    自然場景下<b class='flag-5'>注意力</b>如何耳周腦電可靠監測

    大語言模型如何處理上下文窗口中的輸入

    本博客介紹了五個基本概念,闡述了大語言模型如何處理上下文窗口中的輸入。通過明確的例子和實踐中獲得的見解,本文介紹了多個與上下文窗口有關的基本概念,如詞元化、序列長度和注意力等。
    的頭像 發表于 12-03 13:48 ?594次閱讀
    大語言模型如何處理<b class='flag-5'>上下文</b>窗口中的輸入

    執行脫離上下文的威脅分析與風險評估

    作為WITTENSTEIN high integrity system(WHIS)公司的核心產品,SAFERTOS專為安全關鍵型嵌入式系統設計,使其成為確保聯網車輛環境可靠防護的理想選擇。在本文中,我們將討論如何開展SAFERTOS安全分析,結合威脅評估與風險評估(TARA)結果,以及這些實踐方法的具體實施,最終推動SAFERTOS增強型安全模塊的開發。遵循行業標準,該方法為管理風險并保護互聯車輛組件免受不斷演變的威脅提供了一個結構化的框架。
    的頭像 發表于 11-28 09:11 ?468次閱讀
    執行脫離<b class='flag-5'>上下文</b>的威脅分析與風險評估

    請問riscv中斷還需要軟件保存上下文和恢復嗎?

    以下是我拷貝的文檔里的說明,這個中斷處理還需要軟件來寫上下文保存和恢復,在使用ARM核的單片機都不需要考慮這些的,使用過的小伙伴能解答嗎? 3.8. 進出中斷的上下文保存和恢復 RISC-V架構
    發表于 10-20 09:56

    米爾RK3576部署端側多模態多輪對話,6TOPS算驅動30億參數LLM

    多輪交互機制程序會提供預設問題供用戶選擇(官方案例中也有輸入序號,可以快速提問),同時支持用戶自定義輸入,核心交互邏輯通過以下機制實現: 上下文記憶 通過設置
    發表于 09-05 17:25

    【「DeepSeek 核心技術揭秘」閱讀體驗】+看視頻+看書籍+國產開源大模型DeepSeekV3技術詳解--1

    大小的潛在向量 (Latent Vector) c_t 中。同時,為了保證對近期上下文的精確感知,它依然會實時計算當前 token 的 K 和 V。 最終,注意力機制的計算將同時作用于“壓縮的歷史
    發表于 08-23 15:20

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無法在EntryAbility中無法使用最新版

    摘要:隨著鴻蒙系統API升級至16版本(modelVersion5.1.1),多項API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發表于 07-01 10:57 ?784次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無法在EntryAbility中無法使用最新版

    UIAbility組件基本用法說明

    用getContext接口獲取當前頁面關聯的UIAbilityContext或ExtensionContext。 在UIAbility中可以通過this.context獲取UIAbility實例的上下文信息
    發表于 05-16 06:32

    經顱電刺激適應癥之tDCS治療注意力缺陷ADHD

    ADHD是常見神經行為障礙,癥狀包括注意力不集中、多動和沖動,兒童和青少年患病率為5%-7.2%,成人在1%-10%,男孩多于女孩,成年后部分癥狀會持續,引發多種并發癥,給個人、家庭和社會帶來
    的頭像 發表于 04-22 19:49 ?143次閱讀
    經顱電刺激適應癥之tDCS治療<b class='flag-5'>注意力</b>缺陷ADHD

    2D圖形渲染緩慢怎么加快?

    我有一個圖形應用程序,它似乎渲染屏幕的速度很慢。按下屏幕后,通常需要相當長的時間來更新,大約 50 或 100 毫秒。 在應用程序啟動時,我看到一條錯誤消息“GDK 無法創建 GL 上下文,回退
    發表于 04-02 06:46

    LPCXpresso54S018在位置0xBF30B670訪問后無法訪問調試端口,怎么解決?

    我使用的是 SDK 版本 2.15 并打開 freertos_hello SDK 演示應用程序可以正常構建,但下載到 Flash 會打印一條錯誤消息,指出: 15:Read Memory 中
    發表于 03-31 08:18

    S32K在AUTOSAR中使用CAT1 ISR,是否需要執行上下文切換?

    如果我們在 AUTOSAR 中使用 CAT1 ISR,是否需要執行上下文切換?另外,是否需要返回指令才能跳回到作系統?您有沒有帶有 CAT1 ISR 的 S32K3x4 微控制器的示例?
    發表于 03-27 07:34