国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)模型能否預(yù)測(cè)未來(lái)

jf_78858299 ? 來(lái)源:李rumor ? 作者:Carrie ? 2023-02-22 11:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)我們環(huán)顧身邊的世界,是不是會(huì)發(fā)現(xiàn)現(xiàn)實(shí)世界其實(shí)是由無(wú)數(shù)個(gè)相互關(guān)聯(lián)的事件(Event)所構(gòu)成的呢?而從古至今,人們也都希望自己擁有未卜先知、預(yù)測(cè)未來(lái)的能力。今天,就帶大家了解一個(gè)關(guān)于事件預(yù)測(cè)的任務(wù),一起成為小諸葛(doge.jpg)

今天帶大家了解的任務(wù)叫做腳本事件預(yù)測(cè)(Script Event Prediction) 。何為腳本呢?腳本就是描述了特定人物一系列行為的一個(gè)事件序列 ^[1]^ 。如下圖所示,該事件序列就是一個(gè)關(guān)于鮑勃(假定X就是鮑勃)去餐廳用餐的腳本。而腳本事件預(yù)測(cè),就是需要大家根據(jù)已給出的事件序列,從候選的若干的事件里面,預(yù)測(cè)接下來(lái)會(huì)發(fā)生什么事件。

圖片

腳本事件預(yù)測(cè)圖例[2]

然而,腳本事件序列任務(wù)并不僅僅是為了預(yù)測(cè)鮑勃飯后去做什么,作為一項(xiàng)重要的事件推理任務(wù),它能夠?yàn)閷?duì)話(huà)系統(tǒng)、推薦系統(tǒng)等重要引用提供基礎(chǔ),更能夠?qū)θ藗兊男袨槔斫夂蜕鐣?huì)發(fā)展起到重要作用。

在腳本中,每個(gè)事件通過(guò)一個(gè)由主語(yǔ)、謂語(yǔ)、賓語(yǔ)和間接賓語(yǔ)構(gòu)成的四元組來(lái)表示。例如 serve(Waiter, Bob, food),表示 "The waiter serves Bot food (服務(wù)生送給鮑勃食物)"。多年以來(lái),關(guān)于腳本事件預(yù)測(cè)已經(jīng)誕生了不少的研究工作。今天,本文將現(xiàn)有工作劃分為兩大類(lèi)(當(dāng)然,這樣的劃分并不絕對(duì),僅作參考)。這樣的劃分依據(jù)來(lái)源于,當(dāng)我們把自己想象為要預(yù)測(cè)事件的小諸葛,我們的預(yù)測(cè)應(yīng)該會(huì)總兩方面出發(fā)。一方面,我們會(huì)認(rèn)真挖掘已給定的事件序列, 通過(guò)對(duì)當(dāng)前事件序列不同層面上的語(yǔ)義挖掘與線(xiàn)索發(fā)現(xiàn),來(lái)預(yù)測(cè)接下來(lái)發(fā)生什么 。另一方面,當(dāng)?shù)谝环N方法仍不能帶給我們很好的效果時(shí),我們不得不尋找一些外掛,即 借助外部的知識(shí)來(lái)輔助我們的預(yù)測(cè) 。今天,我們將對(duì)這兩大類(lèi)工作進(jìn)行梳理,并對(duì)其中的代表性工作進(jìn)行簡(jiǎn)要介紹。對(duì)具體實(shí)現(xiàn)感興趣的朋友,歡迎戳相關(guān)原論文進(jìn)行查閱。

基于事件序列本身的事件預(yù)測(cè)

當(dāng)我們拿到一個(gè)事件序列,我們想必會(huì)對(duì)它進(jìn)行由淺入深的分析。最基本地,我們會(huì)分別考慮事件序列中的每個(gè)事件與候選事件之間的關(guān)系,即通過(guò)事件對(duì)之間的關(guān)聯(lián)預(yù)測(cè)事件。

基于事件對(duì)關(guān)聯(lián)建模的事件預(yù)測(cè)

基于事件對(duì)的預(yù)測(cè)方法,首先是將事件序列中的事件與候選事件形成事件對(duì)。在構(gòu)成事件對(duì)后,早先的研究工作會(huì)通過(guò)概率與統(tǒng)計(jì)的相關(guān)算法(例如 PMI 算法 ^[3]^ )計(jì)算事件對(duì)的共現(xiàn)概率,再通過(guò)整個(gè)事件序列中事件對(duì)的概率綜合來(lái)選擇候選事件。

隨著深度學(xué)習(xí)的發(fā)展,研究人員通過(guò)深度學(xué)習(xí)方法進(jìn)行事件表示,并通過(guò)全連接網(wǎng)絡(luò)計(jì)算事件間的相關(guān)性程度。例如,Granroth-Wilding等 ^[4]^ 在A(yíng)AAI2016通過(guò) What Happens Next? Event Prediction Using a Compositional Neural Network Model ^[5]^ 一文年提出了基于事件對(duì)的EventComp方法。該文作者通過(guò)詞嵌入方法進(jìn)行事件元素的表示,使用全連接網(wǎng)絡(luò)對(duì)事件對(duì)是否滿(mǎn)足順承關(guān)系進(jìn)行分類(lèi)。在訓(xùn)練過(guò)程中,作者通過(guò)隨機(jī)采樣構(gòu)建滿(mǎn)足順承關(guān)系的正樣本事件對(duì)和不滿(mǎn)足順承關(guān)系負(fù)樣本事件對(duì),通過(guò)交叉熵?fù)p失進(jìn)行模型優(yōu)化。

圖片

EventComp圖示

基于事件序列建模的事件預(yù)測(cè)

然而,基于事件對(duì)的方法聚焦于兩兩單獨(dú)事件之間的關(guān)聯(lián)性, 忽略了整個(gè)事件序列中的語(yǔ)義交互 。因此,基于事件序列建模的預(yù)測(cè)方法被廣泛提出。

事件序列級(jí)別的建模:SAM-Net: Integrating Event-Level and Chain-Level Attentions to Predict What Happens Next

對(duì)于一個(gè)事件序列來(lái)說(shuō),雖然它由若干個(gè)單獨(dú)的事件構(gòu)成。但單獨(dú)的"事件"并不能完備地表述一件事情的發(fā)生。例如,“X讀了菜單、XX下單了菜品、XX完成了付款”,這三個(gè)事件合起來(lái)構(gòu)成的事件序列片段表述了一個(gè)語(yǔ)義更加完整的"事件"。因此,呂尚文博士于 AAAI2019提出了事件序列片段 (event segment) 的概念,即 由事件序列中若干個(gè)語(yǔ)義關(guān)聯(lián)較強(qiáng)的事件構(gòu)成的事件子序列 。事件序列片段可以是 連續(xù)的若干個(gè)事件 ,例如圖(a)中的“X讀了菜單、XX下單了菜品、XX完成了付款”, 也可以是 不連續(xù)的若干事件 ,例如圖(b)中的“XX下單菜品”與"XX打包了食物、XX吃掉食物"。

圖片

事件片段示例

然而,事件序列中的事件片段并非天然標(biāo)注出來(lái)的,因此這篇論文的關(guān)鍵問(wèn)題就在于 如何從事件序列中找到事件片段,以及如何通過(guò)事件片段的語(yǔ)義來(lái)進(jìn)行事件預(yù)測(cè) 。要解決這一關(guān)鍵問(wèn)題,主要存在兩項(xiàng)挑戰(zhàn):一是如何對(duì)事件進(jìn)行有效的語(yǔ)義表示從而獲取事件片段;二是融合事件序列中單獨(dú)事件與事件片段的語(yǔ)義進(jìn)行事件預(yù)測(cè)。

圖片

SAM-Net模型圖示

關(guān)于第一項(xiàng)挑戰(zhàn),作者設(shè)計(jì)自注意力機(jī)制建模事件間的語(yǔ)義關(guān)聯(lián)性,將關(guān)聯(lián)性強(qiáng)的事件劃分為一個(gè)事件序列,并通過(guò)DenseNet模型進(jìn)行事件片段的特征提取。關(guān)于第二項(xiàng)挑戰(zhàn),作者通過(guò)事件層面和事件序列層面的注意力機(jī)制分別來(lái)衡量單個(gè)事件和事件片段對(duì)事件預(yù)測(cè)的影響,并在二者的結(jié)合下進(jìn)行最終的事件候選事件預(yù)測(cè)。

論元級(jí)別的建模:WWW2021: Multi-level Connection Enhanced Representation Learning for Script Event Prediction

盡管基于事件對(duì)、事件片段的建模方法取得了良好的實(shí)驗(yàn)效果,但上述方法都停留在粗粒度的事件級(jí)別的建模,而忽略了事件要素所呈現(xiàn)的復(fù)雜語(yǔ)義特征。基于此,岳聚微博士于WWW2021提出,通過(guò)同時(shí)建模 事件要素級(jí)別事件級(jí)別事件序列級(jí)別的多粒度特征來(lái)進(jìn)行事件預(yù)測(cè)。

圖片

在具體的實(shí)現(xiàn)中,主要包括兩個(gè)模塊。一是 事件要素表示模塊 ,該模塊以整個(gè)事件序列為輸入,通過(guò)帶掩碼的多頭自注意力機(jī)制學(xué)習(xí)事件要素間的隱式關(guān)聯(lián),得到細(xì)粒度的事件要素級(jí)別的表示;然后,作者將事件要素向量拼接,通過(guò)全連接層和激活函數(shù)的特征變換輸出事件級(jí)的特征表示。得到初始的事件表示后,作者設(shè)計(jì) 事件特征抽取模塊 ,借鑒Li et al.^[6]^ 于IJCAI2018提出的基于圖結(jié)構(gòu)建模事件間演化關(guān)系的思想,將事件序列轉(zhuǎn)化到圖結(jié)構(gòu)上,通過(guò)圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)事件序列層面上的事件的特征表示,再進(jìn)行預(yù)測(cè)。

多粒度級(jí)別建模:IJIS2022: What happens next? Combining enhancedmultilevel script learning and dual fusionstrategies for script event prediction

上一篇WWW2021的工作融合的是要素級(jí)別和事件級(jí)別兩個(gè)層面的語(yǔ)義信息,而這一篇發(fā)表于International Journal of Intelligent Systems的工作則通過(guò)同時(shí)建模事件級(jí)別、事件序列級(jí)別和事件片段級(jí)別三種粒度的語(yǔ)義來(lái)實(shí)現(xiàn)事件預(yù)測(cè),取得了優(yōu)異的實(shí)驗(yàn)性能。

圖片

基于圖結(jié)構(gòu)建模的事件預(yù)測(cè)

IJCAI2018-Constructing Narrative Event Evolutionary Graph for Script Event Prediction

盡管上述基于事件序列的建模方法卓有成效,但仍舊存在難以處理的情況。如下圖所示,圖中包括A,B,C,D,E五個(gè)事件,圖(a)要求預(yù)測(cè)事件C的后續(xù)事件為D。然而,根據(jù)圖(b)的訓(xùn)練數(shù)據(jù),事件C 的后續(xù)事件是E的概率大于為D的概率,這可能導(dǎo)致圖(a)中做出錯(cuò)誤的預(yù)測(cè)。然而,如果我們以圖結(jié)構(gòu)來(lái)組織數(shù)據(jù),就可以發(fā)現(xiàn)事件B、C和D往往同時(shí)出現(xiàn),也就是說(shuō),圖結(jié)構(gòu)能夠刻畫(huà)一種 更加復(fù)雜的事件間演化關(guān)系 ,這為圖(a)中的事件預(yù)測(cè)提供了重要線(xiàn)索。

圖片

從上述思想出發(fā),哈工大李忠陽(yáng)博士構(gòu)建了敘事事件演化圖(Narrative Event Evolutionary Graph, NEEG) , 如下圖所示 。該圖中的 節(jié)點(diǎn)為具體的事件有向邊表示事件間的演化關(guān)系邊上的權(quán)重表示該演化關(guān)系出現(xiàn)的頻率

圖片

敘事事件演化圖示例

在完成演化圖構(gòu)建后,作者對(duì)門(mén)控圖神經(jīng)網(wǎng)絡(luò)(Gated Graph Neural Networks, GGNN)進(jìn)行拓展,實(shí)現(xiàn)了可以適應(yīng)于小規(guī)模子圖結(jié)構(gòu)的Scaled Graph Neural Network (SGNN)在圖結(jié)構(gòu)上進(jìn)行事件表示的學(xué)習(xí),再進(jìn)行事件的預(yù)測(cè)。

在后來(lái)的研究中,基于圖結(jié)構(gòu)進(jìn)行事件預(yù)測(cè)的工作仍在繼續(xù)。在COLING2020中,來(lái)自國(guó)防科大的學(xué)者通過(guò) Heterogeneous Graph Neural Networks to Predict What Happen Next^[7]^ 一文提出基于異質(zhì)圖建模的事件預(yù)測(cè);在ACL2022中,來(lái)自哈工大的杜理博士將圖結(jié)構(gòu)(Graph)與BERT模型結(jié)合,在 A Graph Enhanced BERT Model for Event Prediction^[8]^ 一文提出了能夠自動(dòng)預(yù)測(cè)事件圖結(jié)構(gòu)信息的方法GraphBERT,避免了測(cè)試事件不被事件圖覆蓋的問(wèn)題。

基于外部知識(shí)增強(qiáng)的事件預(yù)測(cè)

因?yàn)槟_本中的事件是通過(guò)元組表示的,這導(dǎo)致它吧 在腳本中,每個(gè)事件都由四個(gè)單詞/詞組構(gòu)成的元組表示,這導(dǎo)致較之傳統(tǒng)的自然語(yǔ)言文本,由事件元組構(gòu)成的事件序列所能提供的語(yǔ)義信息非常有限。因此,研究人員開(kāi)始考慮從外部資源庫(kù)中 提取知識(shí)來(lái)增強(qiáng)事件表示。根據(jù)引入知識(shí)的不同,基于外部知識(shí)增強(qiáng)的事件預(yù)測(cè)工作大體可分為三類(lèi)。

話(huà)語(yǔ)關(guān)系增強(qiáng)的事件預(yù)測(cè)

ACL2019-Multi-Relational Script Learning for Discourse Relations

第一類(lèi)是基于話(huà)語(yǔ)關(guān)系建模事件間關(guān)系的事件預(yù)測(cè)。為什么需要事件間的關(guān)系來(lái)推理后續(xù)事件的發(fā)生呢?

如下圖所示,對(duì)于Step1的事件“Jenny went to her favorite restaurant”,若基于傳統(tǒng)的事件共現(xiàn)性建模,Step2中的事件“She was very hungry”和“It was raining outside”都可能是Step1的后續(xù)事件。然而,如果給定了Step2的事件是Step1事件的原因(即因果關(guān)系) ,則可以推出Step2中被選定的事件為“She was very hungry”。因此,如果能挖掘事件之間的關(guān)系(例如,原因、時(shí)序、轉(zhuǎn)折等),則能為事件預(yù)測(cè)提供強(qiáng)有力的線(xiàn)索。

圖片

基于上述思想,來(lái)自普渡大學(xué)的學(xué)者 I-Ta Lee 在A(yíng)CL2019引入了話(huà)語(yǔ)數(shù)據(jù)庫(kù)PDTB中的話(huà)語(yǔ)關(guān)系,設(shè)計(jì)了一種基于 細(xì)粒度多關(guān)系建模的事件表示方法 。具體地,作者合計(jì)引入了 三大類(lèi)共11種關(guān)系 :1)COREF_NEXT,指是同一指代鏈上的事件序列關(guān)系;2)NEXT,指特定大小上下文窗口之間同時(shí)發(fā)生的事件;3)Discourse Relations(話(huà)語(yǔ)關(guān)系),包括原因、結(jié)果和條件等如下表所示的合計(jì)9種話(huà)語(yǔ)關(guān)系。基于事件間的關(guān)系類(lèi)型,分別通過(guò)TransETransR策略進(jìn)行事件表示學(xué)習(xí),從而進(jìn)行相關(guān)任務(wù)的預(yù)測(cè)。

圖片

后續(xù),I-Ta Lee 在其發(fā)表于EMNLP2020 的 Weakly-Supervised Modeling of Contextualized Event Embedding for Discourse Relations ^[9]^ 一文中再次通過(guò)引入話(huà)語(yǔ)關(guān)系建模事件間關(guān)系進(jìn)行任務(wù)預(yù)測(cè),取得了良好的效果。

知識(shí)庫(kù)增強(qiáng)的事件預(yù)測(cè)

基于事件知識(shí)庫(kù)的語(yǔ)義增強(qiáng):COLING2020-Integrating External Event Knowledge for Script Learning

較之話(huà)語(yǔ)關(guān)系,事件知識(shí)圖譜則更直觀(guān)表達(dá)了事件間語(yǔ)義關(guān)系的信息。例如圖所示,通過(guò)的事件三元組可以非常明確地作為事件"Jack felt hungry"的后續(xù)事件是"He had lunch"。同理,當(dāng)我們預(yù)測(cè)整個(gè)事件序列的后續(xù)事件時(shí),根據(jù)知識(shí)庫(kù)中的三元組,便可以判斷當(dāng)前腳本的后續(xù)事件是"He left home"。

圖片

基于上述思想,COLING這篇論文的關(guān)鍵問(wèn)題就在于 融合外部的事件知識(shí)來(lái)幫助解決腳本事件預(yù)測(cè)問(wèn)題 ,具體包括兩個(gè)核心的階段:知識(shí)抽取階段以及 知識(shí)融合階段 。在知識(shí)抽取的階段,作者以腳本序列中的事件作為查詢(xún),在事件知識(shí)庫(kù)中檢索對(duì)應(yīng)的事件及其對(duì)應(yīng)的 事件三元組 ;在知識(shí)融合階段,作者設(shè)計(jì)了融入尾實(shí)體 (Tail only)事件模板轉(zhuǎn)換 (Event Template)關(guān)系嵌入表示 (Relation Embedding) 三種知識(shí)融合方法獲取外部知識(shí)感知的事件表示。最后,基于事件表示進(jìn)行相應(yīng)的任務(wù)預(yù)測(cè)。

圖片

基于常識(shí)知識(shí)庫(kù)的語(yǔ)義增強(qiáng) EMNLP2019: Event Representation Learning Enhanced with External Commonsense Knowledge

除了事件知識(shí)圖譜,常識(shí)知識(shí)庫(kù)也能為事件預(yù)測(cè)提供有效的線(xiàn)索。哈工大丁效老師于EMNLP2019的論文指出:客觀(guān)事件的發(fā)生會(huì)被人類(lèi)的主觀(guān)情感所影響,而不同的事件背后所體現(xiàn)的意圖和情感也互不相同,因此通過(guò)EventMind ^[10]^ 和 ATOMIC ^[11]^ 兩個(gè)常識(shí)知識(shí)庫(kù)引入情感和意圖知識(shí)來(lái)增強(qiáng)事件表示的語(yǔ)義信息,從而辨別易混淆的事件。

圖片

原文本增強(qiáng)的事件預(yù)測(cè)

第三類(lèi)被引入的外部知識(shí)是 腳本事件本身的原始文本 。正如前文分析,導(dǎo)致腳本事件語(yǔ)義稀疏的重要原因之一就是事件脫離了其本身的上下文,那么,最直觀(guān)可以用來(lái)增強(qiáng)語(yǔ)義的外部知識(shí)就是腳本事件本身的原始文本。

原始文本增強(qiáng)的事件預(yù)測(cè) AAAI2023: Rich Event Modeling for Script Event Prediction

在A(yíng)AAI2023, 中科院計(jì)算所的白龍博士指出,腳本事件預(yù)測(cè)任務(wù)的挑戰(zhàn)主要體現(xiàn)在兩方面:一是事件描述,這體現(xiàn)了事件應(yīng)當(dāng)包含了怎樣的信息;二是事件編碼,這體現(xiàn)在如何將事件編碼為機(jī)器可計(jì)算的有效表示。關(guān)于 事件描述 ,現(xiàn)有工作中的事件都通過(guò)一個(gè)由主語(yǔ)、謂語(yǔ)動(dòng)詞、賓語(yǔ)和間接賓語(yǔ)構(gòu)成的四元組來(lái)表示。由于缺失事件所處的上下文,可能導(dǎo)致謂語(yǔ)動(dòng)詞的語(yǔ)義模糊(例如,動(dòng)詞 fall 可能表達(dá)"被擊敗"或"落下"的語(yǔ)義),且主語(yǔ)、賓語(yǔ)和間接賓語(yǔ)無(wú)法準(zhǔn)確描述事件內(nèi)涵的問(wèn)題;關(guān)于 事件編碼 ,現(xiàn)有的編碼器僅局限于對(duì)固定數(shù)量論元的事件進(jìn)行編碼,導(dǎo)致無(wú)法處理論元數(shù)量不等以及論元間靈活交互的問(wèn)題。

圖片

為了解決上述問(wèn)題,作者設(shè)計(jì)了名為 Rich Event Prediction 的方案:通過(guò) Abstract Meaning Representation (AMR) 對(duì)事件原屬文本進(jìn)行解析,從而獲取 rich event prediction,并通過(guò)Transformer編碼器來(lái)捕捉事件論元間的關(guān)聯(lián)關(guān)系,取得了良好的實(shí)驗(yàn)效果。

總結(jié)

上文從兩個(gè)方面梳理了現(xiàn)有的腳本事件預(yù)測(cè)的相關(guān)工作,并介紹了代表性的相關(guān)工作。其實(shí),除了上文介紹的論文,還有許多非常精彩關(guān)于事件預(yù)測(cè)的工作,感興趣的小伙伴可以盡情挖掘,大家一起成為未卜先知的小諸葛(doge.jpg)

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • PMI
    PMI
    +關(guān)注

    關(guān)注

    0

    文章

    17

    瀏覽量

    9864
  • 腳本
    +關(guān)注

    關(guān)注

    1

    文章

    409

    瀏覽量

    29200
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124405
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【詳解】FPGA:深度學(xué)習(xí)未來(lái)

    的做法被計(jì)算機(jī)從大量數(shù)據(jù)中自動(dòng)習(xí)得可組合系統(tǒng)的能力所取代,使得計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別、自然語(yǔ)言處理等關(guān)鍵領(lǐng)域都出現(xiàn)了重大突破。深度學(xué)習(xí)是這些領(lǐng)域中所最常使用的技術(shù),也被業(yè)界大為關(guān)注。然而,深度學(xué)
    發(fā)表于 08-13 09:33

    深度學(xué)習(xí)預(yù)測(cè)和健康管理中的應(yīng)用

    深度學(xué)習(xí)預(yù)測(cè)和健康管理中的應(yīng)用綜述摘要深度學(xué)習(xí)對(duì)預(yù)測(cè)和健康管理(PHM)引起了濃厚的興趣,因?yàn)?/div>
    發(fā)表于 07-12 06:46

    模型預(yù)測(cè)控制介紹

    這篇主要講一下模型預(yù)測(cè)控制,如果對(duì)PID控制了解的同學(xué),那效果更好。如果不了解PID控制,還是熟悉下比較好。模型預(yù)測(cè)控制,顧名思義,基于模型
    發(fā)表于 08-18 06:21

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來(lái)了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個(gè)行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的計(jì)算模型。作為具體示例,讓我們考慮一個(gè)輸入圖像
    發(fā)表于 02-17 16:56

    FPGA是深度學(xué)習(xí)未來(lái)

    FPGA是深度學(xué)習(xí)未來(lái)學(xué)習(xí)資料,感興趣的可以看看。
    發(fā)表于 10-26 15:29 ?0次下載

    做時(shí)間序列預(yù)測(cè)是否有必要用深度學(xué)習(xí)

    , GBRT)等簡(jiǎn)單機(jī)器學(xué)習(xí)模型,而且增強(qiáng)了這樣一種預(yù)期,即機(jī)器學(xué)習(xí)領(lǐng)域的時(shí)間序列預(yù)測(cè)模型需要以深度
    的頭像 發(fā)表于 03-24 13:59 ?2509次閱讀

    模型為什么是深度學(xué)習(xí)未來(lái)

    與傳統(tǒng)機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)中學(xué)習(xí),而大模型則是通過(guò)使用大量的模型來(lái)訓(xùn)練數(shù)據(jù)。
    的頭像 發(fā)表于 02-16 11:32 ?2977次閱讀

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程

    基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)方法。 深度學(xué)習(xí)算法可以分為兩大類(lèi):監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)。監(jiān)督學(xué)習(xí)的基本任
    的頭像 發(fā)表于 08-17 16:11 ?1974次閱讀

    深度學(xué)習(xí)的定義和特點(diǎn) 深度學(xué)習(xí)典型模型介紹

    深度學(xué)習(xí)(Deep Learning)是一種基于人工神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是模型由多個(gè)隱層組成,可以自動(dòng)地學(xué)習(xí)特征,并進(jìn)行
    發(fā)表于 08-21 18:22 ?6304次閱讀

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè),主要是通過(guò)對(duì)YOLOv8姿態(tài)評(píng)估模型在自定義的數(shù)據(jù)集上
    的頭像 發(fā)表于 12-21 10:50 ?3983次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置<b class='flag-5'>預(yù)測(cè)</b>

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測(cè),主要是通過(guò)對(duì)YOLOv8姿態(tài)評(píng)估模型在自定義的數(shù)據(jù)集上訓(xùn)
    的頭像 發(fā)表于 12-22 11:07 ?1627次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置<b class='flag-5'>預(yù)測(cè)</b>

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-01 16:13 ?4297次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿(mǎn)無(wú)限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?5934次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?4026次閱讀