国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要使用預(yù)訓(xùn)練模型?8種優(yōu)秀預(yù)訓(xùn)練模型大盤點

電子工程師 ? 來源:lp ? 2019-04-04 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如今,自然語言處理(NLP)可謂遍地開花,可以說正是我們了解它的好時機(jī)。

NLP的快速增長主要得益于通過預(yù)訓(xùn)練模型實現(xiàn)轉(zhuǎn)移學(xué)習(xí)的概念。在NLP中,轉(zhuǎn)移學(xué)習(xí)本質(zhì)上是指在一個數(shù)據(jù)集上訓(xùn)練模型,然后調(diào)整該模型以便在不同數(shù)據(jù)集上實現(xiàn)NLP的功能。

這一突破使NLP應(yīng)用變得如此簡單,尤其是那些沒有時間或資源從頭開始構(gòu)建NLP模型的人。或者,對于想要學(xué)習(xí)或者從其他領(lǐng)域過渡到NLP的新手來說,這簡直就是完美。

為什么要使用預(yù)訓(xùn)練模型?

模型的作者已經(jīng)設(shè)計出了基準(zhǔn)模型,這樣我們就可以在自己的NLP數(shù)據(jù)集上使用該預(yù)訓(xùn)練模型,而無需從頭開始構(gòu)建模型來解決類似的問題

盡管需要進(jìn)行一些微調(diào),但這為我們節(jié)省了大量的時間和計算資源

在本文中展示了那些助你開始NLP之旅的頂級預(yù)訓(xùn)練模型,以及該領(lǐng)域的最新研究成果。要查看關(guān)于計算機(jī)視覺中的頂級預(yù)訓(xùn)練模型的文章,請參閱:

https://www.analyticsvidhya.com/blog/2018/07/top-10-pretrained-models-get-started-deep-learning-part-1-computer-vision/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

本文涵蓋的NLP預(yù)訓(xùn)練模型

我根據(jù)應(yīng)用場景將預(yù)訓(xùn)練模型分為三類:

多用途NLP模型

ULMFiT

Transformer

谷歌的BERT

Transformer-XL

OpenAI的GPT-2

詞嵌入NLP模型

ELMo

Flair

其他預(yù)訓(xùn)練模型

StanfordNLP

多用途NLP模型

多用途模型在NLP領(lǐng)域里一直為人們所關(guān)注。這些模型為提供了許多令人感興趣的NLP應(yīng)用 - 機(jī)器翻譯、問答系統(tǒng)、聊天機(jī)器人、情感分析等。這些多用途NLP模型的核心是語言建模的理念。

簡單來說,語言模型的目的是預(yù)測語句序列中的下一個單詞或字符,在我們了解各模型時就會明白這一點。

如果你是NLP愛好者,那么一定會喜歡現(xiàn)在這部分,讓我們深入研究5個最先進(jìn)的多用途NLP模型框架。這里我提供了每種模型的研究論文和預(yù)訓(xùn)練模型的鏈接,來探索一下吧!

ULMFiT模型

ULMFiT由fast.ai(深度學(xué)習(xí)網(wǎng)站)的Jeremy Howard和DeepMind(一家人工智能企業(yè))的Sebastian Ruder提出并設(shè)計。可以這么說,ULMFiT開啟了轉(zhuǎn)移學(xué)習(xí)的熱潮。

正如我們在本文中所述,ULMFiT使用新穎的NLP技術(shù)取得了令人矚目的成果。該方法對預(yù)訓(xùn)練語言模型進(jìn)行微調(diào),將其在WikiText-103數(shù)據(jù)集(維基百科的長期依賴語言建模數(shù)據(jù)集Wikitext之一)上訓(xùn)練,從而得到新數(shù)據(jù)集,通過這種方式使其不會忘記之前學(xué)過的內(nèi)容。

ULMFiT比許多先進(jìn)的文本分類模型還要好。我喜愛ULMFiT是因為它只需要很少的數(shù)據(jù)就可以來產(chǎn)生令人印象深刻的結(jié)果,使我們更容易理解并在機(jī)器上實現(xiàn)它!

也許你不知道ULMFiT其實是Universal Language Model Fine-Tuning(通用語言模型微調(diào))的簡稱。“通用”一詞在這里非常貼切 - 該框架幾乎可以應(yīng)用于任何NLP任務(wù)。

想知道有關(guān)ULMFiT的更多信息,請參閱以下文章和論文:

使用ULMFiT模型和Python 的fastai庫進(jìn)行文本分類(NLP)教程

https://www.analyticsvidhya.com/blog/2018/11/tutorial-text-classification-ulmfit-fastai-library/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

ULMFiT的預(yù)訓(xùn)練模型論文

https://www.paperswithcode.com/paper/universal-language-model-fine-tuning-for-text

其他研究論文

https://arxiv.org/abs/1801.06146

Transformer模型

Transformer架構(gòu)是NLP近期最核心的發(fā)展,2017年由谷歌提出。當(dāng)時,用于語言處理任務(wù)(如機(jī)器翻譯和問答系統(tǒng))的是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)。

Transformer架構(gòu)的性能比RNN和CNN(卷積神經(jīng)網(wǎng)絡(luò))要好,訓(xùn)練模型所需的計算資源也更少,這對于每個使用NLP的人來說都是雙贏。看看下面的比較:

各模型的英德翻譯質(zhì)量

根據(jù)Google的說法,Transformer模型“應(yīng)用了一種自注意力機(jī)制,可直接模擬句子中所有單詞之間的關(guān)系,而無需理會其各自的位置如何”。它使用固定長度上下文(也就是前面的單詞)來實現(xiàn)。太復(fù)雜了?沒事,我們舉一例子簡單說明。

有句話“She found the shells on the bank of the river.”此時模型需要明白,這里的“bank”是指岸邊,而不是金融機(jī)構(gòu)(銀行)。Transformer模型只需一步就能理解這一點。我希望你能閱讀下面鏈接的完整論文,以了解其工作原理。它肯定會讓你大吃一驚。

谷歌去年發(fā)布了一款名為Universal Transformer的改進(jìn)版Transformer模型。它還有一個更新,更直觀的名字,叫Transformer-XL,我們將在后面介紹。

想學(xué)習(xí)和閱讀更多有關(guān)Transformer的信息,請訪問:

谷歌官方博文

https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

Transformer預(yù)訓(xùn)練模型論文《Attention Is All You Need》

https://www.paperswithcode.com/paper/attention-is-all-you-need

其他研究論文

https://arxiv.org/abs/1706.03762

BERT模型(谷歌)

谷歌發(fā)布BERT框架并開放其源代碼在業(yè)界掀起波瀾,甚至有人認(rèn)為這是否標(biāo)志著“ NLP新時代”的到來。但至少有一點可以肯定,BERT是一個非常有用的框架,可以很好地推廣到各種NLP任務(wù)中。

BERT是BidirectionalEncoderRepresentations(雙向編碼器表征)的簡稱。這個模型可以同時考慮一個詞的兩側(cè)(左側(cè)和右側(cè))上下文,而以前的所有模型每次都是只考慮詞的單側(cè)(左側(cè)或右側(cè))上下文。這種雙向考慮有助于模型更好地理解單詞的上下文。此外,BERT可以進(jìn)行多任務(wù)學(xué)習(xí),也就是說,它可以同時執(zhí)行不同的NLP任務(wù)。

BERT是首個無監(jiān)督的、深度雙向預(yù)訓(xùn)練NLP模型,僅使用純文本語料庫進(jìn)行訓(xùn)練。

在發(fā)布時,谷歌稱BERT進(jìn)行了11個自然語言處理(NLP)任務(wù),并產(chǎn)生高水平的結(jié)果,這一壯舉意義深遠(yuǎn)!你可以在短短幾個小時內(nèi)(在單個GPU上)使用BERT訓(xùn)練好自己的NLP模型(例如問答系統(tǒng))。

想獲得更多有關(guān)BERT的資源,請參閱:

谷歌官方博文

https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html

BERT預(yù)訓(xùn)練模型論文

https://www.paperswithcode.com/paper/bert-pre-training-of-deep-bidirectional#code

其他研究論文

https://arxiv.org/pdf/1810.04805.pdf

Transformer-XL模型(谷歌)

從長期來看,谷歌發(fā)布的版本對NLP而言是非常重要的。如果你是初學(xué)者,這個概念可能會有點棘手,所以我鼓勵你多讀幾遍來掌握它。我還在本節(jié)下面提供了多種資源來幫助你開始使用Transformer-XL。

想象一下——你剛讀到一本書的一半,突然出現(xiàn)了這本書開頭提到的一個詞或者一句話時,就能回憶起那是什么了。但可以理解,機(jī)器很難建立長期的記憶模型。

如上所述,要達(dá)成這個目的的一種方法是使用Transformers,但它們是在固定長度的上下文中實現(xiàn)的。換句話說,如果使用這種方法,就沒有太大的靈活性。

Transformer-XL很好地彌補(bǔ)了這個差距。它由Google AI團(tuán)隊開發(fā),是一種新穎的NLP架構(gòu),能夠幫助機(jī)器理解超出固定長度限制的上下文。Transformer-XL的推理速度比傳統(tǒng)的Transformer快1800倍。

通過瀏覽下面谷歌發(fā)布的兩個gif文件,你就會明白這其中的區(qū)別:

正如你現(xiàn)在可能已經(jīng)預(yù)測到的,Transformer-XL在各種語言建模基準(zhǔn)/數(shù)據(jù)集上取得了最新的技術(shù)成果。以下是他們頁面上的一個小表格,說明了這一點:

之前給過鏈接并將在下面提到的Transformer-XL GitHub存儲庫包含了PyTorch和TensorFlow中的代碼。

學(xué)習(xí)和閱讀更多Transformer-XL有關(guān)信息的資源:

谷歌的官方博客文章

https://ai.googleblog.com/2019/01/transformer-xl-unleashing-potential-of.html

Transformer-XL的預(yù)訓(xùn)練模型

https://www.paperswithcode.com/paper/transformer-xl-attentive-language-models

研究論文

https://arxiv.org/abs/1901.02860

GPT-2模型(OpenAI)

這是一個十分有爭議的模型,一些人會認(rèn)為GPT-2的發(fā)布是OpenAI的營銷噱頭。我可以理解他們的想法,但是我認(rèn)為至少應(yīng)該要先對OpenAI發(fā)布的代碼進(jìn)行嘗試。

首先,為那些不知道我在說什么的人提供一些背景信息。OpenAI在2月份發(fā)表了一篇博客文章,他們聲稱已經(jīng)設(shè)計了一個名為GPT-2的NLP模型,這個模型非常好,以至于擔(dān)心被惡意使用而無法發(fā)布完整的版本,這當(dāng)然引起了社會的關(guān)注。

GPT-2經(jīng)過訓(xùn)練,可以用來預(yù)測40GB的互聯(lián)網(wǎng)文本數(shù)據(jù)中的下一個出現(xiàn)的詞。 該框架也是一個基于transformer的模型,而這個模型是基于800萬個web頁面的數(shù)據(jù)集來進(jìn)行訓(xùn)練。他們在網(wǎng)站上發(fā)布的結(jié)果簡直令人震驚,因為該模型能夠根據(jù)我們輸入的幾個句子編寫出一個完整的故事。看看這個例子:

難以置信,是吧?

開發(fā)人員已經(jīng)發(fā)布了一個更小版本的GPT-2,供研究人員和工程師測試。原始模型有15億個參數(shù)——開放源碼示例模型有1.17億個參數(shù)。

學(xué)習(xí)和閱讀更多GPT-2有關(guān)信息的資源:

OpenAI的官方博客文章

https://openai.com/blog/better-language-models/

GPT-2的預(yù)訓(xùn)練模型

https://github.com/openai/gpt-2

研究論文

https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf

詞嵌入(word embedding)模型

我們使用的大多數(shù)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法都無法直接處理字符串和純文本。這些技術(shù)要求我們將文本數(shù)據(jù)轉(zhuǎn)換為數(shù)字,然后才能執(zhí)行任務(wù)(例如回歸或分類)。

因此簡單來說, 詞嵌入(word embedding)是文本塊,這些文本塊被轉(zhuǎn)換成數(shù)字以用于執(zhí)行NLP任務(wù)。詞嵌入(word embedding)格式通常嘗試使用字典將單詞映射到向量。

你可以在下面的文章中更深入地了解word embedding、它的不同類型以及如何在數(shù)據(jù)集中使用它們。如果你不熟悉這個概念,我認(rèn)為本指南必讀:

對詞嵌入的直觀理解:從計算向量到Word2Vec

https://www.analyticsvidhya.com/blog/2019/03/pretrained-models-get-started-nlp/

在本節(jié)中,我們將介紹NLP的兩個最先進(jìn)的詞嵌入(word embedding)。我還提供了教程鏈接,以便你可以對每個主題有實際的了解。

ELMo模型

這個ELMo并不是《芝麻街》里的那個角色,但是這個ELMo(Embeddings from Language Models(語言模型嵌入)的縮寫)在構(gòu)建NLP模型的上下文中非常有用。

ELMo是一種用向量和嵌入表示單詞的新方法。這些ELMo 詞嵌入(word embedding)幫助我們在多個NLP任務(wù)上實現(xiàn)最先進(jìn)的結(jié)果,如下圖所示:

讓我們花點時間來了解一下ELMo是如何工作的。回想一下我們之前討論過的雙向語言模型。從這篇文章中我們能夠得到提示,“ELMo單詞向量是在雙層雙向語言模型(biLM)的基礎(chǔ)上進(jìn)行計算的。這個biLM模型有兩層疊加在一起,每一層都有2個通道——前向通道和后向通道:

ELMo單詞表示考慮計算詞嵌入(word embedding)的完整輸入語句。因此,“read”這單詞在不同的上下文中具有不同的ELMo向量。這與舊版的詞嵌入(word embedding)大不相同,舊版中無論在什么樣的上下文中使用單詞“read”,分配給該單詞的向量是相同的。

學(xué)習(xí)和閱讀更多ELMo有關(guān)信息的資源:

循序漸進(jìn)的NLP指南,了解ELMo從文本中提取特征

https://www.analyticsvidhya.com/blog/2019/03/learn-to-use-elmo-to-extract-features-from-text/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

預(yù)訓(xùn)練模型的GitHub存儲庫

https://github.com/allenai/allennlp/blob/master/tutorials/how_to/elmo.md

研究論文

https://arxiv.org/pdf/1802.05365.pdf

Flair模型

Flair不是一個詞嵌入(word embedding),而是它的組合。我們可以將Flair稱為結(jié)合了GloVe、BERT與ELMo等嵌入方式的NLP庫。Zalando Research的優(yōu)秀員工已經(jīng)開發(fā)了開源的Flair。

該團(tuán)隊已經(jīng)為以下NLP任務(wù)發(fā)布了幾個預(yù)訓(xùn)練模型:

名稱 - 實體識別(NER)

詞性標(biāo)注(PoS)

文本分類

培訓(xùn)定制模型

不相信嗎?那么,這個對照表會幫你找到答案:

“Flair Embedding”是Flair庫中打包的簽名嵌入,它由上下文字符串嵌入提供支持。了解支持Flair的核心組件可以閱讀這篇文章:

https://www.analyticsvidhya.com/blog/2019/02/flair-nlp-library-python/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

我特別喜歡Flair的地方是它支持多種語言,而這么多的NLP發(fā)行版大多都只有英文版本。如果NLP要在全球獲得吸引力,我們需要在此基礎(chǔ)上進(jìn)行擴(kuò)展。

學(xué)習(xí)和閱讀更多有關(guān)Flair的資源:

Flair for NLP簡介:一個簡單但功能強(qiáng)大的最先進(jìn)的NLP庫

https://www.analyticsvidhya.com/blog/2019/02/flair-nlp-library-python/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

Flair的預(yù)訓(xùn)練模型

https://github.com/zalandoresearch/flair

其他預(yù)訓(xùn)練模型

StanfordNLP (斯坦福)

提到擴(kuò)展NLP使其不局限于英語,這里有一個已經(jīng)實現(xiàn)該目的的庫——StanfordNLP。其作者聲稱StanfordNLP支持超過53種語言,這當(dāng)然引起了我們的注意。

我們的團(tuán)隊是第一批使用該庫并在真實數(shù)據(jù)集上發(fā)布結(jié)果的團(tuán)隊之一。我們通過嘗試,發(fā)現(xiàn)StanfordNLP確實為在非英語語言上應(yīng)用NLP技術(shù)提供了很多可能性,比如印地語、漢語和日語。

StanfordNLP是一系列經(jīng)過預(yù)先訓(xùn)練的最先進(jìn)的NLP模型的集合。這些模型不僅是在實驗室里進(jìn)行測試——作者在2017年和2018年的CoNLL競賽中都使用了這些模型。在StanfordNLP中打包的所有預(yù)訓(xùn)練NLP模型都是基于PyTorch構(gòu)建的,可以在你自己的注釋數(shù)據(jù)上進(jìn)行訓(xùn)練和評估。

我們認(rèn)為你應(yīng)該考慮使用StanfordNLP的兩個主要原因是:

用于執(zhí)行文本分析的完整神經(jīng)網(wǎng)絡(luò)管道,包括。

標(biāo)記化

多字令牌(MWT)拓展

詞形還原

詞性(POS)和詞形特征標(biāo)記

依存語法分析

穩(wěn)定的Stanford CoreNLP軟件的官方Python接口

學(xué)習(xí)和閱讀更多StanfordNLP有關(guān)信息的資源:

StanfordNLP簡介:一個不可思議的支持53種語言的最先進(jìn)NLP庫 (使用Python代碼)

https://www.analyticsvidhya.com/blog/2019/02/stanfordnlp-nlp-library-python/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

StanfordNLP的預(yù)訓(xùn)練模型

https://github.com/stanfordnlp/stanfordnlp

尾注

這絕不是一個預(yù)訓(xùn)練NLP模型的詳盡列表,有更多能用的可以在這個網(wǎng)站上找到:https://paperswithcode.com

以下是學(xué)習(xí)NLP的一些有用資源:

使用Python課程進(jìn)行自然語言處理https://courses.analyticsvidhya.com/courses/natural-language-processing-nlp?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

認(rèn)證項目:NLP初學(xué)者h(yuǎn)ttps://courses.analyticsvidhya.com/bundles/nlp-combo?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

自然語言處理(NLP)系列文章https://www.analyticsvidhya.com/blog/category/nlp/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

我很想聽聽你對這份清單的看法。你以前用過這些預(yù)訓(xùn)練過的模型嗎?或者你已經(jīng)探索過其他的模型?請在下面的評論區(qū)告訴我——我很樂意搜索它們并添加到這個列表中。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26190
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14665
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23280

原文標(biāo)題:8種優(yōu)秀預(yù)訓(xùn)練模型大盤點,NLP應(yīng)用so easy!

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    訓(xùn)練到推理:大模型算力需求的新拐點已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點主要集中在大模型訓(xùn)練所需的算力投入。一個萬億參數(shù)大模型訓(xùn)練可能需要數(shù)千張GPU芯片連續(xù)運行數(shù)月,成本高
    的頭像 發(fā)表于 02-05 16:07 ?794次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點已至

    什么是大模型,智能體...?大模型100問,快速全面了解!

    ,LLM)是大模型中最主要的一類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數(shù)據(jù)(如書籍、網(wǎng)頁、文章等)進(jìn)行預(yù)訓(xùn)練,學(xué)會語言的模式、知識和上下文
    的頭像 發(fā)表于 02-02 16:36 ?890次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量
    的頭像 發(fā)表于 11-20 18:06 ?2076次閱讀
    RA<b class='flag-5'>8</b>P1部署ai<b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型訓(xùn)練并保存,就可以用于對新圖像進(jìn)行推理和預(yù)
    發(fā)表于 10-22 07:03

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3471次閱讀

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機(jī)器人操作領(lǐng)域的VLA模型普遍基于跨本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)有大規(guī)模機(jī)器人演示數(shù)據(jù)稀缺且質(zhì)量參差不齊。得
    的頭像 發(fā)表于 08-21 09:56 ?1096次閱讀
    基于大規(guī)模人類操作數(shù)據(jù)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎?

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎
    發(fā)表于 06-23 07:38

    模型時代的深度學(xué)習(xí)框架

    量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費類顯卡 RTX-4090只需大約35~40個小時 ,即可完成ResNet50模型預(yù)訓(xùn)練。在 大模型時代 ,由于大
    的頭像 發(fā)表于 04-25 11:43 ?834次閱讀
    大<b class='flag-5'>模型</b>時代的深度學(xué)習(xí)框架

    恩智浦eIQ Time Series Studio工具使用教程之模型訓(xùn)練

    大家好,eIQ Time SeriesStudio又和大家見面啦!本章為大家?guī)砉ぞ吆诵牟糠?模型訓(xùn)練
    的頭像 發(fā)表于 03-25 15:25 ?1706次閱讀
    恩智浦eIQ Time Series Studio工具使用教程之<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>

    請問如何在imx8mplus上部署和運行YOLOv5訓(xùn)練模型

    我正在從事 imx8mplus yocto 項目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對象檢測模型。它在 ubuntu 電腦上運行良好。現(xiàn)在我想在我的 imx8mplus
    發(fā)表于 03-25 07:23

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?4296次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注承擔(dān)著將原始數(shù)據(jù)轉(zhuǎn)化為機(jī)器可理解、可學(xué)
    的頭像 發(fā)表于 03-21 10:30 ?3279次閱讀

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    是否可以輸入隨機(jī)數(shù)據(jù)集來生成INT8訓(xùn)練后量化模型

    無法確定是否可以輸入隨機(jī)數(shù)據(jù)集來生成 INT8 訓(xùn)練后量化模型
    發(fā)表于 03-06 06:45