国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是檢索增強生成?

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:未知 ? 2023-11-16 21:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

檢索增強生成是一種使用從外部來源獲取的事實,來提高生成式 AI 模型準(zhǔn)確性和可靠性的技術(shù)。

為了理解這一生成式 AI 領(lǐng)域的最新進(jìn)展,讓我們以法庭為例。

法官通常根據(jù)對法律的一般理解來審理和判決案件。但有些案件需要用到特殊的專業(yè)知識,如醫(yī)療事故訴訟或勞資糾紛等,因此法官會派法庭書記員去圖書館尋找可以引用的先例和具體案例。

與優(yōu)秀的法官一樣,大語言模型(LLM)能夠響應(yīng)人類的各種查詢。但為了能夠提供引經(jīng)據(jù)典的權(quán)威答案,模型需要一個助手來做一些研究。

AI 的“法庭書記員”就是一個被稱為檢索增強生成(RAG)的過程。

名稱的由來

這個名稱來自 2020 年的一篇論文(https://arxiv.org/pdf/2005.11401.pdf),論文的第一作者 Patrick Lewis 對 RAG 這個“不討喜”的縮寫詞表示了歉意,如今,這個詞被用來描述在數(shù)百篇論文和數(shù)十種商業(yè)服務(wù)中不斷發(fā)展壯大的某種方法,而在他看來,這些都代表著生成式 AI 的未來。

在一場于新加坡舉辦的數(shù)據(jù)庫開發(fā)者區(qū)域會議中,Lewis 接受了采訪,他提到:“如果我們當(dāng)時知道研究成果會被如此廣泛地使用,肯定會在起名時多花些心思。”

wKgaomVWFweAOv0_AABbgqp3Oek038.jpg

圖 1:Partick Lewis

Lewis 現(xiàn)在是 AI 初創(chuàng)企業(yè) Cohere 的 RAG 團隊負(fù)責(zé)人。他表示:“我們當(dāng)時一直想取一個好聽的名字,但到了寫論文的時候,大家都想不出更好的了。”

什么是檢索增強生成?

檢索增強生成是一種使用從外部來源獲取的事實,來提高生成式 AI 模型準(zhǔn)確性和可靠性的技術(shù)。

換言之,它填補了 LLM 工作方式的缺口。LLM 其實是一種神經(jīng)網(wǎng)絡(luò),以其所含參數(shù)數(shù)量來衡量,參數(shù)本質(zhì)上等同于人類一般的遣詞造句方式。

這種深度理解有時被稱為參數(shù)化知識,使 LLM 能夠在瞬間對一般的指令作出響應(yīng)。但如果用戶希望深入了解當(dāng)前或更加具體的主題,它就不夠用了。

結(jié)合內(nèi)部與外部資源

Lewis 與其同事所開發(fā)的檢索增強生成技術(shù)能夠連接生成式 AI 服務(wù)與外部資源,尤其是那些具有最新技術(shù)細(xì)節(jié)的資源。

這篇論文的共同作者們來自前 Facebook AI Research(現(xiàn) Meta AI)、倫敦大學(xué)學(xué)院和紐約大學(xué)。由于 RAG 幾乎可以被任何 LLM 用于連接任意外部資源,因此他們把 RAG 稱為“通用的微調(diào)秘方”。

建立用戶信任

檢索增強生成為模型提供了可以引用的來源,就像研究論文中的腳注一樣。這樣用戶就可以對任何說法進(jìn)行核實,從而建立起信任。

另外,這種技術(shù)還能幫助模型消除用戶查詢中的歧義,降低模型做出錯誤猜測的可能性,該現(xiàn)象有時被稱為“幻覺”。

RAG 的另一大優(yōu)勢就是相對簡單。Lewis 與該論文的其他三位共同作者在博客中表示,開發(fā)者只需五行代碼就能實現(xiàn)這一流程。

這使得該方法比使用額外的數(shù)據(jù)集來重新訓(xùn)練模型更快、成本更低,而且還能讓用戶隨時更新新的來源。

如何使用檢索增強生成

借助檢索增強生成技術(shù),用戶基本上可以實現(xiàn)與數(shù)據(jù)存儲庫對話,從而獲得全新的體驗。這意味著用于 RAG 的應(yīng)用可能是可用數(shù)據(jù)集數(shù)量的數(shù)倍。

例如,一個帶有醫(yī)療數(shù)據(jù)索引的生成式 AI 模型可以成為醫(yī)生或護士的得力助手;金融分析師將受益于一個與市場數(shù)據(jù)連接的“助手”。

實際上,幾乎所有企業(yè)都可以將其技術(shù)或政策手冊、視頻或日志轉(zhuǎn)化為“知識庫”資源,以此增強 LLM。這些資源可以啟用客戶或現(xiàn)場技術(shù)支持、員工培訓(xùn)、開發(fā)者生產(chǎn)力等用例。

AWS、IBM、Glean、谷歌、微軟、NVIDIA、Oracle 和 Pinecone 等公司正是因為這一巨大的潛力而采用 RAG。

開始使用檢索增強生成

為了幫助用戶入門,NVIDIA 開發(fā)了檢索增強生成參考架構(gòu)https://docs.nvidia.com/ai-enterprise/workflows-generative-ai/0.1.0/technical-brief.html)。該架構(gòu)包含一個聊天機器人示例和用戶使用這種新方法創(chuàng)建個人應(yīng)用所需的元素。

該工作流使用了專用于開發(fā)和自定義生成式 AI 模型的框架NVIDIA NeMo,以及用于在生產(chǎn)中運行生成式 AI 模型的軟件,例如NVIDIA Triton推理服務(wù)器NVIDIA TensorRT-LLM等。

這些軟件組件均包含在NVIDIA AI Enterprise軟件平臺中,其可加速生產(chǎn)就緒型 AI 的開發(fā)和部署,并提供企業(yè)所需的安全性、支持和穩(wěn)定性。

為了讓 RAG 工作流獲得最佳性能,需要大量內(nèi)存和算力來移動和處理數(shù)據(jù)。NVIDIA GH200 Grace Hopper 超級芯片配備 288 GB 高速 HBM3e 內(nèi)存和每秒 8 千萬億次的算力,堪稱最佳的選擇,其速度相比使用 CPU 提升了 150 倍。

一旦企業(yè)熟悉了 RAG,就可以將各種現(xiàn)成或自定義的 LLM 與內(nèi)部或外部知識庫相結(jié)合,創(chuàng)造出各種能夠幫助其員工和客戶的助手。

RAG 不需要數(shù)據(jù)中心。在 Windows PC 上已可直接使用 LLM,其實這都要歸功于 NVIDIA 軟件所提供的支持,使用戶可以在筆記本電腦上輕松訪問各種應(yīng)用。

wKgaomVWFweAcXm2AABiDi7jtnw228.jpg

圖 2:一個在 PC 上的 RAG 示例應(yīng)用程序。

配備NVIDIA RTX GPU的 PC 如今可以在本地運行一些 AI 模型。通過在 PC 上使用 RAG,用戶可以連接私人知識來源(無論是電子郵件、筆記還是文章),以改善響應(yīng)。這樣,用戶可以對其數(shù)據(jù)來源、指令和回答的私密性和安全性放心。

在最近的一篇博客(https://blogs.nvidia.com/blog/tensorrt-llm-windows-stable-diffusion-rtx/)中,就提供了一個在 Windows 上使用 TensorRT-LLM 加速的 RAG 以快速獲得更好結(jié)果的例子。

檢索增強生成的發(fā)展史

這項技術(shù)的起源至少可以追溯到 20 世紀(jì) 70 年代初。當(dāng)時,信息檢索領(lǐng)域的研究人員推出了所謂的問答系統(tǒng)原型,即使用自然語言處理(NLP)訪問文本的應(yīng)用程序,最初涵蓋的是棒球等狹隘的主題。

多年以來,這種文本挖掘背后的概念其實一直沒有改變。但驅(qū)動它們的機器學(xué)習(xí)引擎卻有了顯著的發(fā)展,從而提高了實用性和受歡迎程度。

20 世紀(jì) 90 年代中期,Ask Jeeves 服務(wù)(即現(xiàn)在的 Ask.com)以一個穿著考究的男仆作為吉祥物,普及了問答系統(tǒng)。2011 年,IBM 的 Watson 在《危險邊緣》(Jeopardy!)節(jié)目中輕松擊敗兩位人類冠軍,成為電視名人。

wKgaomVWFweAF4ojAADgAIrgW7E843.jpg

如今,LLM 正在將問答系統(tǒng)提升至全新的水平。

在一家倫敦實驗室中迸發(fā)的靈感

在 2020 年發(fā)表這篇開創(chuàng)性的論文時,Lewis 正在倫敦大學(xué)學(xué)院攻讀自然語言處理(NLP)博士學(xué)位,并在倫敦一家新成立的 AI 實驗室中為 Meta 工作。當(dāng)時,該團隊正在尋找將更多知識加入到 LLM 參數(shù)中的方法,并使用模型自己開發(fā)的基準(zhǔn)來衡量進(jìn)展。

Lewis 回憶道,團隊在早期方法的基礎(chǔ)上,受谷歌研究人員一篇論文的啟發(fā),“產(chǎn)生了這一絕妙的想法——在一個經(jīng)過訓(xùn)練的系統(tǒng)中嵌入檢索索引,這樣它就能學(xué)習(xí)并生成你想要的任何文本輸出。”

wKgaomVWFweAb0-BAADX3I7hchU283.jpg

圖 3:IBM Watson 問答系統(tǒng)在電視節(jié)目《危險邊緣》(Jeopardy!)中大獲全勝,一舉成名

Lewis 將這項正在開發(fā)的工作與另一個 Meta 團隊的優(yōu)秀檢索系統(tǒng)連接,所產(chǎn)生的第一批結(jié)果令人大吃一驚。

“我把結(jié)果拿給主管看,他驚嘆道:‘哇,你們做到了。這可不是常有的事情’。因為這些工作流很難在第一次就被設(shè)置正確。”

Lewis 還贊揚了團隊成員 Ethan Perez 和 Douwe Kiela 的重要貢獻(xiàn),兩人分別來自紐約大學(xué)和當(dāng)時的 Facebook AI 研究院。

這項在 NVIDIA GPU 集群上運行并已完成的工作,展示了如何讓生成式 AI 模型更具權(quán)威性和可信度。此后,數(shù)百篇論文引用了這一研究成果,并在這一活躍的研究領(lǐng)域?qū)ο嚓P(guān)概念進(jìn)行了擴展和延伸。

檢索增強生成如何工作

NVIDIA 技術(shù)簡介https://docs.nvidia.com/ai-enterprise/workflows-generative-ai/0.1.0/technical-brief.html)高度概括了 RAG 流程:

當(dāng)用戶向 LLM 提問時,AI 模型會將查詢發(fā)送給另一個模型,后者會將查詢轉(zhuǎn)換成數(shù)字格式以便機器讀取。數(shù)字版本的查詢有時被稱為嵌入或向量。

wKgaomVWFweAcme4AABIVri9hBM966.jpg

圖 4:檢索增強生成將 LLM 與嵌入模型和向量數(shù)據(jù)庫相結(jié)合。

隨后,嵌入模型會將這些數(shù)值與可用知識庫的機器可讀索引中的向量進(jìn)行比較。當(dāng)發(fā)現(xiàn)存在一個或多個匹配項時,它會檢索相關(guān)數(shù)據(jù),將其轉(zhuǎn)換為人類可讀的單詞并發(fā)送回 LLM。

最后,LLM 會將檢索到的單詞和它自己對查詢的響應(yīng)相結(jié)合,形成最終的答案并提交給用戶,其中可能會引用嵌入模型找到的來源。

始終使用最新的資源

在后臺,嵌入模型會不斷創(chuàng)建并更新機器可讀索引(有時被稱為向量數(shù)據(jù)庫),以獲得經(jīng)過更新的最新知識庫。

wKgaomVWFwiAN8h0AAA8jV-HmHw114.jpg

圖 5:LangChain 的示意圖從另一個角度描述了使用檢索流程的 LLM。

許多開發(fā)者也發(fā)現(xiàn),LangChain 這個開源程序庫特別適合將 LLM、嵌入模型和知識庫串聯(lián)到一起。NVIDIA 在其檢索增強生成參考架構(gòu)中就是使用了 LangChain。

而在 LangChain 社群里,他們也提供了自己的 RAG 流程描述。(https://blog.langchain.dev/tutorial-chatgpt-over-your-data/

展望未來,生成式 AI 的未來在于其創(chuàng)造性地串聯(lián)起各種 LLM 和知識庫,創(chuàng)造出各種新型助手,并將可以驗證的權(quán)威結(jié)果提供給用戶。

也歡迎您訪問NVIDIA LaunchPadhttps://www.nvidia.com/en-us/launchpad/ai/generative-ai-knowledge-base-chatbot/)中的實驗室,您可以通過 AI 聊天機器人親身體驗檢索增強生成。

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點擊“閱讀原文”掃描下方海報二維碼,立即注冊 GTC 大會


原文標(biāo)題:什么是檢索增強生成?

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4086

    瀏覽量

    99173

原文標(biāo)題:什么是檢索增強生成?

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    RAG(檢索增強生成)原理與實踐

    引言 在大語言模型(LLM)蓬勃發(fā)展的今天,如何讓AI更準(zhǔn)確地回答特定領(lǐng)域的問題成為了一個關(guān)鍵挑戰(zhàn)。RAG(Retrieval-Augmented Generation,檢索增強生成)技術(shù)應(yīng)運而生
    發(fā)表于 02-11 12:46

    openDACS 2025 開源EDA與芯片賽項 賽題七:基于大模型的生成式原理圖設(shè)計

    原理等知識的構(gòu)建,可以采用互聯(lián)網(wǎng)工具搜索或者補充相關(guān)書籍或者資料來實現(xiàn);知識庫不需要過大,僅滿足系統(tǒng)的需要即可; 檢索方案可以使用向量相似度搜索,Rerank排序等方案,也可使用LLM實現(xiàn); 生成
    發(fā)表于 11-13 11:49

    強生醫(yī)療科技攜手NVIDIA推進(jìn)手術(shù)機器人開發(fā)

    借助物理 AI 和模擬技術(shù),強生醫(yī)療科技正在推進(jìn) MONARCH 平臺的開發(fā),這是一種機器人輔助支氣管鏡檢查領(lǐng)域首個投放市場的創(chuàng)新技術(shù),在美國也已獲準(zhǔn)用于機器人輔助泌尿科手術(shù)。
    的頭像 發(fā)表于 11-03 15:03 ?818次閱讀

    RAG實踐:一文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強生成), 一種AI框架,將傳統(tǒng)的信息檢索系統(tǒng)(例如數(shù)據(jù)庫)的優(yōu)勢與生成式大語言模型(LLM)的功能結(jié)合在一
    的頭像 發(fā)表于 10-27 18:23 ?1559次閱讀
    RAG實踐:一文掌握大模型RAG過程

    基于FPGA的CLAHE圖像增強算法設(shè)計

    CLAHE圖像增強算法又稱為對比度有限的自適應(yīng)直方圖均衡算法,其算法原理是通過有限的調(diào)整圖像局部對比度來增強有效信號和抑制噪聲信號。
    的頭像 發(fā)表于 10-15 10:14 ?649次閱讀
    基于FPGA的CLAHE圖像<b class='flag-5'>增強</b>算法設(shè)計

    孔夫子舊書網(wǎng)開放平臺接口實戰(zhàn):古籍圖書檢索與商鋪數(shù)據(jù)集成

    本文詳解孔夫子舊書網(wǎng)古籍?dāng)?shù)據(jù)接口的實戰(zhàn)調(diào)用,涵蓋認(rèn)證簽名、古籍檢索、商鋪集成與特色數(shù)據(jù)處理四大場景,提供可復(fù)用的Python代碼及避坑指南,助力學(xué)術(shù)研究、舊書商管理與古籍?dāng)?shù)字化落地。
    的頭像 發(fā)表于 09-23 13:59 ?669次閱讀

    生成式 AI 重塑自動駕駛仿真:4D 場景生成技術(shù)的突破與實踐

    生成式AI驅(qū)動的4D場景技術(shù)正解決傳統(tǒng)方法效率低、覆蓋不足等痛點,如何通過NeRF、3D高斯?jié)姙R等技術(shù)實現(xiàn)高保真動態(tài)建模?高效生成極端天氣等長尾場景?本文為您系統(tǒng)梳理AI驅(qū)動的4D場景生成體系及其在自動駕駛仿真中的實踐價值。
    的頭像 發(fā)表于 08-06 11:20 ?5144次閱讀
    <b class='flag-5'>生成</b>式 AI 重塑自動駕駛仿真:4D 場景<b class='flag-5'>生成</b>技術(shù)的突破與實踐

    軟通動力發(fā)布智慧園區(qū)RAG解決方案

    近日,鯤鵬昇騰開發(fā)者大會2025(KADC 2025)在北京正式啟幕。軟通動力作為鯤鵬路線堅定的擁護者與實踐者,受邀出席大會,正式發(fā)布軟通動力智慧園區(qū)RAG(Retrieval Augmented Generation 檢索增強生成)解決方案。
    的頭像 發(fā)表于 05-29 10:00 ?882次閱讀
    軟通動力發(fā)布智慧園區(qū)RAG解決方案

    石墨烯增強生物基凝膠導(dǎo)熱和導(dǎo)電性能研究

    域的研究開發(fā)、工藝優(yōu)化與質(zhì)量監(jiān)控.石墨烯增強生物基凝膠導(dǎo)熱和導(dǎo)電性能研究【1、長春工業(yè)大學(xué)化學(xué)與生命科學(xué)學(xué)院2、長春工業(yè)大學(xué)化學(xué)工程學(xué)院3、吉林省石化資源與生物質(zhì)綜
    的頭像 發(fā)表于 05-21 09:54 ?570次閱讀
    石墨烯<b class='flag-5'>增強生</b>物基凝膠導(dǎo)熱和導(dǎo)電性能研究

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗】+Agent的案例解讀

    直觀、便捷,提升了普通用戶的使用體驗。? 3)提升用戶粘性 更智能的交互方式讓用戶更愿意使用該平臺,增強了用戶留存和使用時長。 ? 提升檢索效率與準(zhǔn)確性? 1)快速檢索 通過檢索
    發(fā)表于 05-14 11:23

    如何在基于Arm Neoverse平臺的Google Axion處理器上構(gòu)建RAG應(yīng)用

    你是否好奇如何防止人工智能 (AI) 聊天機器人給出過時或不準(zhǔn)確的答案?檢索增強生成 (Retrieval-Augmented Generation, RAG) 技術(shù)提供了一種強大的解決方案,能夠顯著提升答案的準(zhǔn)確性和相關(guān)性。
    的頭像 發(fā)表于 04-28 14:34 ?1086次閱讀
    如何在基于Arm Neoverse平臺的Google Axion處理器上構(gòu)建RAG應(yīng)用

    DevEco Studio AI輔助開發(fā)工具兩大升級功能 鴻蒙應(yīng)用開發(fā)效率再提升

    對DeepSeek模型增強融合了RAG能力,從生成機制上協(xié)同降低模型幻象,并同時提升生成模型的準(zhǔn)確性和相關(guān)性。 RAG檢索增強的核心機制是通
    發(fā)表于 04-18 14:43

    將NXP RT1166更換為RT1064,可以使用JTAG/SWD存儲和檢索其閃存上的數(shù)據(jù)嗎?

    我在我的項目中使用了 RT1166,但是,其中一個要求是芯片應(yīng)該具有可被 JTAG/SWD 訪問的內(nèi)部閃存。 RT1166 有,但 RT1064 有 4MB 的內(nèi)部 Flash。 我可以使用 JTAG/SWD 存儲和檢索其閃存上的數(shù)據(jù)嗎?
    發(fā)表于 04-07 06:29

    ?Diffusion生成式動作引擎技術(shù)解析

    Diffusion生成式動作引擎 Diffusion生成式動作引擎是一種基于擴散模型(Diffusion Models)的生成式人工智能技術(shù),專注于生成連續(xù)、逼真的人類動作或動畫序列。
    的頭像 發(fā)表于 03-17 15:14 ?3044次閱讀

    《AI Agent 應(yīng)用與項目實戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    應(yīng)用。第六章深入探討了RAG架構(gòu)的工作原理,該技術(shù)通過在推理過程中實時檢索和注入外部知識來增強模型的生成能力。RAG架構(gòu)的核心是檢索器和生成
    發(fā)表于 03-07 19:49