国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

穿過幻覺荒野,大模型RAG越野賽

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2025-01-28 14:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgZO2eYdsOAClSbAAm48a8Dapo467.jpg

2025年初,大模型賽場熱度不減,有拼成本優勢,拼Tokens調用量的短跑賽;有比慢思考,比大模型推理能力的長跑賽。但在觀看這些“經典賽事”的同時,我們還需要注意另一場正在舉行中,并且對大模型行業未來至關重要的比賽——RAG越野賽

所謂RAG,是指Retrieval-Augmented Generation檢索增強生成。顧名思義,RAG是將大語言模型的生成能力與搜索引擎的信息檢索能力進行結合,這已經成為目前主流大模型的標配。

之所以說RAG是一場越野賽,是因為大模型最被人質疑的問題,就是生成內容時經常會出現有明顯訛誤的大模型幻覺。這些幻覺就像崇山峻嶺,遮擋了大模型的進化之路。

而RAG的戰略價值,就在于它是克服大模型幻覺的核心方案。換言之,誰能贏得RAG越野賽,誰就能解決大模型的核心痛點,將AI帶到下一個時代。

讓我們進入大模型RAG的賽道,看看這場越野將把AI帶向何方。

wKgZO2eYdsSABPYqAAI-dQPcEXI563.jpg

讓我們先把時針調回到你第一次接觸大語言模型的時候。初次嘗試與大模型聊天,驚艷之外,是不是感覺好像有哪里不對?

這種不適感,很可能來自大模型的三個問題:

1.胡言亂語。對話過程中,我們經常會發現大模型說一些明顯不符合常識的話,比如“林黛玉的哥哥是林沖”“魯智深是法國文學家”之類的。這就是LLM模型的運行原理,導致其在內容生成過程中會為了生成而生成,不管信息正確與否。這也就是廣受詬病的大模型幻覺。業內普遍認為,幻覺不除,大模型就始終是玩具而非工具。

2.信息落后。大模型還有一個問題,就是知識庫更新較慢,從而導致如果我們問近期發生的新聞與實時熱點它都無法回答。但問題在于,我們工作生活中的主要問題都具有時效性,這導致大模型的實用價值大打折扣。

3.缺乏根據。另一種情況是,大模型給出了回答,但我們無法判斷這些回答的真偽和可靠性。畢竟我們知道有大模型幻覺的存在,進而會對AGIC產生疑慮。我們更希望能夠讓大模型像論文一樣標注每條信息的來源,從而降低辨別成本。

這些問題可以被統稱為“幻覺荒野”。而想要穿越這片荒野,最佳途徑就是將大模型的理解、生成能力,與搜索引擎的信息檢索融合在一起。

因為信息檢索能夠給大模型提供具有時效性的信息,并且指明每條信息的來源。在檢索帶來的信息庫加持下,大模型也可以不再“胡言亂語”。

檢索是方法,生成是目的,通過高質量的檢索系統,大模型有望克服幻覺這個最大挑戰。

于是,RAG技術應運而生。

wKgZO2eYdsSANADTAAHx4SYgNEY985.jpg

在RAG賽道上,檢索的優劣將很大程度上影響生成模型最終生成結果的優劣。比如說,百度在中文搜索領域的積累,帶來了語料、語義理解、知識圖譜等方面的積淀。這些積淀有助于提升中文RAG的質量,從而讓RAG技術更快在中文大模型中落地。在搜索引擎領域,百度構建了龐大的知識庫與實時數據體系,在眾多需要專業檢索的垂直領域進行了重點布局。

其實,把搜索領域的積累,第一時間帶到大模型領域,這一點并不容易。因為我們都知道,面向人類的搜索結果并不適合大模型來閱讀理解。想要實現高質量的RAG,就需要尋找能夠高效支持搜索業務場景和大模型生成場景的架構解決方案。

wKgZPGeYdsWAXRTcAALi0gt4N3o472.jpg

百度早在2023年3月發布文心一言時就提出了檢索增強,大模型發展到今天,檢索增強也早成為業界共識。百度檢索增強融合了大模型能力和搜索系統,構建了“理解-檢索-生成”的協同優化技術,提升了模型技術及應用效果。通俗來看,理解階段,基于大模型理解用戶需求,對知識點進行拆解;檢索階段,面向大模型進行搜索排序優化,并將搜索返回的異構信息統一表示,送給大模型;生成階段,綜合不同來源的信息做出判斷,并基于大模型邏輯推理能力,解決信息沖突等問題,從而生成準確率高、時效性好的答案。

就這樣,RAG成為百度文心大模型的核心差異化技術路徑。可以說,檢索增強成為文心大模型的一張名片。

讓我們隨便問個問題,測測

如今,基本主流大模型都會提供RAG體驗,比如告知用戶模型調用了多少個網頁,檢索信息的出處在哪里等。但RAG這場越野賽依舊有著鮮明的身位差距,想要知道這個排位方法也非常簡單,隨便問各款大模型一個相同的問題就可以。

比如說,春節將至,逛廟會是北京春節必不可少的一部分。但北京春節廟會眾多,小伙伴們肯定會想知道哪個廟會更適合自己,以及他們的營業時間是怎么樣的。

于是,我把“北京春節廟會哪個更推薦?它們的營業時間是什么?”分別提問給百度文心一言、豆包、Kimi、DeepSeek等。在這里,文心一言我們使用的是付費版,文心大模型4.0 Turbo。

文心一言的答案是這樣的,首先它結合檢索到的信息,推薦了數十個北京的春節廟會,并且列出了每個廟會的地點、時間等信息。

wKgZO2eYdsWAfRJsAAHHUJQ1MYE296.jpg

wKgZPGeYdsWAEJ_6AAFZTl5NAU0333.jpg

wKgZO2eYdsWAIMoeAAINGyXGG3Y416.jpg

wKgZPGeYdsaAcdhKAAF3B1ODOXc385.jpg

但到這里還沒有結束,接下來文心一言還進行了總結。

wKgZO2eYdsaAW2n1AAH8uS3-DhY274.jpg

wKgZPGeYdsaAL9WyAAMKB2UfBoA519.jpg

可以看到,文心一言理解了我“最推薦”的提問,給出眾多選項的同時,還主要推薦了東岳廟廟會、地壇廟會、娘娘廟廟會、石景山游樂園廟會,并且給出了相應的推薦理由,做到了在信息全面化與推薦個性化之間達成平衡。

同樣的問題給到豆包,則會發現它的回答也非常不錯,但內容完整度上有所欠缺。

wKgZO2eYdsaAOF2GAAIk07NPKXY438.jpg

豆包的答案,是按照每類愛好者應該去哪個廟會進行分類,總共給出了7個廟會的信息。但需要注意的是,一方面豆包的答案在廟會數量和對每個廟會特色的介紹上都不夠詳盡。另外豆包沒有進行總結,并不符合問題中“哪個最推薦”的訴求。

同樣的問題給Kimi則是另一種景象。

wKgZPGeYdseAIJRLAAJps6J4ThE174.jpg

不知道為什么,Kimi的答案里只回答了廠甸廟會一個答案,完全沒有提及其他廟會。這樣確實符合“最推薦”的需求,但未免過分片面和武斷,沒有讓用戶完整了解北京春節廟會的信息。

同樣的問題來問最近火熱的DeepSeek R1大模型,會發現它也能進行RAG深度聯網檢索,并且給出了思考過程,最終給出了10個廟會的推薦信息。

wKgZO2eYdseAbeBlAANocnQ01pI425.jpg

wKgZPGeYdseAUtAeAAEX6E68I3Y164.jpg

唯一稍顯不足的是,其最終也是只給出了幾個廟會的基本情況,沒有呼應“最推薦”哪個廟會的提問,并且其思考過程稍顯冗長,閱讀體驗也有待提升。

從中不難看出,在“今年春節去哪個廟會”這樣非常具有時效性與實用性的問答上,幾家大模型回答得都還可以,但還是有差異的。這背后就是RAG技術能力的差異。

單看RAG能力,文心一言在檢索增強,尤其是上面這類問答類需求上更顯優勢,另外我們也能看到,文心一言在結果呈現上調用了表格工具來結構化呈現結果。整體來說,在深度思考和工具調用上,文心一言表現不錯。

不難看出,檢索增強對大模型實用性和體驗感有著非常重要的影響。

wKgZO2eYdsiAXivoAAJTzIXvvw4463.jpg

RAG越野賽的持續,或許將會給整個數字世界帶來新的驚喜。

比如說,RAG可能是——

1.搜索引擎的新引擎。讓大模型理解信息檢索,也將反向帶給搜索引擎與全新發展動力,用戶的模糊性搜索、提問性搜索、多模態搜索將被更好滿足。

2.大語言模型的新支點。大模型不僅要生成內容,更要生成可信、可靠、即時的內容,想要實現這些目標,RAG是已經得到驗證的核心方向。

3.通往未來的一張船票。預訓練大模型只是故事的起點,而故事的高潮則在于創造AI原生應用的無盡可能性。理解、生成、檢索這些數智核心能力的相遇與融合,或許才能真正揭示出AI原生應用的底層邏輯與未來形態。

基礎模型本身是需要靠應用才能顯現出來價值。這個時代無數人在好奇,AI原生應用的核心載體應該是什么?

或許,理解、檢索與生成的結合就是方向。

又或許,RAG越野賽的盡頭就是答案。

wKgZO2eYdsiAOFYtAAIHOMGMcWg384.jpg

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39754

    瀏覽量

    301344
  • 大模型
    +關注

    關注

    2

    文章

    3648

    瀏覽量

    5176
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    RAG(檢索增強生成)原理與實踐

    開卷考試而不是閉卷考試——它可以查閱資料后再作答。 1.2 為什么需要RAG? 傳統LLM面臨幾個關鍵問題: 知識時效性 :模型的知識截止于訓練時間,無法獲取最新信息 幻覺問題 :模型
    發表于 02-11 12:46

    使用NVIDIA Nemotron RAG和Microsoft SQL Server 2025構建高性能AI應用

    搜索和調用外部 AI 模型的 SQL 原生 API。NVIDIA 與微軟共同將 SQL Server 2025 與 NVIDIA Nemotron RAG 開放模型集合無縫連接,這使您能夠在云端或本地環境中基于自己的數據構建高性
    的頭像 發表于 12-01 09:31 ?790次閱讀
    使用NVIDIA Nemotron <b class='flag-5'>RAG</b>和Microsoft SQL Server 2025構建高性能AI應用

    openDACS 2025 開源EDA與芯片題七:基于大模型的生成式原理圖設計

    領域,對促進產業高質量發展具有重要意義。本項包含7道題,下面是題七 基于大模型的生成式原理圖設計的介紹。 2. 命題單位及題Chai
    發表于 11-13 11:49

    亞馬遜云科技上線Amazon Nova多模態嵌入模型

    Embeddings多模態嵌入模型現已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應用打造的頂尖多模態嵌入模型。該模型是首個通過單一
    的頭像 發表于 10-29 17:15 ?259次閱讀
    亞馬遜云科技上線Amazon Nova多模態嵌入<b class='flag-5'>模型</b>

    RAG實踐:一文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強生成), 一種AI框架,將傳統的信息檢索系統(例如數據庫)的優勢與生成式大語言模型(LLM)的功能結合在一起。不再
    的頭像 發表于 10-27 18:23 ?1557次閱讀
    <b class='flag-5'>RAG</b>實踐:一文掌握大<b class='flag-5'>模型</b><b class='flag-5'>RAG</b>過程

    全新坦克400智享版搭載禾科技激光雷達

    2025 年 10 月 21 日,主題為“潮酷越野新時代”的全新坦克 400 預售發布會成功舉行,長城汽車推出全新坦克 400 Hi4-Z 智享版和全新坦克 400 Hi4-T 智享版,標配禾
    的頭像 發表于 10-23 16:56 ?850次閱讀

    越野賽車中使用齒輪傳感器

    作者:Ramaditya Kotha 測量非常快速旋轉的系統是車輛系統中的普遍挑戰。為了準確地衡量某物在不觸摸編碼器(例如編碼器)的情況下旋轉的速度,UCLA Baja賽車團隊利用了Littelfuse 55075系列的齒輪齒傳感器。在本文中,我們將探討齒輪齒傳感器如何使用大廳效果運行,以及我們如何在賽車上使用它們的實例。閱讀本文后,您應該能夠實施自己的齒輪齒傳感器解決方案! 理論 齒輪傳感器(例如Littelfuse 55075)使用大廳效果來檢測亞鐵材料。這是一個密集的陳
    的頭像 發表于 10-01 15:17 ?1730次閱讀
    在<b class='flag-5'>越野賽</b>車中使用齒輪傳感器

    2025寧夏沙坡頭半馬收官 神眸無線AI攝像機打造智能賽道新體驗

    ,PT2S保障物理安全,BC6+增強情感連接,小智升華賽事敘事。這種“無電無網全智能”的解決方案,不僅適用于馬拉松,更為越野賽、汽車登山等極限運動提供了可復用的智能賽道
    的頭像 發表于 09-02 12:31 ?1055次閱讀
    2025寧夏沙坡頭半馬收官 神眸無線AI攝像機打造智能賽道新體驗

    AI智能體+AIoT:智能時代的關鍵聯結,還是又一場幻覺與泡沫?

    從大模型的爆發,到邊緣計算的逐漸普及,從智能語音助手走進家庭,到智能設備接入云端,AI智能體與AIoT的結合,正成為產業界的新熱點。但在技術熱潮的背后,我們必須提出一個冷靜的問題:我們是為了更好
    的頭像 發表于 07-11 14:57 ?1769次閱讀
    AI智能體+AIoT:智能時代的關鍵聯結,還是又一場<b class='flag-5'>幻覺</b>與泡沫?

    使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創建運行 llm-agent-rag-llamaindex notebook 的環境。 執行“創建
    發表于 06-23 06:26

    軟通動力發布智慧園區RAG解決方案

    近日,鯤鵬昇騰開發者大會2025(KADC 2025)在北京正式啟幕。軟通動力作為鯤鵬路線堅定的擁護者與實踐者,受邀出席大會,正式發布軟通動力智慧園區RAG(Retrieval Augmented Generation 檢索增強生成)解決方案。
    的頭像 發表于 05-29 10:00 ?881次閱讀
    軟通動力發布智慧園區<b class='flag-5'>RAG</b>解決方案

    西威端側大模型重塑智能座艙體驗

    智能汽車產業發展正從規模擴張向質量躍升轉變,其中大模型驅動的智能化升級將成為產業突破的核心引擎。在日前召開的2025上海車展國際汽車關鍵技術論壇上,德西威技術中心人工智能實驗室專家張書赫博士以《端側智能·重塑體驗》為題,分享了對大模型
    的頭像 發表于 05-15 09:13 ?1782次閱讀

    DevEco Studio AI輔助開發工具兩大升級功能 鴻蒙應用開發效率再提升

    對DeepSeek模型增強融合了RAG能力,從生成機制上協同降低模型幻象,并同時提升生成模型的準確性和相關性。 RAG檢索增強的核心機制是通
    發表于 04-18 14:43

    百度發布文心大模型4.5和文心大模型X1

    文心大模型4.5是百度自主研發的新一代原生多模態基礎大模型,通過多個模態聯合建模實現協同優化,多模態理解能力優秀;具備更精進的語言能力,理解、生成、邏輯、記憶能力全面提升,去幻覺、邏輯推理、代碼能力顯著提升。
    的頭像 發表于 03-18 16:29 ?897次閱讀

    《AI Agent 應用與項目實戰》閱讀心得3——RAG架構與部署本地知識庫

    應用。第六章深入探討了RAG架構的工作原理,該技術通過在推理過程中實時檢索和注入外部知識來增強模型的生成能力。RAG架構的核心是檢索器和生成器兩大模塊,檢索器負責從知識庫中找到與當前查詢相關的文檔片段,生成器
    發表于 03-07 19:49