国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AI應用如何不被淘汰?深耕RAG與數(shù)據(jù)底座是關鍵

looger123 ? 來源:looger123 ? 作者:looger123 ? 2025-05-23 16:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

截至2025年,生成式AI大模型的能力仍在迅速提升。如果關注這個領域,會發(fā)現(xiàn)有不少創(chuàng)業(yè)者花大量精力打造的AI應用,但往往很快就被新一代大模型“原生功能”所取代。

這一類應用被歸類是Prompt(提示詞)包裝層應用,這些應用通過設計提示詞調(diào)用大模型基礎能力,但沒有構(gòu)建更深層次業(yè)務價值。因為應用的價值主要靠大模型的原始能力,所以很容易被不斷變強的大模型取代。

如何開發(fā)出不容易被大模型“抄家”的AI應用?

對此,英特爾技術專家認為,大模型應用開發(fā)不應僅僅沿著大模型本身能力的延展,直接基于大模型開發(fā)智能體,這樣很容易隨著大模型能力的提升而被淘汰。大模型應用開發(fā)要從大模型不擅長或無法克服的點進行切入,如解決數(shù)據(jù)地基的問題。

目前大模型最明顯的兩個問題都與數(shù)據(jù)有關。

首當其沖的就是幻覺。大模型本質(zhì)上是在做概率運算,輸出的內(nèi)容越多,概率偏差就越大。此外,訓練數(shù)據(jù)質(zhì)量也會導致幻覺。而要在短期內(nèi)徹底消除幻覺問題,則需要根本性的技術變革為前提。

第二,是大模型的知識無法實時更新。大模型預訓練都有固定的時間,可能是幾個月甚至是幾年之前,完全不知道新發(fā)生的事情,無法及時更新自己的知識庫。做出的回答也只能基于舊的已知內(nèi)容。

針對這兩大問題,業(yè)內(nèi)達成的共識就是基于RAG(檢索增強生成)構(gòu)建知識庫,它在預訓練的大模型基礎上連接外部的數(shù)據(jù)源,所有的任務和回答的內(nèi)容上下文都從知識庫中提取,然后,由大模型做出回答。

具體操作中,企業(yè)需要把內(nèi)部的文檔資料轉(zhuǎn)化為機器能讀懂的形式。先對文檔進行切分,然后再進行向量化處理,最后存到向量數(shù)據(jù)庫里。當用戶提出問題時,問題也被轉(zhuǎn)成向量,基于這些在向量數(shù)據(jù)庫里進行檢索,最后根據(jù)檢索到的內(nèi)容生成答復。

在生成答復的時候,召回率和準確率是非常關鍵的指標。召回率看的是,在所有“真正相關”的文檔中,有多少被檢索到了。而準確率Precision看的是,在所有被檢索出來的文檔中,有多少是“真正相關”的。

英特爾專家表示,當看到這些技術細節(jié)后,就應該意識到,大模型的效果受到太多因素或環(huán)節(jié)的影響。比如,負責把文本轉(zhuǎn)換成向量的Embedding模型的選擇,切分文檔的大小,檢索數(shù)據(jù)的處理等等都會影響最后生成的結(jié)果。

在英特爾專家看來,做大模型開發(fā),直接從智能體開始或許不是最優(yōu)選。數(shù)據(jù)基礎上的微小差異,最終效果可能會差出很多。換言之,如果能處理好數(shù)據(jù)本身,而不只是單純依靠大模型本身的表現(xiàn),則會創(chuàng)造更多不可替代的價值。

快速上手,在云上構(gòu)建企業(yè)級RAG開發(fā)環(huán)境

目前,國內(nèi)外多家大型企業(yè)都基于大語言模型和RAG技術構(gòu)建了企業(yè)知識庫,而且很多一線員工都非常認可。鑒于RAG知識庫對企業(yè)非常重要,火山引擎推出了支持RAG場景的云主機鏡像。

wKgZPGgwMSKAW7uoAACD44HeLdc037.png

火山引擎在大模型服務領域表現(xiàn)非常亮眼。根據(jù)IDC發(fā)布的《中國公有云大模型服務市場格局分析,1Q25》報告,火山引擎在2024年中國公有云大模型調(diào)用量市場中占據(jù)了46.4%的份額,位居第一。

火山引擎不僅有火山方舟這種大模型服務平臺,還有扣子(Coze)這類低代碼AI應用開發(fā)平臺,以及HiAgent這樣的企業(yè)專屬AI應用創(chuàng)新平臺。新推出的RAG鏡像則是讓普通開發(fā)者以更低的門檻,開發(fā)出不容易被大模型“抄家”的AI應用。

RAG鏡像中不僅包含Embedding(嵌入式)模塊,還有向量數(shù)據(jù)庫、Re-rank模型和7B的DeepSeek蒸餾模型,甚至還提供了數(shù)據(jù)預處理服務,以及處理在線問答服務的模塊和前端頁面,而且所有軟件棧都經(jīng)過了提前優(yōu)化。

火山引擎的RAG鏡像作為面向企業(yè)的服務,參考了OPEA的架構(gòu)。OPEA是英特爾在去年發(fā)起的開源社區(qū),利用開放架構(gòu)和模塊化組件的方式,幫助企業(yè)構(gòu)建可擴展的AI應用部署基礎。相比普通的開源架構(gòu),火山引擎的鏡像具備更多企業(yè)級特性。

很多云廠商也提供了RAG服務,這些服務對普通用戶來說門檻更低,但對于專業(yè)開發(fā)者而言,這些“黑盒”屏蔽了大量技術細節(jié)。而火山引擎的RAG鏡像作為開源方案,讓開發(fā)者能夠看到更多底層細節(jié),從多個技術維度進行優(yōu)化,從而構(gòu)建起真正的技術壁壘。

DeepSeek爆火之后,很多企業(yè)都計劃進行本地部署,市場上出現(xiàn)了很多一體機解決方案,一臺一體機里經(jīng)常會有8張高性能顯卡,這套方案的成本并不低,在沒有明確業(yè)務需求之前,動輒幾十萬的成本投入或許并不明智。

現(xiàn)在,用戶只需要在火山引擎上選擇好虛擬機和鏡像,就能在三分鐘內(nèi)搭建好一套開發(fā)環(huán)境,開始各種學習和實踐。為了幫助開發(fā)者提升能力,英特爾還準備了一系列課程,幫助大家補齊相關知識,更輕松地邁出從0到1的第一步,打好數(shù)據(jù)基礎。

大模型應用開發(fā)的三要素,硬件平臺是基礎

wKgZO2gwMSKAAhApAAI3AB9Ii3M769.png

英特爾專家總結(jié)了大模型應用開發(fā)的三要素,除了剛才提到的軟件棧和配套的指導課程,硬件環(huán)境同樣至關重要。火山引擎基于英特爾至強處理器打造了多種云主機,最近推出的基于英特爾至強6性能核處理器的通用型實例 g4il,非常適合做大模型應用開發(fā)。

wKgZPGgwMSOAHEoEAAJLeZey79o825.png

g4il是火山引擎的第四代通用型實例,其中 “g” 代表通用型,“4” 表示第四代,“i” 代表英特爾CPU平臺。與第三代相比,其整體性能有顯著提升,無論是在數(shù)據(jù)庫應用、Web應用,還是圖像渲染方面表現(xiàn)都更加出色,而在AI推理方面的優(yōu)勢更是尤為突出。

wKgZO2gwMSOAH-PrAAH5tydP9o4234.png

得益于集成AMX加速器,英特爾至強6處理器已成為目前最擅長AI推理的x86架構(gòu)處理器之一。在火山引擎的g4il實例中,用戶可以使用CPU完成AI推理。相比基于GPU的方案,它具備成本更低、資源更容易獲得的優(yōu)勢,能滿足基本需求。

基于CPU的AI推理方案特別適合用于AI應用的開發(fā)和驗證階段。搭配前面提到的火山引擎RAG鏡像,用戶可以在云上快速搭建起一套大模型應用的開發(fā)環(huán)境,大大降低了對硬件資源的門檻。

而到了生產(chǎn)環(huán)節(jié),通常需要采用CPU+GPU的異構(gòu)計算架構(gòu)。比如,可以使用帶有AMX的至強CPU來處理Embedding(文本嵌入)、Re-Rank、向量數(shù)據(jù)庫等輕量級AI負載,讓GPU專注于處理重型AI負載,從而提高資源利用率和整體處理能力。

wKgZPGgwMSOAOOivAAJtVTOHD_E122.png

g4il的一大亮點在于:用戶只需選擇一臺配備16 vCPU或32 vCPU的云主機,即使不使用GPU,也能運行參數(shù)量為7或14B的DeepSeek蒸餾版模型。值得一提的是,該方案還支持DeepSeek推薦的高精度計算格式BF16,進一步提升推理質(zhì)量。

小結(jié)

在技術快速演進的當下,借助云平臺進行開發(fā),既能降低試錯成本,又能加快創(chuàng)新速度,為企業(yè)和開發(fā)者提供了更靈活的選擇。更重要的是,通過精細化RAG等技術深耕數(shù)據(jù)底座,而不只是單純靠巧妙的提示詞,才能打造出不容易被大模型“抄家”的AI應用。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    10301

    瀏覽量

    180427
  • AI
    AI
    +關注

    關注

    91

    文章

    39755

    瀏覽量

    301361
  • 大模型
    +關注

    關注

    2

    文章

    3648

    瀏覽量

    5179
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    軟通動力睿動智能體云平臺助力企業(yè)構(gòu)建專屬AI技術底座

    軟通動力深耕AI領域的重磅產(chǎn)品——睿動智能體云平臺,就能有效化解上述難題,成為企業(yè)開啟“企業(yè)級AI應用”的新范式。
    的頭像 發(fā)表于 02-26 09:20 ?425次閱讀

    RAG(檢索增強生成)原理與實踐

    引言 在大語言模型(LLM)蓬勃發(fā)展的今天,如何讓AI更準確地回答特定領域的問題成為了一個關鍵挑戰(zhàn)。RAG(Retrieval-Augmented Generation,檢索增強生成)技術應運而生
    發(fā)表于 02-11 12:46

    別選錯底座!一文說清鑄鐵測試和電機測試底座的真正區(qū)別

    的剛性連接接口,力流路徑不完整。可能“性能過剩”:為高動態(tài)場景設計的冗余能力,在靜態(tài)應用中無法體現(xiàn)價值。電機測試底座優(yōu)勢:為動態(tài)測試而生:專為抵抗反扭矩、多向振動而優(yōu)化,能確保在高動態(tài)工況下數(shù)據(jù)
    發(fā)表于 01-17 13:43

    構(gòu)筑工業(yè)AI時代的數(shù)據(jù)底座,藍卓supOS X工廠操作系統(tǒng)全球首發(fā)

    、藍卓數(shù)字科技有限公司協(xié)辦的2025未來智造大會暨supOS全球新品發(fā)布會在寧波成功舉辦。 大會現(xiàn)場 大會以 "工業(yè) AI 時代的數(shù)據(jù)底座" 為核心議題,精準承接新質(zhì)生產(chǎn)力發(fā)展要求,直擊工業(yè)
    的頭像 發(fā)表于 12-11 16:28 ?220次閱讀
    構(gòu)筑工業(yè)<b class='flag-5'>AI</b>時代的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>底座</b>,藍卓supOS X工廠操作系統(tǒng)全球首發(fā)

    漢鑫科技與IBM落地AI深耕計劃

    今天,山東漢鑫科技股份有限公司(此后簡稱“漢鑫科技”)和 IBM 中國正式宣布,將在山東煙臺落地 IBM “AI 深耕計劃”,為中國企業(yè)的智能化轉(zhuǎn)型和全球化運營提供安全、靈活、定制化的企業(yè)級技術方案和咨詢服務。
    的頭像 發(fā)表于 12-09 17:44 ?767次閱讀

    使用NVIDIA Nemotron RAG和Microsoft SQL Server 2025構(gòu)建高性能AI應用

    搜索和調(diào)用外部 AI 模型的 SQL 原生 API。NVIDIA 與微軟共同將 SQL Server 2025 與 NVIDIA Nemotron RAG 開放模型集合無縫連接,這使您能夠在云端或本地環(huán)境中基于自己的數(shù)據(jù)構(gòu)建高性
    的頭像 發(fā)表于 12-01 09:31 ?790次閱讀
    使用NVIDIA Nemotron <b class='flag-5'>RAG</b>和Microsoft SQL Server 2025構(gòu)建高性能<b class='flag-5'>AI</b>應用

    RAG實踐:一文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強生成), 一種AI框架,將傳統(tǒng)的信息檢索系統(tǒng)(例如數(shù)據(jù)庫)的優(yōu)勢與生成式大語言模型(LLM)的功能結(jié)合在一起。不再
    的頭像 發(fā)表于 10-27 18:23 ?1559次閱讀
    <b class='flag-5'>RAG</b>實踐:一文掌握大模型<b class='flag-5'>RAG</b>過程

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    靈感的過程中發(fā)揮關鍵作用。五、用AI實現(xiàn)諾貝爾獎級別的科學發(fā)現(xiàn) 這想法這能夠大膽的。 1、AI科學家的構(gòu)建 全自主科學實驗室需要哪些部分: ①自動實驗設備 ②流程管理系統(tǒng) ③數(shù)據(jù)處理和
    發(fā)表于 09-17 11:45

    使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    【「零基礎開發(fā)AI Agent」閱讀體驗】+ 入門篇學習

    工程、RAG技術、和AI Agent是3個重要方面。其中AI Agent作為2024年最新興的技術領域,具備很好的應用前景,本書對零基礎小白普及和應用AI Agent有著很好的指導作用
    發(fā)表于 05-02 09:26

    如何在基于Arm Neoverse平臺的Google Axion處理器上構(gòu)建RAG應用

    你是否好奇如何防止人工智能 (AI) 聊天機器人給出過時或不準確的答案?檢索增強生成 (Retrieval-Augmented Generation, RAG) 技術提供了一種強大的解決方案,能夠顯著提升答案的準確性和相關性。
    的頭像 發(fā)表于 04-28 14:34 ?1086次閱讀
    如何在基于Arm Neoverse平臺的Google Axion處理器上構(gòu)建<b class='flag-5'>RAG</b>應用

    DevEco Studio AI輔助開發(fā)工具兩大升級功能 鴻蒙應用開發(fā)效率再提升

    帶來了前所未有的智能問答體驗。 RAG增強型與傳統(tǒng)生成式AI關鍵差異: 圖2:DeepSeek模型增強RAG能力前后效果對比圖 升級點2:新增代碼解釋功能,提升初學者開發(fā)效率 針對
    發(fā)表于 04-18 14:43

    DeepSeek推動AI算力需求:800G光模塊的關鍵作用

    解決算力集群帶寬瓶頸的關鍵技術,為數(shù)據(jù)中心和AI訓練提供了所需的高帶寬、低延遲連接。飛速(FS)800G光模塊憑借其出色的技術優(yōu)勢和廣泛的市場應用前景,將為未來網(wǎng)絡架構(gòu)的升級與創(chuàng)新提供強大支持。隨著
    發(fā)表于 03-25 12:00

    AI Agent 應用與項目實戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    則將檢索到的內(nèi)容與原始查詢結(jié)合,生成最終響應。這種設計使得AI系統(tǒng)能夠突破訓練數(shù)據(jù)的限制,實現(xiàn)知識的動態(tài)更新。書中詳細介紹了RAG的完整工作流程:從數(shù)據(jù)提取開始,通過文本分割將長文檔切
    發(fā)表于 03-07 19:49