国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是大模型,智能體...?大模型100問,快速全面了解!

穎脈Imgtec ? 2026-02-02 16:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、概念篇

1.什么是大模型?

大模型是指參數規模巨大(通常達到數十億甚至萬億級別)、使用海量數據訓練而成的人工智能模型。

2.什么是大語言模型(LLM)?

大語言模型(Large Language Model,LLM)是大模型中最主 要的一類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數據(如書籍、網頁、文章等)進行預訓練,學會語言的模式、知識和上下文關系。

3.什么是多模態大模型?

多模態大模型是指能夠統一處理和理解多種模態數據(如文本、圖像、音頻、視頻)的人工智能模型,實現圖文對應、音視頻理解、視覺問答等任務,使人工智能具備更接近人類的綜合感知與交互能力。

4.什么是推理大模型?

推理大模型是指專門強化邏輯推理、多步推導和計算能力的大規模人工智能模型。它通過結構設計或訓練方法優化,提升在數學解題、代碼生成與調試、邏輯推理、策略規劃等復雜任務中的表現,注重逐步分析,以生成準確、可解釋的結論。

5.L0級、L1級、L2級大模型分別代表什么?

L0級、L1級、L2級大模型是一種非官方但業界常用的模型能力分級方式,幫助理解模型的“加工”程度,分別代表基礎大模型、垂域/領域大模型、場景大模型。

6.什么是基礎大模型?

基礎大模型,又稱基座模型,是指在海量數據上預訓練而成、具備強大泛化能力和多任務適應性的大型人工智能模型。它可作為各類下游任務的通用基礎,支持數據理解、生成等多種能力,通常需要通過微調或提示工程后應用于具體場景。

7.什么是垂域/領域大模型?

垂域大模型是在基礎大模型的基礎上,使用大量某個專業領域的數據(如醫學文獻、法律條文、金融報告)進行進一步訓練(微調)得到的模型。這使得它在該領域內的知識更深入、更準確,回答也更專業。

8.什么是場景大模型?

場景大模型是針對具體的使用場景和應用,在通用模型或領域模型的基礎上,針對特定任務流程和用戶交互方式進行微調得到。

9.什么是混合專家模型(MoE)?

混合專家模型(Mixture of Experts,MoE)由許多“專家模型”組成。獲取到任務時,模型會判斷哪個專家最擅長處理它,然后只激活這部分專家進行計算。

10.什么是專家鏈模型(COE)?

專家鏈(Chain-of-Experts,CoE)是MoE的一種演進。在傳統的MoE中,專家們是并行工作的。而在CoE中,專家們像流水線一樣按順序工作。第一個專家處理完任務后,將結果傳遞給下一個更專業的專家,如此反復進行多輪交互,逐步逼近最精準的解決方案。

11.什么是大模型推理?

大模型推理是應用知識的過程(與之對應,大模型訓練是學習知識的過程),使用已經訓練好的、參數固定的模型,根據新的輸入進行計算,并生成輸出。

12.什么是開源大模型?

開源大模型:公開模型的權重(參數)和代碼,任何人都可以免費下載、使用、修改和研究,促進了創新、透明度和社區協作。優勢是可定制、可控、成本可能更低;劣勢是可能需要自身有較強的技術能力來部署和優化。

13.什么是閉源大模型?

閉源大模型:不公開模型內部,只通過API提供服務,用戶只需輸入和獲取輸出,無需關心后臺。優勢是簡單易用、性能穩定、通常能力更強;劣勢是無法定制內部邏輯、數據隱私存在顧慮、持續使用需付費。

14.什么是智能體?

智能體(Agent)是能夠感知環境并采取行動以實現特定目標的代理體,具備自主性、適應性和交互能力,廣泛應用于人工智能領域,通?;诖竽P蜆嫿?。?

15.什么是GPU

GPU(Graphics Processing Unit,圖形處理器)最初設計用于處理圖形和圖像相關的任務,如圖形渲染和游戲圖形處理。然而,由于其并行處理能力較強,也被用于執行許多通用計算任務,尤其是在深度學習和科學計算領域。

16.什么是NPU?

NPU(Neural Processing Unit,神經網絡處理器)是專門為神經網絡任務而設計的處理器,NPU專注于加速深度學習和神經網絡模型的訓練和推理。

17.什么是“PFlops”?

PFlops(PetaFLOPS)是衡量計算機浮點運算能力的標準單位,表示每秒執行1千萬億次浮點運算,介于TFLOPS(萬億次)與EFLOPS(百億億次)之間,通常用于評估超級計算機和高性能計算集群的運算能力。


二、數據篇

18.什么是高質量數據集?

高質量數據集是指經過清洗、標注和結構化處理,具備高準確性、完整性、一致性和相關性的數據集合。高質量數據集能夠真實反映現實場景,可用于訓練和優化智能模型。

19.預訓練數據質量如何影響模型能力?

高質量、多樣化、覆蓋廣的語料能提升模型的泛化與生成能力,減少偏差與幻覺。低質量數據會導致模型能力低下、偏見嚴重、“幻覺”頻發。

20.為什么大模型需要海量數據訓練?

海量數據能覆蓋更多知識和場景,讓模型學會通用規律,提升泛化能力。

21.常見的數據標注類型有哪些?

① 圖像標注:對圖像中的物體進行拉框(邊界框標注)、按物體輪廓進行精細分割(圖像分割)、標記特定點位(關鍵點檢測)等;

② 文本標注:對文本進行分類、識別實體(如人名、地名)、分析情感傾向、標注語義關系等;

③ 語音標注:將語音轉寫成文字、識別不同的說話人、標注聲音事件等;

④ 視頻標注:對視頻連續幀中的物體、動作、事件進行追蹤和標注。

22.數據標注中人類偏好數據如何獲取?

①排序比較:標注員對模型的多個回答“排序”或“打分”;

②直接撰寫:標注員針對一個問題,直接寫“優質回答”,作為模型的學習樣本訓練獎勵模型,優化大模型。

23.數據集如何轉化為提示詞?

該過程的核心是將數據集中結構化知識或樣本轉化為能夠清晰引導大模型完成特定任務的指令或問題形式。

24.什么是提示詞?

提示詞(Prompt)是用戶輸入給大模型的指令、問題、上下文或示例的統稱。它是用戶與模型交互的主要方式,用于引導和激發模型生成期望的輸出。提示詞的質量直接決定了模型輸出質量的上限。

25.提示詞如何生成?

主要方法包括:

①手動編寫:最直接的方式,依賴提示詞構建人員知識經驗,正確率較高;

②提示詞模板:使用預設的模板結構化提示詞;

③自動化工具:提供提示詞生成工具,幫助測試和優化提示詞效果。

26.提示詞工程的作用是什么?

提示工程是指設計和優化輸入提示,使模型準確理解需求,提升輸出準確性和相關性,應用于對話生成、文本生成等任務。

27.什么是Token?

Token是模型處理、理解和生成文本的基本單位,直接決定模型的上下文窗口限制和使用成本(按Token數量計費)。

28.分詞器的作用是什么?

分詞器(Tokenizer)是模型處理文本的第一道關口,它有兩個核心功能:①分詞:將原始文本字符串拆分成Token序列。②映射:將每個Token轉換成一個唯一的數字ID。

29.什么是向量數據庫?

向量數據庫(Vector Database)是一種專門存儲和檢索向量(高維數值數組)的數據庫。在RAG等應用中,用于存儲文本、圖像的嵌入(Embedding)表示,實現高效的語義相似性搜索。


三、訓練篇

30.大模型的核心技術基礎是什么?

Transformer是大模型最核心的技術基礎。大模型的爆發始于2017年Transformer架構的提出,幾乎所有現代大模型都是基于Transformer或它的變體構建的。圍繞Transformer,衍生出了預訓練、微調、對齊等一系列強化大模型的關鍵技術。

31.大模型的基本工作原理是什么?

①輸入處理:將輸入(文字、圖片)轉成模型能懂的格式,例如文字轉Tokens、圖片轉像素特征;

②計算理解:通過Transformer架構計算輸入的語義/特征;

③輸出生成:根據計算結果生成人類能懂的內容,例如文字任務生成Tokens再轉文字、圖像任務生成像素再轉圖片。

32.什么是Transformer架構?

Transformer架構是一種基于自注意力機制的神經網絡結構,并行化能力強、擅長并行計算與序列建模,能很好地處理距離很遠的詞之間的關系。主要包括編碼器(Encoder)和解碼器(Decoder)兩部分。但后來出現了很多變體,如僅用解碼器的GPT(生成式)和僅用編碼器的BERT(理解式)。

33.什么是涌現能力?

涌現能力(Emergent Ability)是指當人工智能模型(尤其是大語言模型)的規模(如參數量、訓練數據量、計算量)增長到某個臨界點時,突然展現出在較小模型中完全不存在或非常微弱的、新的、強大的能力,簡單來說,就是“量變引起質變”。

34.大模型是如何進行訓練的?

先“預訓練”:在海量無標注文本數據上,通過自監督學習目標進行訓練。再“微調”:在預訓練好的“基座模型”上,使用特定任務的數據集進行進一步訓練,使其適應下游具體任務(如對話、總結)。

35.什么是預訓練?

預訓練是指在構建大型人工智能模型時,使用海量的、通常是無標注的數據,在通用任務上進行的第一階段大規模訓練過程。這是大模型能夠具備強大通用能力的基礎和核心步驟。

36.什么是微調?

微調是在預訓練模型的基礎上,針對特定任務或領域進行“專項培訓”的過程。使用相對較少的有標注數據,對模型的參數進行小幅調整,使其在該任務上表現更專業。

37.什么是指令微調?

指令微調是微調的一種重要形式,使用提示對(指令,期望輸出)進行訓練,教會模型如何理解和遵循人類的指令。

38.什么是參數高效微調?

參數高效微調(PEFT)是一系列技術的總稱,其核心思想是:在微調時,不動或只更新預訓練模型的絕大部分參數,只額外引入極少量的新參數并只訓練這些新參數,從而達到與全量微調相近的效果。常見技術有:LoRA、QLoRA、Adapter等。

39.什么是上下文學習?

上下文學習(In-Context Learning,ICL)是大模型一項革命性的能力。它指的是模型不需要更新自身的任何參數,僅通過在當前對話的提示中提供幾個任務示例或指令,就能立刻學會并執行一個新任務。

40.什么是上下文窗口?

模型在一次推理過程中能夠考慮和處理的文本總量(包括提示和模型已生成的內容),通常以token數量衡量。例如,上下文窗口為8k,意味著模型最多能處理8192個token。

41.上下文窗口長度限制有什么影響?

限制模型處理長文本的能力,可能丟失遠距離信息,影響回答連貫性和準確性。

42.為什么大模型具備上下文學習能力?

這種能力被認為是模型規模達到一定程度后涌現出來的。在預訓練過程中,模型“閱讀”了海量的文本,這些文本中本身就包含了各種任務和示例(如問答對、文章摘要等)。當模型足夠大時,模型內部形成了強大的模式匹配和推理能力,使得它能夠在推理時,根據提供的幾個示例快速識別出所需的任務模式,并模擬生成相應的輸出。

43.什么是零樣本學習?

零樣本學習(Zero-Shot Learning)是機器學習的一種高級范式,其核心目標是讓模型能夠識別或理解在訓練階段從未見過任何樣本的類別。

44.什么是少樣本學習?

少樣本學習(Few-Shot Learning)是上下文學習最常見的形式。指在提示中提供少量(通常是幾個)任務示例,從而幫助模型更好地理解任務意圖和格式,生成更高質量的答案。例如,先給幾個翻譯例子,再讓模型翻譯新的句子。

45.什么是災難性遺忘?

災難性遺忘(Catastrophic Forgetting)是機器學習中的一個經典問題。指當一個模型學習新任務或新知識時,會嚴重覆蓋或破壞之前已經學會的舊任務或舊知識的性能。

46.什么是思維樹?

思維樹(Tree of Thoughts,ToT)讓模型在推理的每一步都探索多種可能的下一步,然后通過評估分支優劣,選擇最有希望的路徑繼續,必要時甚至可以回溯,使得模型能進行更深度、更可靠的推理。

47.人類反饋強化學習是什么?

人類反饋強化學習(RLHF)是讓大模型的行為與人類價值觀和偏好對齊的核心技術。它分為收集人類偏好、訓練獎勵模型、強化學習微調三個步驟。

48.為什么大模型需要數十億參數?

參數是模型存儲知識和進行計算的基礎,需要如此多參數的主要原因:

①存儲知識:模型需要將學到的海量語言知識、世界事實存儲在參數中。參數越多,“記憶庫”就越大。

②建模復雜關聯:語言和理解需要捕捉詞與詞、句與句之間極其復雜、細微的關聯。大量的參數使得模型有能力構建非常復雜的函數來表示這些關聯。

③支撐涌現能力:如前所述,許多高級能力(如推理)只有在模型達到一定規模后才會涌現。

49.大模型的參數量越大越好嗎?

參數量越大,模型的表達能力越強,但也需要更多的計算資源和數據,且可能面臨過擬合問題。

50.GPU、NPU有什么區別?

NPU專為AI推理而設計,具有高效執行神經網絡計算的能力,適用于低功耗、高實時性的應用場景。GPU廣泛應用于圖形渲染和通用計算領域,具有極高的計算吞吐量和靈活性,適合處理大規模并行任務和深度學習訓練。

51.大模型邊端部署的難點是什么?

①算不動/算得慢:計算資源有限邊緣設備的算力遠不如服務器;

②裝不下:內存不足,大模型體積大(比如10億參數的模型占幾十GB內存),邊緣設備內存通常只有幾GB;

③能耗高:大模型運行耗電多,邊緣設備電池容量或供電功率有限。

52.如何解決大模型邊端部署問題?

通常結合模型輕量化與硬件加速等方法解決相關問題。

53.什么是大模型輕量化?

大模型輕量化是指通過一系列技術減少模型的大小、計算量和能耗,使其能夠部署在資源受限的環境中(如手機、嵌入式設備、邊緣服務器)。主要技術包括模型剪枝、量化、知識蒸餾等。

54.什么是模型剪枝?

模型剪枝的目的是識別并移除模型中冗余、不重要的參數,在保證能力的前提下,降低算力和內存需求。

55.什么是大模型量化?

大模型量化通過將模型權重和激活從高精度轉換為低精度,減少存儲和計算開銷。

56.什么是知識蒸餾?

知識蒸餾是一種模型壓縮技術,通過讓小模型(學生)學習大模型(教師)的輸出分布(軟標簽),將其“知識”遷移至輕量級模型。學生模型在保留相近性能的同時顯著降低參數量和計算成本,適用于模型部署與加速。


四、評估篇

57.數據質量評價主要維度是什么?

數據質量評價主要維度包括準確性、完整性、一致性、及時性、唯一性和有效性等。

58.大模型評價主要維度是什么?

大模型評價主要關注以下方面:

①知識廣度與準確性:模型是否能回答廣泛領域的問題,答案是否準確;

②推理能力與邏輯思維:模型是否具備解決復雜問題的能力;

③指令遵循與對齊程度:模型是否能按照用戶意圖生成內容;

④創造力與多樣性:模型是否能生成新穎且多樣化的內容;

⑤安全性與魯棒性:模型是否能在惡意輸入或極端場景下保持穩定。

59.大模型安全性評價主要維度是什么?

大模型安全性評價主要維度包括:①模型應用安全:模型在真實交互中抵御惡意攻擊的能力,如提示注入、數據泄露、資源濫用等;②數據與隱私安全:訓練和使用過程中,對用戶敏感數據和模型內部信息的保護水平;③模型自身安全:模型在訓練和部署階段的健壯性,抵御投毒、后門等攻擊的能力;④安全治理與合規:是否將安全融入全生命周期,并符合國際國內的相關標準與法規。

60.大模型性能評測主要指標是什么?

生成質量指標(流暢度與連貫性、準確性、BLUE和ROUGE分數、F1分數、困惑度等)、響應效率(首Token延遲、吐字率、吞吐量等)、資源消耗等。

61.什么是BLEU

BLEU(Bilingual Evaluation Understudy)是一種用于評估機器翻譯質量的指標,它通過比較機器翻譯輸出與一個或多個參考翻譯之間的n-gram重疊來進行評分,關注精確度。

62.什么是ROUGE?

ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是一種用于評估自動文本摘要和機器翻譯質量的指標,通過比較自動生成的摘要與參考摘要(通常是人工生成的)之間的相似度來進行評估,關注生成內容對原文的召回率。

63.什么是F1分數(F1 Score)?

F1分數用于綜合評估分類模型的精確率(Precision)和召回率(Recall),由于能夠平衡這兩個指標的影響,可有效反映模型在處理類別不平衡問題時的性能。

64.什么是困惑度(Perplexity)?

困惑度是自然語言處理(NLP)中一種常用的評估語言模型性能的指標??梢灾庇^地將其理解為模型在預測下一個詞時的“平均不確定程度”:如果模型能準確預測文本中的下一個字,困惑度就低;如果預測不準,困惑度就高。

65.什么是首Token延遲?

首Token延遲是指從用戶發送請求到模型返回第一個Token所花費的時間,該指標直接影響用戶感知的響應速度,是交互流暢度的關鍵。

66.什么是吐字率?

吐字率指模型每秒生成Token的數量,該指標決定了答案的輸出速度,影響用戶體驗,在長文本生成場景下,較高的吐字率會更流暢。


五、平臺篇

67.Palantir AIP平臺是什么?

PalantirAIP(Artificial Intelligence Platform)是一款用于企業級應用集成和數據交換的平臺,它提供了一套完整的工具集,幫助企業快速、安全地將不同應用系統集成在一起,實現數據的無縫交換。

68.“元星座”是什么?

“元星座”是(Meta Constellation)Palantir公司的下一代行星級時敏情報系統,其本質上是一個軟件平臺,其核心能力在于智能調度和融合數百顆商業衛星的數據,并借助人工智能技術,旨在為用戶提供全球范圍內近實時的情報洞察和決策支持。

69.“晶格”是什么?

美軍的“晶格”(Lattice)系統是由美國科技初創公司安杜利爾(Anduril)從2017年開始研制的一款智能指揮控制軟件平臺。主要瞄準現代戰場上的“數據洪流”難題,旨在將陸、海、空、天等不同領域成千上萬的傳感器和武器平臺連接起來,通過人工智能技術融合數據,為作戰人員生成一張統一的、實時的共用作戰圖,從而極大縮短從發現目標到實施打擊的決策時間,支撐更快的決策。

70.Manus是什么?

Manus是由中國團隊Monica于2025年3月6日正式推出的全球首款通用型AI智能體(AI Agent),其核心理念是“手腦并用”(源自拉丁語“Mens et Manus”),旨在通過自主規劃與執行復雜任務,直接交付完整成果,而非僅提供建議或文本答案。

71.什么是MCP?

MCP(Model Context Protocol)是一個開放協議,用于讓大型語言模型能夠安全、標準化地使用外部工具、數據和服務。

72.什么是A2A?

A2A(Agent-to-Agent)即智能體間的交互,指的是多個AI智能體通過通信和協作,模擬人類團隊的工作模式,共同完成一個復雜任務。

73.什么是AI智能體(AI Agent)?

AI智能體是一種能夠跨領域自主規劃、執行復雜任務并交付完整成果的人工智能系統。不同于傳統專注于單一任務的AI,AI智能體具備類似人類的綜合認知與執行能力,能夠獨立完成從任務分解到結果輸出的全流程。

74.什么是檢索增強生成(RAG)?

檢索增強生成(Retrieval-Augmented Generation,RAG)通過檢索外部知識庫增強模型生成能力。用戶提問后,RAG先從外部知識庫(如文檔、數據庫、網頁)中檢索出與問題最相關的文檔片段,并將這些片段和原始問題一起作為上下文,輸入給大模型,大模型基于提供的權威知識生成回答。

75.檢索增強生成有什么優勢?

RAG的核心優勢是減少幻覺、提升準確性和時效性。

①減少幻覺:模型基于真實的檢索數據回答,減少了模型憑空編造的可能;

②提升準確性:能調用專業知識庫(如醫療指南、法律條文),回答更專業;

③提升時效性:知識庫可以隨時更新,讓模型能回答最新問題,而不必重新訓練模型。


六、應用篇

76.大模型如何輔助代碼開發?

①代碼補全:寫代碼時自動補全后續內容;②注釋生成:為寫好的代碼添加注釋;③代碼解釋:解釋現有代碼的功能;④bug修復:發現代碼中錯誤,并提出修改建議;⑤單元測試生成:為代碼生成測試用例,驗證代碼是否能正常運行;⑥重構建議:優化舊代碼的結構,使代碼更簡潔、易維護;⑦代碼自動編寫:根據提示詞,自動生成代碼基本版。

77.大模型如何優化搜索引擎?

大模型使搜索引擎“更懂用戶、更實用”,主要優化包括理解模糊需求、多輪對話式搜索、生成式答案、多模態搜索等。

78.大模型如何輔助內容創作?

主要場景包括:①文本組織:整理報告、抽取信息、語言翻譯等;②創意生成:創作小說、宣傳文案等;③音樂生成:根據文本描述生成音樂;④圖片配文:根據文本生成匹配適當圖片。

79.大模型如何實現多輪對話的連貫性?

主要方法包括:①維護對話歷史:將之前的對話內容也作為上下文輸入給模型;②上下文注意力:模型處理新問題時,同時關注歷史對話里的關鍵信息;③狀態跟蹤:顯式地維護對話狀態(如用戶的目標、已提及的信息),確保對話圍繞主題;④情感理解:感知用戶的情緒,并做出恰當的反應。

80.多模態模型的應用場景有哪些?

應用場景主要包括:①文生圖:根據文字描述生成圖片;②圖生文:根據輸入圖片生成文字描述;③圖文問答:結合圖片和文字提問,模型回答;④視頻摘要:輸入視頻,生成文字摘要;⑤語音轉文本并分析:把語音轉成文本,再根據文本內容進行分析。

81.大模型如何結合知識圖譜使用?

大模型通過檢索增強、圖神經網絡、實體鏈接、關系推理等方式整合知識圖譜信息,輔助回答,減少幻覺,提升專業性。

82.大模型進行信息抽取能提取哪些關鍵內容?

①實體:具體的人、事、物;

②關系:實體之間的聯系;

③事件:具體發生的事;情感:文本的情緒傾向;

④關鍵詞/摘要:文本的核心詞和摘要生成。

83.大模型如何將復雜文本簡化為通俗表達?

通過摘要生成(提取核心要點生成摘要)、術語解釋(將專業術語替換為日常用語或加以解釋)、句式簡化(拆分長難句,使用更簡單的句子結構)、上下文重組(調整邏輯順序,使其更符合大眾的理解習慣)等方式實現。

84.大模型結合知識庫能實現什么檢索效果?

提升答案準確性、時效性、可解釋性,支持復雜推理和多跳問答。

85.大模型如何整合多源信息進行回答?

主要方法包括:

①通過注意力機制權衡不同信息源的重要性,重點關注更相關的內容;

②將不同信息中的互補部分組合起來,形成完整答案;去冗余,識別并去除重復的信息;

③當不同信息沖突時,根據來源可靠性等因素進行判斷或如實告知用戶存在沖突等技術實現。

86.大模型如何篩選檢索到的冗余信息?

使用去重算法、相關性排序、摘要生成、信息聚合等方法篩選冗余信息。

87.美軍推進的大模型典型應用有哪些?

①“多諾萬”(Donovan)是Scale AI公司研發的端到端AI決策支持平臺,用于支撐美國陸軍第18空降師輔助決策制定,實現海量情報數據(如任務命令、態勢報告)快速分析、行動方案生成和評估等功能,大幅縮短作戰規劃周期。

②“雷霆熔爐”(Thunderforge)是由國防創新單元(DIU)主導的關鍵項目,由Scale AI公司進行開發,通過將AI深度整合到作戰規劃中,利用大模型和兵棋推演快速生成、模擬和評估多種行動方案,旨在獲得對對手的決策速度優勢。

③Amelia助手是海軍與通用動力信息技術公司(GDIT)合作推出的人工智能助手,旨在提升海軍體系服務臺應答效率,解放人類操作員,以便其開展更復雜、更重要的工作。

④Hermes大語言模型是Scale AI公司與海軍陸戰隊大學合作開發的專注于軍事教育和規劃的大模型,通過加載特定條令和數據,可幫助軍事人員理解復雜作戰環境、進行策略分析和問答。


七、安全篇

88.大模型的主要安全問題包括哪些?

數據隱私與泄露風險、模型安全與對抗攻擊、內容安全與倫理風險、基礎設施與合規風險、智能體與系統級風險等。

89.常見的大模型攻擊手段有哪些?

提示注入、對抗樣本、數據投毒、模型竊取、成員推斷攻擊等。

90.常見的大模型防御手段有哪些?

提示詞過濾、對抗訓練、差分隱私、模型監控、安全對齊、紅隊測試等。

91.大模型“幻覺”是什么?

“幻覺”問題是大模型當前的核心缺陷之一,是指大模型生成內容看似流暢合理,但實際上是錯誤的或虛構的,與現實或輸入信息不符。

92.如何緩解大模型幻覺問題?

通過使用RAG提供事實依據、指令微調要求模型誠實、讓模型提供引用來源、用戶交叉驗證信息、通過RLHF持續優化等方式,減少模型捏造答案的傾向。

93.大模型可解釋性是什么?

可解釋性(Interpretability)是指人類能夠理解、信任和有效管控人工智能模型如何做出決策的程度。它旨在打開AI的“黑箱”,讓模型的決策過程對人類而言變得透明和可理解。

94.如何防止模型生成有害內容?

主要方法包括:①過濾器:使用內容過濾器,預訓練時去掉有害數據;②指令微調與RLHF:通過人類反饋訓練模型,使其拒絕生成有害內容;③內容審核:對模型的輸出進行實時檢測和過濾,攔截有害內容;④紅隊測試:主動模擬攻擊,發現模型漏洞并修復。

95.什么是提示注入?

攻擊者通過特殊提示詞,誘導模型忽略原有指令,執行惡意操作。如果模型防御不足,就可能泄露信息。

96.模型對齊的目標是什么?

模型對齊(Model Alignment)確保輸出符合人類價值觀,防止生成有害內容。例如未對齊的模型可能反饋一些違法違規內容,對齊后會拒絕;未對齊的模型可能答非所問,對齊后會準確回應。

97.如何識別AI生成內容?

①AI檢測工具:使用專門的工具分析內容特征,判斷是否是AI生成;②特征分析:檢查內容是否有AI的“痕跡”(比如文本重復率高、邏輯弱);③水印技術:在生成時嵌入難以察覺的特定模式;④行為模式檢測:訓練專門的二分類模型來區分AI生成和人類撰寫。

98.模型訓練是否侵犯版權?

存在爭議,需考慮數據來源、合理使用原則、版權法例外條款、行業協議等。


八、政策篇

99.我國發布了什么人工智能政策?

2025年8月,國務院印發《國務院關于深入實施“人工智能+”行動的意見》(國發〔2025〕11號),是繼十年前“互聯網+”行動之后,我國推出的又一個重量級國家行動,旨在推動人工智能與經濟社會各行業各領域深度融合,標志著中國人工智能發展進入新階段。

100.美國發布了什么人工智能政策?

2025年7月,美國白宮發布《贏得競爭:美國人工智能行動計劃》,圍繞加速AI創新、構建美國AI基礎設施、引領國際AI外交和安全三大戰略支柱展開,配套提出30項舉措和100余條具體政策行動,旨在通過AI的主導權,確保美國在全球AI競賽中占據領先地位,從而贏得全球技術和經濟競爭的主動權。

本文來源:新鄉數字不動產、中國信息支援

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1817

    文章

    50094

    瀏覽量

    265271
  • 智能體
    +關注

    關注

    1

    文章

    476

    瀏覽量

    11604
  • 大模型
    +關注

    關注

    2

    文章

    3648

    瀏覽量

    5179
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    全面認識,還提供了將這些模型應用于實際問題的實用指導。對于希望在人工智能領域深入研究的讀者來說,這是一本不可多得的參考書籍。
    發表于 04-30 15:35

    【大語言模型:原理與工程實踐】大語言模型的評測

    度、多角度的解釋或回答。通過這些評測任務,我們能夠全面而深入地了解模型在中文語言理解方面的實際能力。 常識百科類評測任務:此類評測任務主要評估大語言模型在知識覆蓋廣度方面的表現。一個
    發表于 05-07 17:12

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    科正將AI能力體系化并賦能終端生態。 大會上,聯發科定義了“智能化用戶體驗”的五大特征:主動及時、知你懂你、互動協作、學習進化和專屬隱私信息守護。這五大特征需要跨越從芯片、模型、應用、終端乃至整個
    發表于 04-13 19:52

    模型預測控制介紹

    這篇主要講一下模型預測控制,如果對PID控制了解的同學,那效果更好。如果不了解PID控制,還是熟悉下比較好。模型預測控制,顧名思義,基于模型
    發表于 08-18 06:21

    如何快速搭建STM32應用模型?

    如何快速搭建STM32應用模型?
    發表于 02-10 06:27

    用于快速模型模型調試器11.21版用戶指南

    用于快速模型模型調試器是用于可擴展集群軟件開發的完全可重定目標的調試器。它旨在滿足SoC軟件開發人員的需求。 Model Debugger具有易于使用的GUI前端,并支持: ?源代碼級調試
    發表于 08-09 07:57

    用于快速模型模型調試器11.20版用戶指南

    用于快速模型模型調試器是用于可擴展集群軟件開發的完全可重定目標的調試器。它旨在滿足SoC軟件開發人員的需求。 Model Debugger具有易于使用的GUI前端,并支持: ?源代碼級調試
    發表于 08-10 06:33

    快速全面了解模型長文本能力

    那關于LLM的長文本能力,目前業界通常都是怎么做的?有哪些技術點或者方向?今天我們就來總結一波,供大家快速全面了解
    發表于 02-22 14:04 ?1627次閱讀
    <b class='flag-5'>快速</b><b class='flag-5'>全面</b><b class='flag-5'>了解</b>大<b class='flag-5'>模型</b>長文本能力

    中軟國際【】系列大模型應用一機正式發布

    的最新應用實踐,攜手華鯤振宇正式發布了中軟國際【】系列大模型應用一機,聯合華為發布了“同舟共濟”行動計劃。會上,中軟國際互聯網ITS事業部AIGC解決方案總經理黃高尚發表了題為《中軟國際【
    的頭像 發表于 03-19 19:34 ?2483次閱讀
    中軟國際【<b class='flag-5'>問</b>】系列大<b class='flag-5'>模型</b>應用一<b class='flag-5'>體</b>機正式發布

    通義千推出1100億參數開源模型

    通義千近日震撼發布1100億參數的開源模型Qwen1.5-110B,這一舉措標志著通義千在AI領域邁出了重大步伐。該模型成為通義千全系
    的頭像 發表于 05-06 10:49 ?1421次閱讀

    騰訊元器免費模型資源增至1億tokens,混元大模型全面降價

    從騰訊方面獲悉,一站式智能創作與分發平臺騰訊元器即日起全面升級了模型資源扶持方案。
    的頭像 發表于 05-27 14:22 ?2871次閱讀

    依圖天模型4.0重磅發布

    2023年7月,依圖發布了智能安防領域首個可實戰可商用的多模態大模型—依圖天1.0。發布至今,依圖天模型基座已完成了兩次迭代升級,并率
    的頭像 發表于 06-18 09:25 ?1806次閱讀

    什么是大模型快速了解模型基本概念

    “在人工智能的世界里,大模型就像超級大腦一樣,能夠處理和理解大量的信息。你可能聽說過ChatGPT,它就是大模型的一個典型代表。那么,什么是大模型呢?讓我們一起來探索這個神奇的領域。什
    的頭像 發表于 08-07 08:28 ?3953次閱讀
    什么是大<b class='flag-5'>模型</b>?<b class='flag-5'>快速</b><b class='flag-5'>了解</b>大<b class='flag-5'>模型</b>基本概念

    黑芝麻智能芯片全面兼容DeepSeek模型推理

    目前,黑芝麻智能武當C1200家族芯片已經完成DeepSeek模型的部署,A2000也將全面支持基于DeepSeek的多模態大模型。 伴隨DeepSeek等AI應用
    的頭像 發表于 02-14 11:27 ?1368次閱讀

    APP與通義系列大模型,才是智能汽車的“黃金組合”

    智能汽車這兩年的一個典型現象是,幾乎所有車企都用上了大模型,但智能座艙體驗并沒有出現同等量級的躍遷。 于是,行業集體思考新的出路和方向,共識逐漸形成,即接入大模型只是
    的頭像 發表于 12-30 17:25 ?623次閱讀