Hi~我是康小盈,上一篇我們聊到了“龍蝦”(OpenClaw),一款正在快速興起的 AI Agent(智能體)。很多朋友留言問:
AI Agent到底是什么?
為什么最近大家都在聊它?
它的技術演變過程是怎么樣的呢?
請跟著我往下看,這篇文章會為你解開所有疑問!
什么是AI Agent ?
如果把大模型比作“大腦”,那AI Agent就是給大腦裝上了手、腳、記憶和工具箱。過去的AI,你可能只會把它當作一個聊天機器人。你問問題,它回答。但現在情況開始發生變化,AI開始幫你“干活”了。
AI Agent 是怎么工作的呢?
在以 LLM 驅動的自主代理系統中,LLM(大型語言模型)作為代理的 “大腦”,提供核心的語言理解、推理與生成能力,并輔助控制關鍵組件。一個完整的 AI Agent 主要包含四大核心模塊:任務規劃、工具調用、記憶存儲和執行輸出。
1.任務規劃:對復雜任務借助大模型進行分解、規劃和調度
2.工具調用:調用工具(Tool Use),與外部工具(如API、數據庫、硬件設備)進行交互,擴展智能體的能力,執行任務。
3.記憶:存儲過往工作的經驗及使用偏好,存儲短期記憶及長期記憶。
4.執行:輸出整個任務結果。

AI Agent 的組成部分
AI Agent 是怎么發展到今天的?
基于規則和早期機器學習階段:
1997年:IBM的深藍在國際象棋中戰勝世界冠軍,是基于規則的AI在特定領域的潛力。
2016年:谷歌的AlphaGO通過深度學習和蒙特卡洛樹搜索戰勝圍棋高手。
這一階段的AI Agent主要專注于特定領域的任務,能力有限,缺乏通用性。
基于大語言模型的快速發展階段:
2017年:Vaswani等人提出了Transformer架構,在機器翻譯任務上取得了突破性進展,這一架構的提出為后續大語言模型的發展奠定了基礎。
2018年:Google和Open AI 分別提出了BERT和GPT-1模型,標志著預訓練語言模型時代的開啟。
2022年:Open AI推出GPT-3.5與Instruct GPT,為對話交互打下基礎。同年發布ChatGPT,引爆全球生成式AI熱潮。
2025年:深度求索發布 DeepSeek-R1,進一步拓展開源模型能力邊界。同年,Manus發布自主Agent產品,真正的自主Agent出現,可以執行復雜任務。

(圖片來源于網絡)
大型語言模型(LLM)為AI Agent提供了強大的通用理解能力,使其不再局限于單一任務。
AI Agent 的進化對存儲提出了什么新需求?
(一)模型首先需要“裝得下”
硬盤是存儲模型文件的物理載體,當前主流開源模型的大小通常在幾GB到幾十GB之間,因此在硬盤選擇上需特別注意兩點:
1.選擇固態硬盤(SSD),相比機械硬盤(HDD),SSD擁有更高的讀寫速度,能大幅縮短模型加載時間。
2.優選PCle接口+NVMe協議的SSD,能進一步加快模型載入與數據讀取過程。
KOWIN PCIe5.0 SSD 符合NVMe 2.0傳輸協議,讀寫性能強悍,超快性能體驗,可應用于工作站、電競設備、高端臺式電腦、AI存儲領域、服務器等設備。
(二)內存與顯存決定模型能否“跑起來”
當在本地運行大模型時,模型會從硬盤加載到系統內存(RAM)或顯卡顯存(VRAM)中,會產生臨時數據,從而占用額外空間。因此通常建議:內存≥模型大小的2-3倍,內存不低于32GB,是CPU推理過程中或顯存不足時的保障。
KOWIN SO-DIMM 內存模組采用優質DRAM資源,根據內存的不同規格,分為DDR4、DDR5等類型DIMM模組,兼具低延遲、高速度、高效率的核心優勢,容量覆蓋8GB至16GB,能夠滿足AI本地部署等多元場景需求。
未來趨勢
根據Gartner預測,Agentic AI是2025年十大技術趨勢之一,到2028年,至少有15%的日常工作決策將由Agentic AI自主完成。
AI Agent 代表了人工智能從"被動工具"到"主動助手"的重要進化,應用場景也將不斷擴展。隨著AI 訓練與推理需求的快速增長,存儲設備也正加速向更高性能、高帶寬、與更大容量升級,并向著可靠性與數據處理效率方面不斷優化。
KOWIN PCIe 5.0 SSD 產品參數

KOWIN SO-DIMM 產品參數

-
AI
+關注
關注
91文章
40411瀏覽量
302011 -
Agent
+關注
關注
0文章
206瀏覽量
29081 -
康盈半導體
+關注
關注
2文章
76瀏覽量
461
原文標題:當AI有了“手腳”和“記憶”:Agent時代真的來了
文章出處:【微信號:康盈半導體科技,微信公眾號:KOWIN康盈半導體】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
AI Agent的進化對存儲提出了什么新需求
評論