国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

多智能體強化學習(MARL)核心概念與算法概覽

穎脈Imgtec ? 2026-01-21 16:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文轉自:DeepHub IMBA

作者:Syntal


訓練單個 RL 智能體的過程非常簡單,那么我們現在換一個場景,同時訓練五個智能體,而且每個都有自己的目標、只能看到部分信息,還能互相幫忙。

這就是多智能體強化學習(Multi-Agent Reinforcement Learning,MARL),但是這樣會很快變得混亂。


什么是多智能體強化學習

MARL 是多個決策者(智能體)在同一環境中交互的強化學習。

環境類型可以很不一樣。競爭性的,比如國際象棋,一方贏一方輸。合作性的,比如團隊運動,大家共享目標。還有混合型的,更像現實生活——現在是隊友,過會兒可能是對手,有時候兩者同時存在。

但是這里有一個關鍵的問題:從任何一個智能體的視角看世界變成了非平穩的,因為其他智能體也在學習、在改變行為。也就是說在學規則的時候,規則本身也在變。


MARL 在現實中的位置

單智能體 RL 適合系統只有一個"大腦"的情況,而MARL 則出現在世界有多個"大腦"的時候。

現實世界中有很多這樣的案例,比如交通信號控制:每個路口是一個智能體,一個信號燈"貪婪"了,下游路口就會卡死;倉庫機器人:每個機器人自己選路徑,碰撞和擁堵天然是多智能體問題;廣告競價和市場:智能體用不斷變化的策略爭奪有限資源;網絡安全:攻擊者和防御者是相互適應的智能體對;在線游戲和模擬:協調、欺騙、配合、自我對弈——這些都是MARL 的經典試驗場。


核心概念

大多數真實場景中,智能體只能看到狀態的一部分。所以 MARL 里的策略通常基于局部觀測,而不是完整的全局狀態。

單智能體 RL 里環境動態是穩定的,而MARL 不一樣"環境"包括其他智能體。它們在學習,你的轉移動態也就跟著變了。

這正是經典的 Qlearn在多智能體環境里容易震蕩、甚至崩潰的原因。

合作任務中團隊拿到獎勵,但功勞該算誰的?團隊成功了,是智能體 2 的動作起了作用,還是智能體 5 在 10 步之前的作用?這就是信用分配問題,這是MARL 里最頭疼的實際難題之一。


集中式與分布式

集中訓練、分布式執行(CTDE)

這是目前最常見的模式。訓練時智能體可以用額外信息,比如全局狀態或其他智能體的動作。執行時每個智能體只根據自己的局部觀測行動。

這樣的好處是,既有集中學習的穩定性,又不需要在運行時獲取不現實的全局信息。

完全分布式學習

智能體只從局部經驗學習。這個聽起來是對的,而且簡單任務也能用。但實際中往往不夠穩定,合作任務尤其如此。


算法總覽

合作性基于價值的方法:Independent Q-Learning(IQL)是最簡單的基線,容易實現但通常不穩定;VDN 和 QMIX 通過混合各智能體的價值來學全局團隊價值,合作處理得更好。

策略梯度和 Actor-Critic 方法:MADDPG 用集中式 Critic 配分布式 Actor,概念上是很好的切入點;MAPPO 在很多合作任務里是靠譜的默認選擇。

自我對弈(Self-play):和自己不同版本對打來建立泛化的策略。思路簡單粗暴效果也很好。


Python 從零搭一個小 MARL 環境

來做個玩具游戲:兩個智能體必須協調。經典設定——兩者選同一個動作才有獎勵。每個智能體選 0 或 1,動作一致拿 +1,不一致拿 0。

我們這里刻意設計得簡單,這樣方便我們聚焦在 MARL 機制本身。

import random
from collections import defaultdict

class CoordinationGame:
def step(self, a0, a1):
reward = 1 if a0 == a1 else 0
done = True # single-step episode
return reward, done

接下來是最小化的 Independent Q-Learning 設置,每個智能體學自己的 Q 表。這里沒有狀態,Q 只取決于動作。

def epsilon_greedy(Q, eps=0.1):
if random.random() < eps: ?
return random.choice([0, 1])
return 0 if Q[0] >= Q[1] else 1

Q0 = defaultdict(float) # Q0[action]
Q1 = defaultdict(float) # Q1[action]

alpha = 0.1
eps = 0.2
env = CoordinationGame()

for episode in range(5000):
a0 = epsilon_greedy(Q0, eps)
a1 = epsilon_greedy(Q1, eps)

r, done = env.step(a0, a1)

# One-step update (no next-state)
Q0[a0] += alpha * (r - Q0[a0])
Q1[a1] += alpha * (r - Q1[a1])

# Inspect learned preferences
print("Agent0 Q:", dict(Q0))
print("Agent1 Q:", dict(Q1))

多數運行會收斂到兩種"慣例"之一:兩者都學會總是選 0,或者都學會總是選 1。

這就是協調從學習中涌現出來的樣子。雖然小但和大型合作 MARL 系統里依賴的模式是同一類東西。

這個玩具例子太友好了。難一點的任務里,IQL 常常變得不穩定,因為每個智能體都在追一個移動靶。


讓例子更"MARL"一點

常見技巧是加共享團隊獎勵,同時保證足夠長的探索期來發現協調,下面是一個帶衰減 epsilon 的訓練循環:

Q0 = defaultdict(float)
Q1 = defaultdict(float)

alpha = 0.1
eps = 0.9
eps_decay = 0.999
eps_min = 0.05

env = CoordinationGame()

for episode in range(20000):
a0 = epsilon_greedy(Q0, eps)
a1 = epsilon_greedy(Q1, eps)

r, _ = env.step(a0, a1)

Q0[a0] += alpha * (r - Q0[a0])
Q1[a1] += alpha * (r - Q1[a1])

eps = max(eps_min, eps * eps_decay)

print("Agent0 Q:", dict(Q0))
print("Agent1 Q:", dict(Q1))

這當然不會解決 MARL,但它演示了一個真實原則:早期探索幫助智能體"找到"一個穩定的協調慣例。


總結

一旦解決了單步協調問題,還會有三個問題會反復出現:

虛假學習信號:智能體可能覺得"是自己動作導致了獎勵",實際上是另一個智能體的動作起了作用。

糟糕的均衡陷阱:在競爭性游戲里,智能體可能卡在穩定但不強的弱策略上。

規模爆炸:多智能體的狀態和動作空間膨脹很快,需要更好的函數逼近(神經網絡)、更好的訓練方案(CTDE),通常還需要更講究的環境設計。

應對這些問題沒有萬能解法,但有一些經過驗證的思路。針對虛假學習信號,可以用 CTDE 架構讓 Critic 看到全局信息,幫助每個智能體更準確地評估自己動作的貢獻。均衡陷阱的問題,自我對弈加上一定的探索機制能幫智能體跳出局部最優。規模問題則需要參數共享、注意力機制等技術來降低復雜度。

實際項目中,建議先在概念上理解集中式 Critic 的工作原理,不用急著寫完整的深度 RL 代碼。這一步會改變你思考可觀測性和穩定性的方式,后面上手具體算法會順暢很多。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 智能體
    +關注

    關注

    1

    文章

    476

    瀏覽量

    11604
  • 強化學習
    +關注

    關注

    4

    文章

    270

    瀏覽量

    11967
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于智能深度強化學習的體系任務分配方法

    為了應對在未來復雜的戰場環境下,由于通信受限等原因導致的集中式決策模式難以實施的情況,提出了一個基于智能深度強化學習方法的分布式作戰體系任務分配
    的頭像 發表于 05-18 16:46 ?6495次閱讀
    基于<b class='flag-5'>多</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>深度<b class='flag-5'>強化學習</b>的體系任務分配方法

    深度強化學習實戰

    測試)三、主講內容1:課程一、強化學習簡介課程二、強化學習基礎課程三、深度強化學習基礎課程四、智能
    發表于 01-10 13:42

    介紹智能體系統的解決方案以及應用

    智能體系統深度強化學習:挑戰、解決方案和應用的回顧摘要介紹背景:強化學習前提貝爾曼方程RL方法深度強化學習:單
    發表于 07-12 08:44

    什么是強化學習?純強化學習有意義嗎?強化學習有什么的致命缺陷?

    強化學習是人工智能基本的子領域之一,在強化學習的框架中,智能通過與環境互動,來學習采取何種動作
    的頭像 發表于 07-15 10:56 ?1.9w次閱讀
    什么是<b class='flag-5'>強化學習</b>?純<b class='flag-5'>強化學習</b>有意義嗎?<b class='flag-5'>強化學習</b>有什么的致命缺陷?

    基于強化學習的MADDPG算法原理及實現

    之前接觸的強化學習算法都是單個智能強化學習算法,但是也有很多重要的應用場景牽涉到多個
    的頭像 發表于 11-02 16:18 ?2.3w次閱讀

    如何測試強化學習智能適應性

    強化學習(RL)能通過獎勵或懲罰使智能實現目標,并將它們學習到的經驗轉移到新環境中。
    的頭像 發表于 12-24 09:29 ?3796次閱讀

    深度強化學習研究中首次將概率遞歸推理引入AI的學習過程

    在傳統的學習過程當中,有研究者在對其他智能建模 (也即“對手建模”, opponent modeling) 時使用了遞歸推理,但由于
    的頭像 發表于 03-05 08:52 ?5832次閱讀

    一種基于智能體協同強化學習的多目標追蹤方法

    矩陣對其進行求解得到多個追蹤智能的任務分配情況,并以縮短目標智能的追蹤路徑為優化目標進行任務分工,同時利用
    發表于 03-17 11:08 ?20次下載
    一種基于<b class='flag-5'>多</b><b class='flag-5'>智能</b>體協同<b class='flag-5'>強化學習</b>的多目標追蹤方法

    一種新型的智能深度強化學習算法

    一種新型的智能深度強化學習算法
    發表于 06-23 10:42 ?36次下載

    《自動化學報》—Agent深度強化學習綜述

    突破.由于融合了深度學習強大的表征能力和強化學習有效的策略搜索能力,深度強化學習已經成為實現人工智能頗有前景的學習范式.然而,深度
    發表于 01-18 10:08 ?2371次閱讀
    《自動<b class='flag-5'>化學</b>報》—<b class='flag-5'>多</b>Agent深度<b class='flag-5'>強化學習</b>綜述

    強化學習的基礎知識和6種基本算法解釋

    定標記訓練數據的情況下獲得正確的輸出 無監督學習(UL):關注在沒有預先存在的標簽的情況下發現數據中的模式 強化學習(RL) : 關注智能在環境中如何采取行動以最大化累積獎勵 通俗地
    的頭像 發表于 12-20 14:00 ?1800次閱讀

    強化學習的基礎知識和6種基本算法解釋

    的情況下獲得正確的輸出無監督學習(UL):關注在沒有預先存在的標簽的情況下發現數據中的模式強化學習(RL):關注智能在環境中如何采取行動以最大化累積獎勵通俗地說,強
    的頭像 發表于 01-05 14:54 ?1834次閱讀
    <b class='flag-5'>強化學習</b>的基礎知識和6種基本<b class='flag-5'>算法</b>解釋

    基于強化學習的目標檢測算法案例

    摘要:基于強化學習的目標檢測算法在檢測過程中通常采用預定義搜索行為,其產生的候選區域形狀和尺寸變化單一,導致目標檢測精確度較低。為此,在基于深度強化學習的視覺目標檢測算法基礎上,提出聯
    發表于 07-19 14:35 ?0次下載

    語言模型做先驗,統一強化學習智能,DeepMind選擇走這條通用AI之路

    的發展,從最早的 AlphaGo、AlphaZero 到后來的模態、多任務、具身 AI 智能 Gato,智能
    的頭像 發表于 07-24 16:55 ?1376次閱讀
    語言模型做先驗,統一<b class='flag-5'>強化學習</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>,DeepMind選擇走這條通用AI之路

    如何使用 PyTorch 進行強化學習

    的計算圖和自動微分功能,非常適合實現復雜的強化學習算法。 1. 環境(Environment) 在強化學習中,環境是一個抽象的概念,它定義了智能
    的頭像 發表于 11-05 17:34 ?1658次閱讀