值分布强化学习 —— C51

值分布强化学习是基于价值的强化学习算法,不同于传统方法仅建模累积回报期望值,它对整个分布Z(s,a)建模以保留分布信息。C51是其代表算法,将分布离散为51个支点,输出支点概率,通过投影贝尔曼更新处理分布范围问题,损失函数用KL散度,框架与DQN类似但输出和更新方式不同。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

值分布强化学习 —— c51 - 创想鸟

值分布强化学习简介

首先需要声明的是,值分布强化学习(Distributional Reinforcement Learning)是一类基于价值的强化学习算法(value-based Reinforcement Learning)

经典的基于价值的强化学习方法使用期望值对累积回报进行建模,表示为价值函数 V(s) 或动作价值函数 Q(s,a)

而在这个建模过程中,完整的分布信息在很大程度上被丢失了

提出值分布强化学习就是想要解决分布信息丢失这个问题,对累积回报随机变量的整个分布 Z(s,a) 进行建模,而非只建模其期望

值分布强化学习 —— C51 - 创想鸟        

如果用公式表示:

Q(st,at)=EZ(st,at)=E[∑i=1∞γt+iR(st+i,at+i)]Q(st,at)=EZ(st,at)=E[i=1∑∞γt+iR(st+i,at+i)]

值分布强化学习——C51算法

C51 简介

C51 算法来自 DeepMind 的 A Distributional Perspective on Reinforcement Learning 一文。在这篇文章中,作者首先说明传统 DQN 算法希望学习的 Q 是一个数值,其含义是未来奖励和的期望。而在值分布强化学习系列算法中,目标则由数值变为一个分布。在值分布强化学习中,目标也由数值 Q 变为随机变量 Z,这种改变可以使学到的内容是除了数值以外的更多信息,即整个分布。而模型返回的损失也转变为两个分布之间相似度的度量(metric)。

值分布强化学习 —— C51 - 创想鸟        

算法关键

参数化分布

简而言之,若分布取值范围为VminVmin到VmaxVmax,并均分为离散的N个点,每个等分支集为

{zi=Vmin+iΔz:0≤i<N,Δz=Vmax−VminN−1}{zi=Vmin+iΔz:0≤i<N,Δz=N−1Vmax−Vmin}

模型输出的每个值对应取当前支点的概率

豆包爱学 豆包爱学

豆包旗下AI学习应用

豆包爱学 674 查看详情 豆包爱学

投影贝尔曼更新

通过上面的经过值分布贝尔曼操作符的作用后,新的随机变量的取值范围可能会超出第一个支点中离散化的支集的范围,如下图所示。

值分布强化学习 —— C51 - 创想鸟        

因此我们必须将贝尔曼操作符更新后的随机变量投影到离散化的支集上,即论文提到的投影贝尔曼更新。

值分布强化学习 —— C51 - 创想鸟        

简单来说,投影过程就是将更新后随机变量的值分配到与其相邻的支点上

小结

C51算法与DQN相同点

C51算法的框架依然是DQN算法采样过程依然使用ϵ−greedyϵ−greedy策略,这里贪婪是取期望贪婪采用单独的目标网络

C51算法与DQN不同点

C51算法的卷积神经网络的输出不再是行为值函数,而是支点处的概率。

C51算法的损失函数不再是均方差和而是如上所述的KL散度

最后一个问题,该算法为什么叫C51呢?

这是因为在论文中,作者将随机变量的取值分成了51个支点类。

代码部分

导入依赖

In [1]

from typing import Dict, List, Tupleimport gymfrom visualdl import LogWriterfrom tqdm import tqdm,trangeimport numpy as npimport paddleimport paddle.nn as nnimport paddle.nn.functional as Fimport paddle.optimizer as optimizer

   

需要用到的特殊算子

In [2]

def index_add_(parent, axis, idx, child):        expend_dim = parent.shape[0]        idx_one_hot = F.one_hot(idx.cast("int64"), expend_dim)        child = paddle.expand_as(child.cast("float32").unsqueeze(-1), idx_one_hot)        output = parent + (idx_one_hot.cast("float32").multiply(child)).sum(axis).squeeze()        return output

   

经验回放

In [3]

class ReplayBuffer:    def __init__(self, obs_dim: int, size: int, batch_size: int = 32):        self.obs_buf = np.zeros([size, obs_dim], dtype=np.float32)        self.next_obs_buf = np.zeros([size, obs_dim], dtype=np.float32)        self.acts_buf = np.zeros([size], dtype=np.float32)        self.rews_buf = np.zeros([size], dtype=np.float32)        self.done_buf = np.zeros([size], dtype=np.float32)        self.max_size, self.batch_size = size, batch_size        self.ptr, self.size, = 0, 0    def store(        self,         obs: np.ndarray,         act: np.ndarray,         rew: float,         next_obs: np.ndarray,         done: bool,    ):        self.obs_buf[self.ptr] = obs        self.next_obs_buf[self.ptr] = next_obs        self.acts_buf[self.ptr] = act        self.rews_buf[self.ptr] = rew        self.done_buf[self.ptr] = done        self.ptr = (self.ptr + 1) % self.max_size        self.size = min(self.size + 1, self.max_size)    def sample_batch(self):        idxs = np.random.choice(self.size, size=self.batch_size, replace=False)        return dict(obs=self.obs_buf[idxs],                    next_obs=self.next_obs_buf[idxs],                    acts=self.acts_buf[idxs],                    rews=self.rews_buf[idxs],                    done=self.done_buf[idxs])    def __len__(self):        return self.size

   

定义网络结构

虽然我们的DQN可以学到游戏的整个分布,但在 CartPole-v0 这一环境中,我们还是选取期望作为决策的依据

与传统的 DQN 相比,我们的 C51 会在更新方式上有所不同。

In [4]

class C51DQN(nn.Layer):    def __init__(        self,         in_dim: int,         out_dim: int,         atom_size: int,         support    ):        # 初始化        super(C51DQN, self).__init__()        self.support = support        self.out_dim = out_dim        self.atom_size = atom_size                self.layers = nn.Sequential(            nn.Linear(in_dim, 128),             nn.ReLU(),            nn.Linear(128, 128),             nn.ReLU(),             nn.Linear(128, out_dim * atom_size)        )    def forward(self, x):        dist = self.dist(x)        q = paddle.sum(dist * self.support, axis=2)        return q        def dist(self, x):        q_atoms = self.layers(x).reshape([-1, self.out_dim, self.atom_size])        dist = F.softmax(q_atoms, axis=-1)        dist = dist.clip(min=float(1e-3))  # 避免 nan        return dist

   

Agent 中涉及到的参数设定

Attribute:env: gym 环境memory: 经验回放池的容量batch_size: 训练批次epsilon: 随机探索参数epsilonepsilon_decay: 随机探索参数epsilon衰减的步长max_epsilon: 随机探索参数epsilon上限min_epsilon: 随机探索参数epsilon下限target_update: 目标网络更新频率gamma: 衰减因子dqn: 训练模型dqn_target: 目标模型optimizer: 优化器transition: 转移向量,包含状态值state, 动作值action, 奖励reward, 次态next_state, (判断是否)结束回合donev_min: 离散支集的上限v_max: 离散支集的下限atom_size: 支点数量support: 支集模板(用于计算分布的向量模板)

   In [5]

class C51Agent:    def __init__(        self,         env: gym.Env,        memory_size: int,        batch_size: int,        target_update: int,        epsilon_decay: float,        max_epsilon: float = 1.0,        min_epsilon: float = 0.1,        gamma: float = 0.99,        # C51 算法的参数        v_min: float = 0.0,        v_max: float = 200.0,        atom_size: int = 51,        log_dir: str = "./log"    ):        obs_dim = env.observation_space.shape[0]        action_dim = env.action_space.n                self.env = env        self.memory = ReplayBuffer(obs_dim, memory_size, batch_size)        self.batch_size = batch_size        self.epsilon = max_epsilon        self.epsilon_decay = epsilon_decay        self.max_epsilon = max_epsilon        self.min_epsilon = min_epsilon        self.target_update = target_update        self.gamma = gamma            self.v_min = v_min        self.v_max = v_max        self.atom_size = atom_size        self.support = paddle.linspace(            self.v_min, self.v_max, self.atom_size        )        # 定义网络        self.dqn = C51DQN(            obs_dim, action_dim, atom_size, self.support        )        self.dqn_target = C51DQN(            obs_dim, action_dim, atom_size, self.support        )        self.dqn_target.load_dict(self.dqn.state_dict())        self.dqn_target.eval()                self.optimizer = optimizer.Adam(parameters=self.dqn.parameters())        self.transition = []                self.is_test = False                self.log_dir = log_dir        self.log_writer = LogWriter(logdir = self.log_dir, comment= "Categorical DQN")    def select_action(self, state: np.ndarray):        if self.epsilon > np.random.random():            selected_action = self.env.action_space.sample()        else:            selected_action = self.dqn(                paddle.to_tensor(state,dtype="float32"),            ).argmax()            selected_action = selected_action.detach().numpy()                if not self.is_test:            self.transition = [state, selected_action]                return selected_action    def step(self, action: np.ndarray):        next_state, reward, done, _ = self.env.step(int(action))        if not self.is_test:            self.transition += [reward, next_state, done]            self.memory.store(*self.transition)            return next_state, reward, done    def update_model(self):        samples = self.memory.sample_batch()        loss = self._compute_dqn_loss(samples)        self.optimizer.clear_grad()        loss.backward()        self.optimizer.step()        loss_show = loss        return loss_show.numpy().item()            def train(self, num_frames: int, plotting_interval: int = 200):        self.is_test = False                state = self.env.reset()        update_cnt = 0        epsilons = []        losses = []        scores = []        score = 0        epsilon = 0        for frame_idx in trange(1, num_frames + 1):            action = self.select_action(state)            next_state, reward, done = self.step(action)            state = next_state            score += reward            # 回合结束            if done:                epsilon += 1                state = self.env.reset()                self.log_writer.add_scalar("Reward", value=paddle.to_tensor(score), step=epsilon)                scores.append(score)                score = 0            if len(self.memory) >= self.batch_size:                loss = self.update_model()                self.log_writer.add_scalar("Loss", value=paddle.to_tensor(loss), step=frame_idx)                losses.append(loss)                update_cnt += 1                                self.epsilon = max(                    self.min_epsilon, self.epsilon - (                        self.max_epsilon - self.min_epsilon                    ) * self.epsilon_decay                )                epsilons.append(self.epsilon)                if update_cnt % self.target_update == 0:                    self._target_hard_update()                     self.env.close()                    def test(self):        self.is_test = True                state = self.env.reset()        done = False        score = 0                frames = []        while not done:            frames.append(self.env.render(mode="rgb_array"))            action = self.select_action(state)            next_state, reward, done = self.step(int(action))            state = next_state            score += reward                print("score: ", score)        self.env.close()                return frames    def _compute_dqn_loss(self, samples: Dict[str, np.ndarray]):        # 计算损失        state = paddle.to_tensor(samples["obs"],dtype="float32")        next_state = paddle.to_tensor(samples["next_obs"],dtype="float32")        action = paddle.to_tensor(samples["acts"],dtype="int64")        reward = paddle.to_tensor(samples["rews"].reshape([-1, 1]),dtype="float32")        done = paddle.to_tensor(samples["done"].reshape([-1, 1]),dtype="float32")        delta_z = float(self.v_max - self.v_min) / (self.atom_size - 1)        with paddle.no_grad():            next_action = self.dqn_target(next_state).argmax(1)            next_dist = self.dqn_target.dist(next_state)            next_dist = next_dist[:self.batch_size,]            _next_dist = paddle.gather(next_dist, next_action, axis=1)                       eyes = np.eye(_next_dist.shape[0], _next_dist.shape[1]).astype("float32")            eyes = np.repeat(eyes, _next_dist.shape[-1]).reshape(-1,_next_dist.shape[1],_next_dist.shape[-1])            eyes = paddle.to_tensor(eyes)            next_dist = _next_dist.multiply(eyes).sum(1)            t_z = reward + (1 - done) * self.gamma * self.support            t_z = t_z.clip(min=self.v_min, max=self.v_max)            b = (t_z - self.v_min) / delta_z            l = b.floor().cast("int64")            u = b.ceil().cast("int64")            offset = (                paddle.linspace(                    0, (self.batch_size - 1) * self.atom_size, self.batch_size                ).cast("int64")                .unsqueeze(1)                .expand([self.batch_size, self.atom_size])            )            proj_dist = paddle.zeros(next_dist.shape)            proj_dist = index_add_(                proj_dist.reshape([-1]),                0,                 (l + offset).reshape([-1]),                 (next_dist * (u.cast("float32") - b)).reshape([-1])            )            proj_dist = index_add_(                proj_dist.reshape([-1]),                0,                 (u + offset).reshape([-1]),                 (next_dist * (b - l.cast("float32"))).reshape([-1])            )            proj_dist = proj_dist.reshape(next_dist.shape)        dist = self.dqn.dist(state)        _dist = paddle.gather(dist[:self.batch_size,], action, axis=1)        eyes = np.eye(_dist.shape[0], _dist.shape[1]).astype("float32")        eyes = np.repeat(eyes, _dist.shape[-1]).reshape(-1,_dist.shape[1],_dist.shape[-1])        eyes = paddle.to_tensor(eyes)        dist_batch = _dist.multiply(eyes).sum(1)        log_p = paddle.log(dist_batch)        loss = -(proj_dist * log_p).sum(1).mean()        return loss    def _target_hard_update(self):        # 更新目标模型参数        self.dqn_target.load_dict(self.dqn.state_dict())

   

定义环境

In [6]

env_id = "CartPole-v0"env = gym.make(env_id)

   

设定随机种子

In [7]

seed = 777np.random.seed(seed)paddle.seed(seed)env.seed(seed)

       

[777]

               

超参数设定与训练

In [ ]

num_frames = 20000memory_size = 1000batch_size = 32target_update = 200epsilon_decay = 1 / 2000# 训练agent = C51Agent(env, memory_size, batch_size, target_update, epsilon_decay)agent.train(num_frames)

       

  0%|          | 32/20000 [00:00<01:38, 202.97it/s]

       

训练结果展示(使用VisualDL查看log文件夹)

值分布强化学习 —— C51 - 创想鸟值分布强化学习 —— C51 - 创想鸟        

以上就是值分布强化学习 —— C51的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/317267.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
composer outdated命令怎么用_Composer Outdated命令使用教程
上一篇 2025年11月5日 08:21:26
本地备份工具推荐:果备份与iMazing的使用对比
下一篇 2025年11月5日 08:21:31

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    1210
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    600
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    1100
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    1300
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    1100
  • 为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?

    为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?为什么设置 `overflow: hidden` 会导致 `inline-block` 元素错位?

    overflow 导致 inline-block 元素错位解析 当多个 inline-block 元素并列排列时,可能会出现错位显示的问题。这通常是由于其中一个元素设置了 overflow 属性引起的。 问题现象 在不设置 overflow 属性时,元素按预期显示在同一水平线上: 不设置 overf…

    2025年12月24日 用户投稿
    800
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    700
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    1200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    900
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    300
  • 为什么我的特定 DIV 在 Edge 浏览器中无法显示?

    特定 DIV 无法显示:用户代理样式表的困扰 当你在 Edge 浏览器中打开项目中的某个 div 时,却发现它无法正常显示,仔细检查样式后,发现是由用户代理样式表中的 display none 引起的。但你疑问的是,为什么会出现这样的样式表,而且只针对特定的 div? 背后的原因 用户代理样式表是由…

    2025年12月24日
    500
  • inline-block元素错位了,是为什么?

    inline-block元素错位背后的原因 inline-block元素是一种特殊类型的块级元素,它可以与其他元素行内排列。但是,在某些情况下,inline-block元素可能会出现错位显示的问题。 错位的原因 当inline-block元素设置了overflow:hidden属性时,它会影响元素的…

    2025年12月24日
    400
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 为什么使用 inline-block 元素时会错位?

    inline-block 元素错位成因剖析 在使用 inline-block 元素时,可能会遇到它们错位显示的问题。如代码 demo 所示,当设置了 overflow 属性时,a 标签就会错位下沉,而未设置时却不会。 问题根源: overflow:hidden 属性影响了 inline-block …

    2025年12月24日
    100
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 为什么我的 CSS 元素放大效果无法正常生效?

    css 设置元素放大效果的疑问解答 原提问者在尝试给元素添加 10em 字体大小和过渡效果后,未能在进入页面时看到放大效果。探究发现,原提问者将 CSS 代码直接写在页面中,导致放大效果无法触发。 解决办法如下: 将 CSS 样式写在一个单独的文件中,并使用 标签引入该样式文件。这个操作与原提问者观…

    2025年12月24日
    300
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 em 和 transition 设置后元素没有放大?

    元素设置 em 和 transition 后不放大 一个 youtube 视频中展示了设置 em 和 transition 的元素在页面加载后会放大,但同样的代码在提问者电脑上没有达到预期效果。 可能原因: 问题在于 css 代码的位置。在视频中,css 被放置在单独的文件中并通过 link 标签引…

    2025年12月24日
    700
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信