极简MuZero算法实践——Paddle2.0版本

DeepMind的MuZero算法继AlphaFold后走红,无需人类知识和规则,能通过分析环境与未知条件博弈。其极简实现含三个模型,通过强化学习训练。在CartPole-v0环境测试,经2000轮训练,模型可完美掌握游戏,展现出超越前代的潜力,未来计划在更多环境复现。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

极简muzero算法实践——paddle2.0版本 - 创想鸟

继AlphaFold 大火之后,DeepMind 又一款算法蹿红。12 月 23 日,DeepMind 在官网发表博文 MuZero: Mastering Go, chess, shogi and Atari without rules,并详细介绍了这款名为 MuZero 的 AI 算法。

极简MuZero算法实践——Paddle2.0版本 - 创想鸟

AlphaGo 提供了人类知识(Human Knowledge)和规则(Rules),因此可训练出一个大的策略树,来完成搜索、以及帮助做出决策;AlphaGo Zero 去掉了人类知识部分,而是只给 AI 提供规则,然后通过自我博弈,就能学习出自己的策略;AlphaZero 则可通过完全信息,利用泛化能力更强的强化学习算法来做训练,并学会不同的游戏,如围棋、国际象棋和日本将棋。MuZero 则是前级阶段的升级版,即在没有人类知识以及规则的情况下,,它能通过分析环境和未知条件(Unknown Dynamics),来进行不同游戏的博弈。

本项目是一个极简的MuZero的实现,没有使用MCTS方法,模型由Representation_model、Dynamics_Model、Prediction_Model构成:

彩葫芦 彩葫芦

用AI生成故事漫画、科普绘本、小说插画,加入彩葫芦绘画社区,一起释放创造力!

彩葫芦 111 查看详情 彩葫芦 Representation_model将一组观察值映射到神经网络的隐藏状态s;动态Dynamics_Model根据动作a_(t + 1)将状态s_t映射到下一个状态s_(t + 1),同时估算在此过程的回报r_t,这样模型就能够不断向前扩展;预测Prediction_Model 根据状态s_t对策略p_t和值v_t进行估计;In [1]

import gymimport numpy as npimport paddleimport paddle.nn as nn import paddle.optimizer as optimimport paddle.nn.functional as Fimport copyimport randomfrom tqdm import tqdmfrom collections import dequeenv = gym.make('CartPole-v0')hidden_dims = 128o_dim = env.observation_space.shape[0]act_dim  = env.action_space.nRepresentation_model= paddle.nn.Sequential(    paddle.nn.Linear(        o_dim, 128),    paddle.nn.ELU(),    paddle.nn.Linear(128, hidden_dims),        )# paddle.summary(h, (50,4))class Dynamics_Model(paddle.nn.Layer):    # action encoding - one hot        def __init__(self, num_hidden, num_actions):         super().__init__()                self.num_hidden = num_hidden        self.num_actions = num_actions        network = [        nn.Linear(self.num_hidden+self.num_actions, self.num_hidden),        nn.ELU(),        nn.Linear(self.num_hidden,128),        ]               self.network = nn.Sequential(*network)           self.hs =  nn.Linear(128,self.num_hidden)        self.r =  nn.Linear(128,1)    def forward(self, hs,a):        out = paddle.concat(x=[hs, a], axis=-1)        out = self.network(out)        hidden =self.hs(out)         reward = self.r(out)                                return hidden, reward# D = Dynamics_Model(hidden_dims,act_dim)# paddle.summary(D, [(2,hidden_dims),(2,2)])class Prediction_Model(paddle.nn.Layer):        def __init__(self, num_hidden, num_actions):        super().__init__()                self.num_actions = num_actions        self.num_hidden = num_hidden                network = [            nn.Linear(num_hidden, 128),            nn.ELU(),            nn.Linear(128, 128),            nn.ELU(),        ]               self.network = nn.Sequential(*network)        self.pi =  nn.Linear(128,self.num_actions)        self.soft = nn.Softmax()        self.v =  nn.Linear(128,1)    def forward(self, x):        out = self.network(x)        p = self.pi(out)        p =self.soft(p)        v = self.v(out)               return v, p  # P= Prediction_Model(hidden_dims,act_dim)# paddle.summary(P, [(32,hidden_dims)])class MuZero_Agent(paddle.nn.Layer):        def __init__(self,num_hidden ,num_actions):        super().__init__()        self.num_actions = num_actions        self.num_hidden = num_hidden                self.representation_model = Representation_model        self.dynamics_model = Dynamics_Model(self.num_hidden,self.num_actions)        self.prediction_model = Prediction_Model(self.num_hidden,self.num_actions)                  def forward(self, s,a):        s_0 = self.representation_model(s)        s_1 ,r_1 = self.dynamics_model(s_0 , a)        value , p = self.prediction_model(s_1)            return r_1, value ,pmu = MuZero_Agent(128,2)mu.train()

In [2]

buffer = deque(maxlen=500)def choose_action(env, evaluate=False):    values = []    # mu.eval()    for a in range(env.action_space.n):        e = copy.deepcopy(env)        o, r, d, _ = e.step(a)        act = np.zeros(env.action_space.n); act[a] = 1        state = paddle.to_tensor(list(e.state), dtype='float32')        action = paddle.to_tensor(act, dtype='float32')        # print(state,action)                rew, v, pi = mu(state, action)                v = v.numpy()[0]            values.append(v)    # mu.train()    if evaluate:        return np.argmax(values)    else:        for i in range(len(values)):            if values[i] = 100:        avg_scores.append(np.mean(scores[-100:]))    else:        avg_scores.append(np.mean(scores))            cnt = score    for i in range(len(buffer)):        if buffer[i][1] == None:            buffer[i][1] = cnt / 200            cnt -= 1    assert(cnt == 0)        if len(buffer) >= batch_size:        batch = []        indexes = np.random.choice(len(buffer), batch_size, replace=False)        for i in range(batch_size):            batch.append(buffer[indexes[i]])        states = paddle.to_tensor([transition[0] for transition in batch], dtype='float32')        values = paddle.to_tensor([transition[1] for transition in batch], dtype='float32')        values = paddle.reshape(values,[batch_size,-1])        policies = paddle.to_tensor([transition[2] for transition in batch], dtype='float32')        rewards = paddle.to_tensor([transition[3] for transition in batch], dtype='float32')        rewards = paddle.reshape(rewards,[batch_size,-1])        for _ in range(2):            # mu.train_on_batch([states, policies], [rewards, values, policies])            rew, v, pi = mu(states, policies)            # print("----rew---{}----v---{}----------pi---{}".format(rew, v, pi))            # print("----rewards---{}----values---{}----------policies---{}".format(rewards, values, policies))                                    policy_loss = -paddle.mean(paddle.sum(policies*paddle.log(pi), axis=1))            mse1 = mse_loss(rew, rewards)            mse2 =mse_loss(v,values)            # print(mse1,mse2 ,policy_loss)                                   loss = paddle.add_n([policy_loss,mse1,mse2])            # print(loss)            loss.backward()            optim.step()            optim.clear_grad()
100%|██████████| 2000/2000 [07:18<00:00,  4.56it/s]

In [ ]

# 模型保存model_state_dict = mu.state_dict()paddle.save(model_state_dict, "mu.pdparams")

In [4]

import matplotlib.pyplot as pltplt.plot(scores)plt.plot(avg_scores)plt.xlabel('episode')plt.legend(['scores', 'avg scores'])plt.title('scores')plt.ylim(0, 200)plt.show()

In [5]

# 模型测试 ,可以看到testing scores在100次测试中均为200,说明模型已经完全掌握了这个简单的游戏# 模型读取# model_state_dict = paddle.load("mu.pdparams")# mu.set_state_dict(model_state_dict)import matplotlib.pyplot as plttests = 100scores = []mu.eval()for episode in range(tests):    obs = env.reset()    done = False    score = 0    while not done:        a = choose_action(env, evaluate=True)              obs_, r, done, _ = env.step(a)        score += r        obs = obs_    scores.append(score)plt.plot(scores)plt.title('testing scores')plt.show()

写在最后:

MuZero 能够对规则、环境进行建模, 与此同时它还能学会规则,这就是它的最大创新。也是因为这个,MuZero的搜索空间变得更大,所以计算量会大大增加,但理论上仍旧是强化学习。人类世界中的规则随时在变化,那么显然 Muzero 相比二代 AlphaZero 具有更好的生存能力。可以看到的是,Muzero 有潜力成为广泛使用的强化学习算法。后续有计划在Atari、Gomoku、Tic-tac-toe 等环境下复现Muzero算法

以上就是极简MuZero算法实践——Paddle2.0版本的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/768307.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月26日 04:19:58
下一篇 2025年11月26日 04:20:43

相关推荐

  • 币安交易所(binance)新手如何进行合约交易操作及防爆仓指南

    币安合约交易需先熟悉界面,包括交易对、K线图、委托区和仓位信息,重点关注强平价格;执行交易时选择交易对、设置杠杆(新手建议低倍)、下单类型及数量,确认后提交;开仓后应设置止盈止损以控制风险;逐仓模式下可追加保证金降低强平风险;根据风险偏好在全仓与逐仓间切换保证金模式,全仓风险更高但资金利用率高。 币…

    2025年12月9日
    000
  • 欧易(OKX)交易所注册地址及APP下载地址

    OKX是全球数字资产服务平台,用户可通过官网网页端或移动端App注册。网页端注册需访问官方网址www.okx.com/join,填写邮箱或手机号、设置密码、完成人机验证并输入短信或邮件验证码;移动端则需通过手机浏览器下载对应系统的App,安装后打开应用,按提示完成注册流程。两种方式均需阅读并同意服务…

    2025年12月9日
    000
  • 全球主流加密交易所盘点_2025年合规平台前十名推荐

    币安、OKX、火币、Coinbase、Kraken、Bybit、KuCoin、Bitstamp、Gemini和Bitfinex是全球主流加密交易平台。币安以高交易量和全球合规布局著称;OKX在衍生品领域突出并获迪拜与巴哈马监管批准;火币覆盖多国合规许可并推出数字资产消费卡。 选择一个具备合规资质且信…

    2025年12月9日
    000
  • 还会有下一个百倍币吗?2025年值得关注的五大新兴加密货币赛道

    1、币安Binance 币安Binance官网入口: 币安BinanceAPP下载链接: 2、欧易okx 欧易okx官网入口: 欧易okxAPP下载链接: 3、火币HTX 官网入口: APP下载链接: 在快速变化的加密市场中,识别增长的极限是投资者关注的焦点潜力。新兴的叙述和技术突破往往能催生出新的…

    2025年12月9日
    000
  • 欧易(OKX)下载指南:从安装到交易的全流程解析

    首先通过官方渠道下载并安装OKX应用,随后注册账户并完成身份验证以解锁交易权限,接着在安全中心绑定双重验证、设置资金密码强化账户保护,再熟悉交易界面布局与功能区域,最后选择交易对并提交买入或卖出委托完成数字资产交易操作。 欧易okx 欧易okx官网入口: 欧易okxAPP下载链接: 本指南将详细拆解…

    2025年12月9日
    000
  • 什么是“加密货币的季节性”?理解不同板块间的资金轮动

    比特币主导期资金流入体现避险需求,以太坊崛起标志信心恢复,山寨币轮动反映市场扩散,Meme币爆发预示情绪高潮,形成完整加密货币季节性轮动链条。 “加密货币的季节性”指市场在特定时间段内反复出现的资金流动与板块表现规律,核心在于识别不同资产类别间的轮动顺序。 为了方便新手快速上手币圈交易并实时查看市场…

    2025年12月9日
    000
  • 什么是意图为中心的架构(Intent-Centric)?Web3交互的未来范式

    意图为中心的架构以用户目标为核心,通过解析用户期望结果自动匹配最优执行路径。1、用户提交“将ETH从A链转移到B链”,系统分析跨链桥、DEX等路径,选择成本最低、延迟最小方案并透明执行。2、在去中心化身份验证中,用户发起“访问去中心化存储文件”请求,系统自动校验权限凭证并返回解密密钥,无需手动授权中…

    2025年12月9日
    000
  • 比特币是什么通俗解释_三分钟了解比特币基本概念

    比特币是基于区块链技术的去中心化数字货币,总量恒定2100万枚,通过挖k产生或在交易所购买,由全球节点共同维护账本安全,交易公开透明且不可篡改,用户通过账户私钥掌控资产,具有全球流通和伪匿名特性。 比特币是什么?一个通俗易懂的解释 想象一下,比特币是一种数字黄金,同时也是一种全球性的电子现金。它不像…

    2025年12月9日
    000
  • 币圈爆仓揭秘:血本无归的真相与自救指南

    文章介绍了当前全球表现突出的十大数字资产交易平台。币安以高流动性、多元产品和BNB Chain生态领先;OKX凭借统一账户系统和强大衍生品市场位居前列;Gate.io支持超1400种资产并注重透明与安全;HTX(原火币)依托长期运营积累和成熟风控体系 欧易okx官网入口: 欧易okxAPP下载链接:…

    2025年12月9日
    000
  • MAN币是什么?发行量多少?投资价值分析

    MAN币是Matrix AI Network的原生代币,总发行量10亿枚,用于支付费用。项目融合AI与区块链技术,通过自然语言生成智能合约、AI安全防护和动态DPoS机制提升效率与安全,应用于生物信息、数字艺术等领域,团队具备AI与区块链背景,代币已上线多家交易所,流动性良好。 欧易okx官网入口:…

    2025年12月9日
    000
  • 在币圈里什么是加密资产或数字资产?

    加密资产通过密码学保障安全,以私钥控制资产,基于去中心化区块链实现透明不可篡改的交易记录,分为支付型、功能型和非同质化代币(NFT),其所有权由私钥掌控并在分布式账本中公开验证。 欧易okx官网入口: 欧易okxAPP下载链接: 币安binance官网入口: 币安app下载链接: 加密资产或数字资产…

    2025年12月9日
    000
  • BNX币是什么?购买指南及风险提示

    BNX是BinaryX生态系统的治理代币,用于GameFi、IGO平台及社区治理。获取需通过DEX如PancakeSwap,用BNB或BUSD兑换,操作时需核对合约地址并注意滑点与手续费。投资面临市场波动、项目发展、智能合约安全及流动性风险,需谨慎评估。 欧易okx官网入口: 欧易okxAPP下载链…

    2025年12月9日
    000
  • 什么是 Saga (SAGA) 币?SAGA代币经济学、价格预测及购买方法

    saga (saga) 是加密货币交易所币安的第 51 个 launchpool 项目。该项目是一个专为开发者打造的 layer 1 协议,旨在帮助他们使用“链式组件”(chainlets)构建无限可扩展的应用进程。自成立以来,saga 发展迅猛,两年内已有 350 个项目基于其协议构建,其中 80…

    2025年12月9日 好文分享
    000
  • 币安Alpha新项目中的Bluwhale是什么?

    Bluwhale是币安Alpha支持的Web3数据项目,通过AI整合链上链下数据构建用户画像,助力项目方精准触达高潜力用户群体,并实现数据价值回归;其技术涵盖多源数据采集、AI标签生成与API服务输出,已在币安生态中获得潜力验证、生态协同及社区曝光机会。 1、币安Binance 币安Binance官…

    2025年12月9日
    000
  • 什么是EVM兼容链?它们如何让开发者轻松地将以太坊应用迁移过去?

    EVM兼容链通过复制以太坊虚拟机环境,使Solidity合约可直接部署或轻量修改后运行。1、配置链ID和RPC端点;2、使用Hardhat等工具重新编译并部署;3、更新外部依赖地址以适配目标链生态,确保合约正常交互。 Binance币安交易所 注册入口: APP下载: 欧易OKX交易所 注册入口: …

    2025年12月9日
    000
  • 什么是Datagram(DGRAM)币?值得投资吗?Datagram工作原理和代币信息介绍

    datagram 正在构建 hyper-fabric depin 平台,利用人工智能连接计算、带宽和存储资源,为实时应用提供高效的去中心化基础设施。 Binance币安 欧易OKX ️ Huobi火币️ 什么是Datagram Network? Datagram Network作为一个超互连网络层 …

    2025年12月9日 好文分享
    000
  • 5张图表带你看懂当前比特币市场现状

    比特币价格已从 10 月 6 日创下的 12.6 万美元历史高点大幅回落,跌幅接近 30%。今年以来的累计涨幅已被完全抹去,转为负值,过去一年的回报率也降至不足 1%。面对如此表现,投资者情绪普遍低迷。 Binance币安 欧易OKX ️ Huobi火币️ 市场悲观情绪蔓延,社交媒体平台如 Redd…

    2025年12月9日 好文分享
    000
  • 狗狗币国际交易指南:合规方式与注意要点详解

    答案:选择合规交易所、P2P平台或去中心化交易所购买狗狗币,并遵守当地法律与安全规范以保障交易合法与资产安全。 一、选择合规的中心化交易所 通过受监管的中心化交易所购买狗狗币,是确保交易合法与资金安全的基础。这类平台通常实施严格的合规政策,为用户提供可靠的交易环境。 1、确认交易所是否在您所在国家或…

    2025年12月9日
    000
  • 火币HTX活期理财如何赎回?到账时间与操作步骤

    文章介绍了当前全球表现突出的十大数字资产交易平台。币安以高流动性、多元产品和BNB Chain生态领先;OKX凭借统一账户系统和强大衍生品市场位居前列;Gate.io支持超1400种资产并注重透明与安全;HTX(原火币)依托长期运营积累和成熟风控体系 欧易okx官网入口: 欧易okxAPP下载链接:…

    2025年12月9日
    000
  • 什么是动态NFT(dNFT)?它如何根据外部条件自动改变其属性?

    动态NFT通过智能合约与外部数据交互实现元数据更新。1、利用预言机如Chainlink获取天气、赛事等链外数据,经验证后触发属性变更;2、基于区块时间戳设定周期性演化规则,自动更新状态并记录于链上;3、通过监听链上事件(如交易完成、游戏结果)驱动实时响应,实现与其他协议的深度集成,确保更新透明可追溯…

    2025年12月9日
    000

发表回复

登录后才能评论
关注微信