同类推荐
-
-
透过AI认知世界:an artificial inte…
-
¥99.00
-
-
人工智能原理及MATLAB实现
-
¥79.80
-
-
类人意识与类人智能
-
¥48.00
-
-
AIGC辅助数据分析与挖掘:基于ChatGPT的方法与…
-
¥99.00
-
-
时标上人工神经网络的加权伪概周期解与加权伪概自守解
-
¥82.00
-
-
向AI提问的艺术:提示工程入门与应用
-
¥69.00
-
-
ChatGPT职场实战指南
-
¥79.00
-
-
技术之外:社会联结中的人工智能:power, poli…
-
¥69.00
-
-
控制工程基础
-
¥35.00
-
-
GPT:使用OpenAI API构建NLP产品的终极指南
-
¥59.00
|
|
图书信息
|
|
|
深度强化学习核心算法与应用
|
ISBN: | 9787121417603 |
定价: | ¥69.00 |
作者: | 陈世勇,苏博览,杨敬文编著 |
出版社: | 电子工业出版社 |
出版时间: | 2021年09月 |
开本: | 24cm |
页数: | 10,150页 |
中图法: | TP181 |
相关供货商
供货商名称
|
库存量
|
库区
|
更新日期
|
北京人天书店有限公司
|
1
|
库区4-1
|
2024-03-29
|
其它供货商库存合计
|
2
|
|
2024-03-29
|
图书简介 | 本书是一本深度强化学习领域的入门读物。全书分为四部分。第一部分主要阐述强化学习领域的基本理论知识 ; 第二部分讲解深度强化学习常用算法的原理、各算法之间的继承与发展, 以及各自的算法流程 ; 第三部分总结深度强化学习算法在游戏、推荐系统等领域的应用 ; 第四部分探讨了该领域存在的问题和发展前景。 |
目录 | 第I 部分基础理论篇 1r 第1 章马尔可夫决策过程 3r 1.1 马尔可夫 3r 1.2 一些基本定义 4r 1.3 值函数 5r 1.4 基于策略的值函数 5r 1.5 贝尔曼方程 6r 1.6 策略迭代与值迭代 7r 第2 章无模型的强化学 9r 2.1 蒙特卡洛方法 10r 2.1.1 蒙特卡洛方法预测状态V 值 10r 2.1.2 蒙特卡洛方法预测Q 值 11r 2.1.3 蒙特卡洛策略优化算法 11r 2.1.4 探索和利用 12r 2.1.5 异策略蒙特卡洛方法 13r 2.2 时间差分方法 16r 2.2.1 基本思想 16r 2.2.2 Sarsa 算法 17r 2.2.3 Q-Learning 算法 20r 2.3 值函数估计和策略搜索 23r 深度强化学算法与应用r 2.3.1 值函数估计 23r 2.3.2 策略搜索 24r 第3 章有模型的强化学 27r 3.1 什么是模型 27r 3.2 基本思路 28r 3.3 有模型方法和无模型方法的区别 29r 3.4 典型算法 31r 第II 部分常用算法篇 33r 第4 章DQN 算法 35r 4.1 算法介绍 35r 4.1.1 背景 36r 4.1.2 核心技术 37r 4.1.3 算法流程 39r 4.2 相关 40r 4.2.1 Double Q-Learning 40r 4.2.2 优先级回放 41r 4.2.3 Dueling Networks 41r 4.3 实验效果与小结 43r 第5 章A3C 算法 45r 5.1 Actor-Critic 方法 45r 5.2 基线减法与优势函数 47r 5.3 博采众长的A3C 算法 48r 5.4 实验效果与小结 50r 第6 章确定策略梯度方法 53r 6.1 策略梯度与确定策略梯度 53r ivr 目录r 6.2 异策略的确定策略梯度 54r 6.3 深度确定策略梯度 56r 6.4 D4PG 算法 57r 6.4.1 分布式 57r 6.4.2 值函数分布 58r 6.4.3 N-step TD 误差和优先级的经验回放 59r 6.5 实验效果与小结 59r 第7 章PPO 算法 61r 7.1 PPO 算法的核心 61r 7.2 TRPO 算法 62r 7.3 PPO 算法 65r 7.4 实验效果与小结 67r 7.4.1 替代函数的对比 67r 7.4.2 在连续空间中与其他算法的对比 68r 7.4.3 小结 69r 第8 章IMPALA 算法 71r 8.1 算法架构 71r 8.2 V-trace 算法 73r 8.3 V-trace Actor-Critic 算法 75r 8.4 实验效果与小结 76r 8.4.1 计算能 76r 8.4.2 单任务训练能 76r 8.4.3 多任务训练能 78r 8.4.4 小结 79r vr 深度强化学算法与应用r 第III 部分应用实践篇 81r 第9 章深度强化学牌游戏中的应用 83r 9.1 棋盘类游戏 84r 9.1.1 AlphaGo: 战胜人类围棋 84r 9.1.2 AlphaGo Zero: 不使用人类数据,从头学87r 9.1.3 AlphaZero: 从围棋到更多 90r 9.2 牌类游戏 93r 9.2.1 Suphx 的五个模型 93r 9.2.2 Suphx 的训练过程和算法优化 94r 9.2.3 Suphx 的线上实战表现 94r 第10 章深度强化学子游戏中的应用 97r 10.1 研发游戏中的机器人 97r 10.1.1 单机游戏 97r 10.1.2 对战游戏 99r 10.1.3 小结 104r 10.2 制作游戏动画 105r 10.3 其他应用 106r 第11 章深度强化系统中的应用 109r 11.1 适用的场景 110r 11.1.1 动态变化 110r 11.1.2 考虑利益 110r 11.2 中的应用 111r 11.2.1 介绍 111r 11.2.2 问题框架 112r 11.2.3 算法设计与实验 114r vir 目录r 第12 章深度强化学他领域中的应用 119r 12.1 在无人驾驶中的应用 119r 12.2 在金融交易中的应用 121r 12.3 在信息中的应用 122r 12.4 在自动调参中的应用 123r 12.5 在交通控制中的应用 124r 第IV 部结与展望篇 127r 第13 章问题与挑战 129r 13.1 样本利用率低 129r 13.2 奖励函数难以设计 131r 13.3 实验效果难复现 132r 13.4 行为不可控 134r 第14 章深度强化学处去 135r 14.1 未来发展和研究方向 136r 14.1.1 有模型的方法潜力巨大 136r 14.1.2 模仿学 137r 14.1.3 迁移学入 138r 14.1.4 分层强化学 140r 14.2 审慎乐观,大有可为 141r 参考资料 143 |
|