登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書

『簡體書』强化学习

書城自編碼: 3498096
分類:簡體書→大陸圖書→計算機/網絡人工智能
作者: 邹伟,鬲玲,刘昱杓
國際書號(ISBN): 9787302538295
出版社: 清华大学出版社
出版日期: 2020-06-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 130.7

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
心悦读丛书·倍速社会:快电影、剧透与新消费文化
《 心悦读丛书·倍速社会:快电影、剧透与新消费文化 》

售價:HK$ 69.6
马王堆考古手记
《 马王堆考古手记 》

售價:HK$ 118.8
全靠演技
《 全靠演技 》

售價:HK$ 54.0
流人系列01:驽马
《 流人系列01:驽马 》

售價:HK$ 94.8
电工大手册(第二册)——电工常用电路、接线、识读、应用案例
《 电工大手册(第二册)——电工常用电路、接线、识读、应用案例 》

售價:HK$ 95.8
苏东坡传
《 苏东坡传 》

售價:HK$ 69.6
豆腐(增订版)
《 豆腐(增订版) 》

售價:HK$ 156.0
末代士人的身份、角色与命运:清遗民文学研究
《 末代士人的身份、角色与命运:清遗民文学研究 》

售價:HK$ 106.8

 

編輯推薦:
为了让读者快速理解和应用强化学习技术,《强化学习》深入分析了相关算法的具体实现,由浅入深,循序渐进,内容丰富,易学实用。
《强化学习》作者具有丰富的行业实践经验,使得内容兼具理论性与实用性,不仅给出了算法的运行流程,还给出了该类算法的应用案例。书中列举了近20个强化学习算法案例,可以帮助读者快速提升自己的能力。
內容簡介:
《强化学习》一书内容系统全面,覆盖面广,既有理论阐述、公式推导,又有丰富的典型案例,理论联系实际。书中全面系统地描述了强化学习的起源、背景和分类,各类强化学习算法的原理、实现方式以及各算法间的关系,为读者构建了一个完整的强化学习知识体系;同时包含丰富的经典案例,如各类迷宫寻宝、飞翔小鸟、扑克牌、小车爬山、倒立摆、钟摆、多臂赌博机、五子棋、AlphaGo、AlphaGo Zero、AlphaZero等,通过给出它们对应的详细案例说明和代码描述,让读者深度理解各类强化学习算法的精髓。《强化学习》案例生动形象,描述深入浅出,代码简洁易懂,注释详细。
《强化学习》可作为高等院校计算机、自动化及相关专业的本科生或研究生教材,也可供对强化学习感兴趣的研究人员和工程技术人员阅读参考。
關於作者:
邹伟 博士,睿客邦创始人,研究方向为机器学习、数据挖掘、计算几何,致力于机器学习和深度学习在实际中的应用;主持研发50多个人工智能领域工业级项目,并受邀在中国移动、花旗银行、中信集团、中航信、烽火科技、京东方、完美世界等公司进行了上百场讲座和内部培训。创立的睿客邦与国内十多所高校建立了AI联合实验室或实训基地;兼任天津大学创业导师、山东交通学院客座教授等。曾在多个在线平台讲授机器学习深度学习等课程,广受网友好评,累计学习人数超过百万。
鬲玲 硕士,北京神舟航天软件公司知识工程团队负责人,资深研发工程师。研究方向为知识工程、语义检索、强化学习、自然语言处理。作为牵头单位技术负责人参与并完成国家科技支撑计划项目1项,863计划项目1项。有多年知识管理系统以及自然语言处理项目研发经验,目前正致力于垂直领域知识图谱的落地以及强化学习在自然语言处理领域的应用。
刘昱杓 现供职于央视市场研究,深度学习、强化学习研发工程师,研究方向为计算机视觉。有多年深度学习视觉方向开发经验,参与了多个图像识别、目标检测、目标追踪等领域的落地项目。目前专注于深度强化学习方向的研究。
目錄
目录

第1章强化学习概述
1.1强化学习的背景
1.2强化学习初探
1.2.1智能体和环境
1.2.2智能体主要组成
1.2.3强化学习、监督学习、非监督学习
1.2.4强化学习分类
1.2.5研究方法
1.2.6发展历程
1.3强化学习的重点概念
1.3.1学习与规划
1.3.2探索与利用
1.3.3预测与控制
1.4小结
1.5习题
第2章马尔可夫决策过程
2.1马尔可夫基本概念
2.1.1马尔可夫性
2.1.2马尔可夫过程
2.1.3马尔可夫决策过程
2.2贝尔曼方程
2.2.1贝尔曼期望方程
2.2.2贝尔曼最优方程

2.3最优策略
2.3.1最优策略定义
2.3.2求解最优策略
2.4小结
2.5习题
第3章动态规划
3.1动态规划简介
3.2策略评估
3.3策略改进
3.4策略迭代
3.5值迭代
3.6实例讲解
3.6.1找宝藏环境描述
3.6.2策略迭代
3.6.3值迭代
3.6.4实例小结
3.7小结
3.8习题


第4章蒙特卡罗
4.1蒙特卡罗简介
4.2蒙特卡罗评估
4.3蒙特卡罗控制
4.4在线策略蒙特卡罗
4.5离线策略蒙特卡罗
4.5.1重要性采样离线策略蒙特卡罗
4.5.2加权重要性采样离线策略蒙特卡罗
4.6实例讲解
4.6.1十点半游戏
4.6.2在线策略蒙特卡罗
4.6.3离线策略蒙特卡罗
4.6.4实例小结
4.7小结
4.8习题
第5章时序差分
5.1时序差分简介
5.2三种方法的性质对比
5.3Sarsa: 在线策略TD
5.4Qlearning: 离线策略TD方法
5.5实例讲解
5.5.1迷宫寻宝
5.5.2Sarsa方法
5.5.3Qlearning方法
5.5.4实例小结
5.6小结
5.7习题
第6章资格迹
6.1资格迹简介
6.2多步TD评估
6.3前向算法
6.4后向算法
6.5前向算法与后向算法的统一
6.6Sarsa方法
6.6.1前向Sarsa方法
6.6.2后向Sarsa方法
6.7Q 方法
6.7.1前向Watkinss Q方法
6.7.2后向Watkinss Q方法
*6.7.3Pengs Q方法
6.8实例讲解
6.8.1风格子世界
6.8.2后向Sarsa
6.8.3后向Q
6.8.4实例小结
6.9小结
6.10习题
第7章值函数逼近
7.1值函数逼近简介
7.2线性逼近
7.2.1增量法
7.2.2批量法
7.3非线性逼近
7.3.1DQN方法
7.3.2Double DQN方法
7.3.3Dueling DQN方法
7.4实例讲解
7.4.1游戏简介
7.4.2环境描述
7.4.3算法详情
7.4.4核心代码
7.5小结
7.6习题
第8章随机策略梯度
8.1随机策略梯度简介
8.1.1策略梯度优缺点
8.1.2策略梯度方法分类
8.2随机策略梯度定理及证明
8.2.1随机策略梯度定理
*8.2.2随机策略梯度定理证明
8.3蒙特卡罗策略梯度
8.3.1REINFORCE方法
8.3.2带基线的REINFORCE方法
8.4TRPO方法
8.5实例讲解
8.5.1游戏简介及环境描述
8.5.2算法详情
8.5.3核心代码
8.6小结
8.7习题
第9章ActorCritic及变种
9.1AC方法
9.1.1在线策略AC方法
9.1.2离线策略AC方法
9.1.3兼容性近似函数定理
9.2A2C方法
9.3A3C方法
9.3.1简介
9.3.2异步Qlearning方法
9.3.3异步Sarsa方法
9.3.4异步n步Qlearning方法
9.3.5A3C方法详述
9.4实例讲解
9.4.1AC实例
9.4.2A3C实例
9.5小结
9.6习题
第10章确定性策略梯度
10.1确定性策略梯度及证明
10.1.1确定性策略梯度定理
*10.1.2确定性策略梯度定理证明
10.2DPG方法
10.2.1在线策略确定性AC方法
10.2.2离线策略确定性AC
10.2.3兼容性近似函数定理
10.3DDPG方法
10.3.1DDPG简介
10.3.2算法要点
10.3.3算法流程
10.4实例讲解
10.4.1游戏简介及环境描述
10.4.2算法详情
10.4.3核心代码
10.5小结
10.6习题
第11章学习与规划
11.1有模型方法和无模型方法
11.2模型拟合
11.2.1模型数学表示
11.2.2监督式学习构建模型
11.2.3利用模型进行规划

11.3Dyna框架及相关算法
11.3.1DynaQ
11.3.2DynaQ
11.3.3优先级扫描的DynaQ
11.4Dyna2
11.5实例讲解
11.5.1游戏简介及环境描述
11.5.2算法详情
11.5.3核心代码
11.6小结
11.7习题
第12章探索与利用
12.1探索利用困境
12.2多臂赌博机问题
12.3朴素探索
12.4乐观初始值估计
12.5置信区间上界
12.6概率匹配
12.7信息价值
12.8实例讲解
12.8.1游戏简介及环境描述
12.8.2算法详情
12.8.3核心代码
12.9小结
12.10习题
第13章博弈强化学习
13.1博弈及博弈树
13.2极大极小搜索
13.3AlphaBeta搜索
13.4蒙特卡罗树搜索
13.5AlphaGo
13.5.1监督学习策略网络p
13.5.2快速走子策略网络p
13.5.3强化学习策略网络p
13.5.4价值网络v
13.5.5蒙特卡罗树搜索
13.5.6总结
13.6AlphaGo Zero
13.6.1下棋原理
13.6.2网络结构
13.6.3蒙特卡罗树搜索
13.6.4总结
13.7AlphaZero
13.8实例讲解
13.8.1游戏简介及环境描述
13.8.2算法流程描述
13.8.3算法细节
13.8.4核心代码
13.9小结
13.10习题
参考文献
內容試閱
前言


一、 为什么要写本书
强化学习日渐流行,作为当今社会最热门的研究课题之一,其关注度正与日俱增。强化学习是机器学习的一个分支,通过与环境的交互进行学习,目前广泛应用于游戏领域,如ATARI游戏、西洋双陆棋、AlphaZero等。由于它具有自学习的特性,因此在机器人、工业自动化、自然语言处理、医疗保健及在线股票交易等领域受到了广泛重视,并取得了众多成果。
强化学习是一门实践性很强的学科,同时也具有坚实的理论基础。但目前市面上关于强化学习的书籍过于偏重理论推导和分析,很少以应用为导向来介绍与该算法相关的工程实践及相关代码实现,难以引起读者特别是初学者的兴趣,从而无法使其对强化学习算法进行深入的了解和学习。
本书紧扣读者需求,采用循序渐进的叙述方式,深入浅出地论述了强化学习的背景、算法原理、应用案例等; 此外,本书针对每一章节的算法均提供了对应的案例和程序源代码,并附有详细的注释,有助于读者加深对强化学习相关知识的理解。
通过本书,读者可以从零起步了解并掌握强化学习算法,并且能够快速选择合适的算法去解决实际问题。更进一步,通过学习本书,读者能够丰富对人类自身的认识,并启发对人机智能之争更深一层的思考与探索。
二、 内容特色
与同类书籍相比,本书有如下特色。
1. 由浅入深,循序渐进
本书以具备机器学习基础知识的本科生或研究生为对象,先介绍强化学习的基本概念及分类,接着以强化学习拟解决的问题为着眼点,将强化学习要解决的问题转化为求解马尔可夫模型。然后由浅入深地给出了求解此模型的基础求解方法和联合求解方法,其中,基础求解法均为查表型算法,适用于状态空间、行为空间有限的场景; 对于状态行为空间连续的情况,需要联合求解方法,该方法结合了神经网络来逼近价值函数或者策略函数,也称为深度强化学习。最后是一个博弈案例,向读者展示了强化学习在博弈领域的应用。这种循序渐进的叙述方式,可以将读者的注意力逐渐从背景知识引向重点,由浅入深地展开一个又一个算法。
2. 原理透彻,注重应用
将理论和实践有机地结合是进行算法研究和应用成功的关键。本书对强化学习的相关理论分门别类、层层递进地进行了详细的叙述和透彻的分析,既体现了各知识点之间的联系,又兼顾了其渐进性。本书在介绍每个系列的算法时,不仅给出了算法的运行流程,还给出了该类算法的应用案例; 这些实例不仅可以加深读者对所学知识的理解,而且也展现了强化学习技术的研究热点。本书真正体现了理论联系实际的理念,使读者能够体会到学以致用的乐趣。
3. 例程丰富,解释翔实
本书根据笔者多年从事人工智能学习、科研的经验,列举了近20个关于强化学习算法的Python源代码实例,并针对代码的运行步骤,结合理论和代码进行了详细的描述,重点解释了理论和代码之间的转换。本书采用算法详情核心代码代码注释三种方式对源代码进行解析,让读者对相关算法的核心思想有更直观、更深刻的理解,可以有效地提高读者在强化学习方面的编程能力。本书所提供的程序的编写思想、经验技巧,也可为读者采用其他计算机语言进行强化学习编程提供借鉴。

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.