新書推薦:
《
大模型推荐系统:算法原理、代码实战与案例分析
》
售價:HK$
97.9
《
逆风翻盘 危机时代的亿万赢家 在充满危机与风险的世界里,学会与之共舞并找到致富与生存之道
》
售價:HK$
137.5
《
工业互联网导论
》
售價:HK$
97.9
《
木偶的恨意(法国悬念大师米歇尔普西悬疑新作)
》
售價:HK$
64.9
《
孤独传:一种现代情感的历史
》
售價:HK$
85.8
《
家、金钱和孩子
》
售價:HK$
64.9
《
形而上学与测量
》
售價:HK$
74.8
《
世界航母、舰载机图鉴 【日】坂本明
》
售價:HK$
74.8
|
內容簡介: |
本书从工业界一线算法工作者的视角,对深度强化学习落地实践中的工程经验和相关方法论做出了深度思考和系统归纳。本书跳出了原理介绍加应用案例的传统叙述模式,转而在横向上对深度强化学习落地过程中的核心环节进行了完整复盘。主要内容包括需求分析和算法选择的方法,动作空间、状态空间和回报函数设计的理念,训练调试和性能冲刺的技巧等。本书既是前人智慧与作者个人经验的交叉印证和精心整合,又构成了从理论到实践再到统一方法论的认知闭环,与市面上侧重于算法原理和代码实现的强化学习书籍形成了完美互补。
|
關於作者: |
魏 宁本科和硕士分别毕业于西安交通大学和中国科学院大学计算机专业,在国际会议和期刊上发表多篇学术论文,曾就职于德国KUKA Robotics从事协作机器人智能应用研发工作,目前在海康威视研究院任算法专家,负责深度学习、强化学习等领域的创新研究和落地应用,同时也是互联网社区“深度强化学习实验室”核心成员。
|
目錄:
|
第1章 需求分析 1
1.1 需求分析:勿做DRL铁锤人 1
1.2 一问“是不是” 2
1.2.1 Agent和环境定义 2
1.2.2 马尔可夫决策过程和强化学习 3
1.3 二问“值不值” 5
1.3.1 试试规则和启发式搜索 5
1.3.2 别忘了传统强化学习 7
1.3.3 使用DRL的理由 7
1.4 三问“能不能” 9
1.4.1 场景固定:两个分布一致 9
1.4.2 数据廉价:多、快、好、费 13
1.5 四问“边界在哪里” 16
1.6 本章小结 18
参考文献 19
第2章 动作空间设计 23
2.1 动作空间设计:这里大有可为 23
2.1.1 被忽视的价值 23
2.1.2 动作空间的常见类型 24
2.1.3 动作空间设计的基本原则 26
2.2 动作空间的完备性 26
2.2.1 功能完备 27
2.2.2 时效完备 29
2.3 动作空间的高效性 30
2.3.1 化整为零:以精度换效率 31
2.3.2 有机组合:尺度很重要 33
2.4 动作空间的合法性 35
2.4.1 非法动作屏蔽机制 36
2.4.2 Agent的知情权 37
2.5 本章小结 39
参考文献 40
第3章 状态空间设计 43
3.1 状态空间设计:特征工程的诱惑 43
3.2 状态空间设计的两种常见误区 44
3.2.1 过分依赖端到端特征学习 44
3.2.2 极致特征工程 44
3.3 与动作空间和回报函数的协同设计 45
3.3.1 与动作空间尺度一致 45
3.3.2 以回报函数为中心 46
3.4 状态空间设计的四个步骤 47
3.4.1 任务分析 47
3.4.2 相关信息筛选 49
3.4.3 泛化性考量 53
3.4.4 效果验证 58
3.5 本章小结 61
参考文献 62
第4章 回报函数设计 64
4.1 回报函数设计:面向强化学习的编程 64
4.2 稀疏回报问题 65
4.2.1 孤独无援的主线回报 65
4.2.2 稀疏回报问题的本质 66
4.3 辅助回报 67
4.3.1 子目标回报 67
4.3.2 塑形回报 70
4.3.3 内驱回报 76
4.3.4 回报取值的注意事项 77
4.4 回报函数设计的常见陷阱 78
4.4.1 鲁莽 79
4.4.2 贪婪 80
4.4.3 懦弱 82
4.5 回报问题 83
4.6 基于学习的回报函数 84
4.6.1 经典方法 84
4.6.2 前沿方法 85
4.7 本章小结 87
参考文献 88
第5章 算法选择 92
5.1 算法选择:拿来主义和改良主义 92
5.1.1 DRL算法的发展脉络 92
5.1.2 一筛、二比、三改良 94
5.1.3 从独当一面到众星捧月 96
5.2 牢记经典勿忘本 97
5.2.1 DQN 98
5.2.2 DDPG 99
5.2.3 A3C 102
5.3 关注SOTA算法别留恋 105
5.3.1 TD3 105
5.3.2 SAC 107
5.3.3 PPO 110
5.4 其他算法 112
5.5 本章小结 113
参考文献 113
第6章 训练调试 119
6.1 训练调试:此事要躬行 119
6.2 训练前的准备工作 120
6.2.1 制定训练方案 120
6.2.2 选择网络结构 124
6.2.3 随机漫步 128
6.2.4 数据预处理 129
6.3 训练进行时 131
6.3.1 反脆弱:拥抱不确定性 131
6.3.2 调节超参数 134
6.3.3 监控训练状态 143
6.4 给初学者的建议 146
6.5 本章小结 148
参考文献 149
第7章 性能冲刺 154
7.1 性能冲刺:为DRL注入强心剂 154
7.2 课程学习 155
7.2.1 源任务及其分类 155
7.2.2 应用方式 157
7.3 额外监督信号 162
7.3.1 有监督预训练 163
7.3.2 辅助任务 164
7.4 进化策略 169
7.4.1 基本原理 169
7.4.2 关键细节 170
7.4.3 应用方式 174
7.5 本章小结 175
参考文献 176
|
|