Skip to content

Commit 2ba4987

Browse files
committed
Update preface
1 parent 7aee980 commit 2ba4987

10 files changed

Lines changed: 315 additions & 33 deletions
Lines changed: 7 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,7 @@
1+
历经三个星期左右的时间,终于把这本《强化学习中的数学原理》课程笔记写完,由于在github的版本只有英文版,所以我在学习的过程中也是一边翻译一边做笔记,当然这套笔记还存在着一些问题,需要我在未来的时间里慢慢修订打磨。
2+
3+
强化学习是一门兼顾数学原理和动手实践的学科,在这本书中将专注于前者,单智能体在网格世界中移动的确定性场景贯穿全书,为读者理解提供了一个很好的例子。但是作为一本重理论推导,轻代码实践的书籍,我建议将要学习强化学习的读者可以把这本书作为第二本读物(至于第一本应该是什么我也不确定),对于大部分人来说,强化学习应该是一门工科而非理科,先学会去写代码掌握大局,再去了解底层原理往往会起到更深入的效果。
4+
5+
强化学习中一个非常基础的概念就是探索与利用问题,如何找到一个平衡点以便在环境中找到最佳策略我,没有充分探索就盲目选择可能会使模型陷入局部最优或完全不收敛。所以我也希望读者可以把目光放广,不仅仅局限于本书,强化学习的变化日新月异,应该多去探索前沿领域的研究,找到自己的研究兴趣。
6+
7+
本笔记的开源版本托管于GitHub,仓库名为"[Mathematical-Foundations-of-Reinforcement-Learning-Notes](https://github.com/wgyhhhh/Mathematical-Foundations-of-Reinforcement-Learning-Notes)"。
Lines changed: 7 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,7 @@
1+
2016年,AlphaGo击败围棋世界冠军李世石,被认为是强化学习(RL)领域的里程碑事件。强化学习在各类棋类游戏、即时战略以及系统性能优化中的卓越表现,验证了其在不断进步和提升能力方面的巨大潜力。进入2025年,强化学习迅速席卷大模型领域,尤其在LLM(大型语言模型)的后训练时代,展现出了巨大的价值。后训练旨在通过少量的高质量样本,使模型适应新的任务,并生成相应的数据分布。强化学习的这一学习范式与后训练优化方向高度契合——它通过在动态变化的数据分布中主动学习,并在与环境交互的过程中寻找长期回报最高的策略。了解基础强化学习背后的理论知识,在当今时代变得愈发重要。
2+
3+
赵世钰老师的《强化学习中的数学原理》无疑是最适合作为强化学习领域入门的课程之一,笔者历经三个星期左右的时间,终于把这本《强化学习中的数学原理》课程笔记写完,由于在GitHub的版本只有英文版,所以我在学习的过程中也是一边翻译一边做笔记,当然这套笔记还存在着一些问题,需要我在未来的时间里慢慢修订打磨。
4+
5+
强化学习中一个非常基础的概念就是探索与利用问题,如何找到一个平衡点以便在环境中找到最佳策略,没有充分探索就盲目选择可能会使模型陷入局部最优或完全不收敛。所以我也希望读者,更包括我自己,可以把目光放广,不仅仅局限于本书,强化学习的变化日新月异,应该多去探索前沿领域的研究,找到自己的研究兴趣。
6+
7+
本笔记的开源版本托管于GitHub,仓库名为"[Mathematical-Foundations-of-Reinforcement-Learning-Notes](https://github.com/wgyhhhh/Mathematical-Foundations-of-Reinforcement-Learning-Notes)"。

.history/docs/Preface2_20260401233337.md

Whitespace-only changes.
Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,3 @@
1+
2025 年,DeepSeek-R1 的出现成为后训练创新的里程碑,其摒弃了传统的有监督微调(SFT),转向链式思维推理和探索性强化学习策略,有效验证了强化学习驱动推理激励在开放研究范式下的有效性,并引入了蒸馏技术,将复杂推理模式从大模型迁移到小模型。
2+
3+
在过去几个月中,笔者初步探索了后训练强化学习领域,并复现了若干经典算法。在复现过程中,笔者发现,许多网上和视频教程对这些算法的讲解往往只有原理解析而缺乏代码实现,或仅有代码复现而没有理论讲解。而两者都有的教程往往有“造轮子”的问题,难以与主流开源框架结合。因此,笔者决定在现有笔记的基础上,新增一个专题,详细剖析各个算法的理论知识与主流开源框架,并记录下自己在学习和复现过程中遇到的问题与解决方案,以供大家参考。
Lines changed: 5 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,5 @@
1+
2025 年,DeepSeek-R1 的出现成为后训练创新的里程碑,其摒弃了传统的有监督微调(SFT),转向链式思维推理和探索性强化学习策略,有效验证了强化学习驱动推理激励在开放研究范式下的有效性,并引入了蒸馏技术,将复杂推理模式从大模型迁移到小模型。
2+
3+
在过去几个月中,笔者初步探索了后训练强化学习领域,并复现了若干经典算法。在复现过程中,笔者发现,许多网上和视频教程对这些算法的讲解往往只有原理解析而缺乏代码实现,或仅有代码复现而没有理论讲解。而两者都有的教程往往有“造轮子”的问题,难以与主流开源框架结合。因此,笔者决定在现有笔记的基础上,新增一个专题,详细剖析各个算法的理论知识与主流开源框架,并记录下自己在学习和复现过程中遇到的问题与解决方案,以供大家参考。
4+
5+
[2026.4.2]读者正在整理笔记中,并将在更新笔记后同步更新网页UI,以给大家更好的阅读体验。

.history/mkdocs_20260401233330.yml

Lines changed: 253 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,253 @@
1+
site_name: 强化学习课程笔记
2+
site_url: https://wgyhhhh.github.io/Mathematical-Foundations-of-Reinforcement-Learning-Notes/
3+
use_directory_urls: true
4+
repo_url: https://github.com/wgyhhhh/Mathematical-Foundations-of-Reinforcement-Learning-Notes
5+
repo_name: wgyhhhh/Mathematical-Foundations-of-Reinforcement-Learning-Notes
6+
site_author: Guangyu
7+
site_description: 《强化学习的数学原理》的课程笔记
8+
9+
theme:
10+
icon:
11+
repo: fontawesome/brands/github-alt
12+
name: material
13+
palette:
14+
- media: "(prefers-color-scheme: light)"
15+
scheme: default
16+
primary: black
17+
accent: green
18+
toggle:
19+
icon: material/weather-sunny
20+
name: 明亮主题
21+
- media: "(prefers-color-scheme: dark)"
22+
scheme: slate
23+
primary: black
24+
accent: yellow
25+
toggle:
26+
icon: material/weather-night
27+
name: 暗黑主题
28+
logo: img/logo.jpg
29+
favicon: img/favicon-96x96.png
30+
custom_dir: docs/overrides
31+
32+
features:
33+
- announce.dismiss #呈现可标记为由用户读取的临时公告,可以包含一个用于取消当前公告的按钮
34+
# - navigation.instant
35+
#- header.autohide #自动隐藏
36+
- navigation.tracking #地址栏中的 URL 将自动更新为在目录中突出显示的活动锚点
37+
- navigation.tabs #顶级部分将呈现在上面视口标题下方的菜单层中,但在移动设备上保持原样
38+
# - navigation.tabs.sticky #启用粘性选项卡后,导航选项卡将锁定在标题下方,并在向下滚动时始终保持可见
39+
- navigation.sections #启用部分后,顶级部分在边栏中呈现为1220px以上视口的组,但在移动设备上保持原样
40+
- navigation.top # 返回顶部的按钮 在上滑时出现
41+
- navigation.footer #页脚将呈现在边栏中,但在移动设备上保持原样
42+
- search.suggest # 搜索输入一些字母时推荐补全整个单词
43+
- search.highlight # 搜索出的文章关键词加入高亮
44+
- search.share #搜索分享按钮
45+
- navigation.expand # 打开Tab时左侧目录全部展开
46+
- navigation.indexes #启用节索引页后,可以将文档直接附加到节
47+
- content.tabs.link
48+
- content.tooltips
49+
- content.code.copy #代码复制
50+
- content.action.edit
51+
- content.action.view
52+
- content.code.annotate
53+
language: zh # 一些提示性的文字会变成中文
54+
55+
56+
57+
extra:
58+
social: # 社交联系方式(页面右下角内容)
59+
- icon: fontawesome/brands/github
60+
link: https://github.com/wgyhhhh/
61+
name: GitHub
62+
- icon: fontawesome/brands/bilibili
63+
link: https://space.bilibili.com/281217178
64+
name: 哔哩哔哩
65+
- icon: fontawesome/solid/paper-plane
66+
link: mailto:wgyhhh001@gmail.com
67+
name: 联系作者
68+
version:
69+
provider: mike
70+
alias: true
71+
consent:
72+
actions:
73+
- accept
74+
- reject
75+
- manage
76+
title: Cookie 设置
77+
description: >-
78+
我们使用 cookies 来识别您的重复访问和偏好,以及衡量我们文档的有效性和用户是否找
79+
到他们正在搜索的内容。<br/>
80+
在您的同意下,您将帮助我们改进我们的文档。<br/>
81+
(您稍后仍可以在网页左下角重新修改 cookies 设置)
82+
analytics: # 谷歌统计
83+
provider: google
84+
property: G-C5GHN09YHC
85+
feedback:
86+
title: 该页面对你有帮助吗?
87+
ratings:
88+
- icon: material/emoticon-happy-outline
89+
name: 有帮助
90+
data: 1
91+
note: 感谢您的反馈!
92+
- icon: material/emoticon-neutral-outline
93+
name: 一般般
94+
data: 0
95+
note: 感谢您的反馈!
96+
- icon: material/emoticon-sad-outline
97+
name: 有待改进
98+
data: -1
99+
note: 感谢您的反馈!
100+
nav:
101+
- 主页:
102+
- 欢迎: 'index.md'
103+
- 引言-V1: 'Preface1.md'
104+
- 引言-V2: 'Preface2.md'
105+
- 第一章:
106+
- 介绍: 'Chapter-1/intro.md'
107+
- 1.1-网格世界: 'Chapter-1/1-1.md'
108+
- 1.2-状态和行动: 'Chapter-1/1-2.md'
109+
- 1.3-状态转移: 'Chapter-1/1-3.md'
110+
- 1.4-策略: 'Chapter-1/1-4.md'
111+
- 1.5-奖励: 'Chapter-1/1-5.md'
112+
- 1.6-轨迹、回报、回合: 'Chapter-1/1-6.md'
113+
- 1.7-马尔科夫决策过程: 'Chapter-1/1-7.md'
114+
- 1.8-总结: 'Chapter-1/1-8.md'
115+
- 第二章:
116+
- 介绍: 'Chapter-2/intro.md'
117+
- 2.1-为什么回报很重要?: 'Chapter-2/2-1.md'
118+
- 2.2-如何计算回报?: 'Chapter-2/2-2.md'
119+
- 2.3-状态值: 'Chapter-2/2-3.md'
120+
- 2.4-贝尔曼方程: 'Chapter-2/2-4.md'
121+
- 2.5-贝尔曼方程的例子: 'Chapter-2/2-5.md'
122+
- 2.6-贝尔曼方程的矩阵形式: 'Chapter-2/2-6.md'
123+
- 2.7-求解状态值: 'Chapter-2/2-7.md'
124+
- 2.8-行动值: 'Chapter-2/2-8.md'
125+
- 2.9-总结: 'Chapter-2/2-9.md'
126+
- 第三章:
127+
- 介绍: 'Chapter-3/intro.md'
128+
- 3.1-如何改进策略: 'Chapter-3/3-1.md'
129+
- 3.2-最优状态值和最优策略: 'Chapter-3/3-2.md'
130+
- 3.3-贝尔曼最优公式: 'Chapter-3/3-3.md'
131+
- 3.4-从贝尔曼最优公式中求解最优策略: 'Chapter-3/3-4.md'
132+
- 3.5-影响最优策略的因素: 'Chapter-3/3-5.md'
133+
- 3.6-总结: 'Chapter-3/3-6.md'
134+
- 第四章:
135+
- 介绍: 'Chapter-4/intro.md'
136+
- 4.1-值迭代: 'Chapter-4/4-1.md'
137+
- 4.2-策略迭代: 'Chapter-4/4-2.md'
138+
- 4.3-截断策略迭代: 'Chapter-4/4-3.md'
139+
- 4.4-总结: 'Chapter-4/4-4.md'
140+
- 第五章:
141+
- 介绍: 'Chapter-5/intro.md'
142+
- 5.1-启发示例:期望值估计: 'Chapter-5/5-1.md'
143+
- 5.2-MC Basic:最简单的基于蒙特卡洛的算法: 'Chapter-5/5-2.md'
144+
- 5.3-MC Exploring Starts算法: 'Chapter-5/5-3.md'
145+
- 5.4-MC-Greedy算法: 'Chapter-5/5-4.md'
146+
- 5.5-探索与利用:以Greedy策略为例: 'Chapter-5/5-5.md'
147+
- 5.6-总结: 'Chapter-5/5-6.md'
148+
- 第六章:
149+
- 介绍: 'Chapter-6/intro.md'
150+
- 6.1-启发示例:期望值估计: 'Chapter-6/6-1.md'
151+
- 6.2-罗宾斯-门罗算法: 'Chapter-6/6-2.md'
152+
- 6.3-Dvoretzky定理: 'Chapter-6/6-3.md'
153+
- 6.4-随机梯度下降: 'Chapter-6/6-4.md'
154+
- 6.5-总结: 'Chapter-6/6-5.md'
155+
- 第七章:
156+
- 介绍: 'Chapter-7/intro.md'
157+
- 7.1-状态值估计:时序差分算法: 'Chapter-7/7-1.md'
158+
- 7.2-行动值估计:Sarsa: 'Chapter-7/7-2.md'
159+
- 7.3-行动值估计:n步Sarsa: 'Chapter-7/7-3.md'
160+
- 7.4-最优行动值估计:Q-Learning: 'Chapter-7/7-4.md'
161+
- 7.5-时序差分算法的统一框架: 'Chapter-7/7-5.md'
162+
- 7.6-总结: 'Chapter-7/7-6.md'
163+
- 第八章:
164+
- 介绍: 'Chapter-8/intro.md'
165+
- 8.1-价值表示:从表格到函数: 'Chapter-8/8-1.md'
166+
- 8.2-基于值函数的时序差分算法:状态值估计: 'Chapter-8/8-2.md'
167+
- 8.3-基于值函数的时序差分算法:行动值估计: 'Chapter-8/8-3.md'
168+
- 8.4-深度Q-learning: 'Chapter-8/8-4.md'
169+
- 8.5-总结: 'Chapter-8/8-5.md'
170+
- 第九章:
171+
- 介绍: 'Chapter-9/intro.md'
172+
- 9.1-策略表示:从表格到函数: 'Chapter-9/9-1.md'
173+
- 9.2-目标函数:定义最优策略: 'Chapter-9/9-2.md'
174+
- 9.3-目标函数的梯度: 'Chapter-9/9-3.md'
175+
- 9.4-蒙特卡洛策略梯度: 'Chapter-9/9-4.md'
176+
- 9.5-总结: 'Chapter-9/9-5.md'
177+
- 第十章:
178+
- 介绍: 'Chapter-10/intro.md'
179+
- 10.1-最简单的演员-评论性方法: 'Chapter-10/10-1.md'
180+
- 10.2-优势演员-评论性方法: 'Chapter-10/10-2.md'
181+
- 10.3-异策略演员-评论性方法: 'Chapter-10/10-3.md'
182+
- 10.4-确定性演员-评论性方法: 'Chapter-10/10-4.md'
183+
- 10.5-总结: 'Chapter-10/10-5.md'
184+
- Box(证明):
185+
- 介绍: 'Box/intro.md'
186+
- 2.1:迭代解法的收敛性证明: 'Box/Box-2-1.md'
187+
- 7.1:TD算法的推导: 'Box/Box-7-1.md'
188+
- 7.4:期望Sarsa算法: 'Box/Box-7-4.md'
189+
- 附录:
190+
- 术语: 'Appendix/1.md'
191+
- 核心算法实现:
192+
- 策略迭代与值迭代: 'python/code.ipynb'
193+
194+
plugins:
195+
- mkdocs-jupyter
196+
197+
markdown_extensions: #详见https://squidfunk.github.io/mkdocs-material/setup/extensions/python-markdown-extensions/ 和 https://squidfunk.github.io/mkdocs-material/setup/extensions/python-markdown/
198+
- abbr
199+
- attr_list
200+
- admonition
201+
- def_list
202+
- footnotes
203+
- md_in_html
204+
- meta # 支持Markdown文件上方自定义标题标签等
205+
- pymdownx.caret
206+
- pymdownx.betterem
207+
- pymdownx.critic
208+
- pymdownx.details
209+
- pymdownx.inlinehilite
210+
- pymdownx.keys
211+
- pymdownx.mark
212+
- pymdownx.snippets
213+
- pymdownx.smartsymbols
214+
- pymdownx.tilde
215+
- pymdownx.superfences:
216+
custom_fences:
217+
- name: mermaid
218+
class: mermaid
219+
format:
220+
!!python/name:pymdownx.superfences.fence_code_format # 代码块高亮插件
221+
- pymdownx.arithmatex: # latex支持
222+
generic: true
223+
- toc:
224+
permalink: true # 固定标题位置为当前位置
225+
- pymdownx.highlight: # 代码块高亮
226+
anchor_linenums: true
227+
linenums: true # 显示行号
228+
# auto_title: true # 显示编程语言名称
229+
- pymdownx.tabbed:
230+
alternate_style: true
231+
- pymdownx.tasklist:
232+
custom_checkbox: true
233+
234+
extra_javascript:
235+
# - javascripts/extra.js #自定义javascript
236+
- https://Xiaokang2022.github.io/maliang/js/click-colorful.js # 鼠标点击效果
237+
- https://cdn.jsdelivr.net/gh/Wcowin/Wcowin.github.io@main/docs/javascripts/extra.js # extra的cdn
238+
#- https://cdn.jsdelivr.net/npm/mathjax@2/MathJax.js #Latex支持
239+
- https://polyfill.io/v3/polyfill.min.js?features=es6 #Latex支持
240+
- https://cdn.jsdelivr.net/npm/mathjax@3/es5/tex-mml-chtml.js #Latex支持
241+
# - ckplayer/js/ckplayer.js #播放器配置
242+
# - https://cdn.jsdelivr.net/npm/gitalk@latest/dist/gitalk.min.js #gitalk支持
243+
- https://cdn.jsdelivr.net/npm/mermaid@10.0.2/dist/add-html-label-6e56ed67.min.js #忘了
244+
- javascripts/extra.js
245+
- javascripts/mathjax.js #MathJax配置
246+
- https://unpkg.com/mathjax@3/es5/tex-mml-chtml.js
247+
248+
249+
extra_css:
250+
- css/misc.css #自定义css
251+
- stylesheets/extra.css
252+
extra_templates:
253+
# - sitemap.xml

docs/Preface1.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,7 @@
1-
历经三个星期左右的时间,终于把这本《强化学习中的数学原理》课程笔记写完,由于在github的版本只有英文版,所以我在学习的过程中也是一边翻译一边做笔记,当然这套笔记还存在着一些问题,需要我在未来的时间里慢慢修订打磨
1+
2016年,AlphaGo击败围棋世界冠军李世石,被认为是强化学习(RL)领域的里程碑事件。强化学习在各类棋类游戏、即时战略以及系统性能优化中的卓越表现,验证了其在不断进步和提升能力方面的巨大潜力。进入2025年,强化学习迅速席卷大模型领域,尤其在LLM(大型语言模型)的后训练时代,展现出了巨大的价值。后训练旨在通过少量的高质量样本,使模型适应新的任务,并生成相应的数据分布。强化学习的这一学习范式与后训练优化方向高度契合——它通过在动态变化的数据分布中主动学习,并在与环境交互的过程中寻找长期回报最高的策略。了解基础强化学习背后的理论知识,在当今时代变得愈发重要
22

3-
强化学习是一门兼顾数学原理和动手实践的学科,在这本书中将专注于前者,单智能体在网格世界中移动的确定性场景贯穿全书,为读者理解提供了一个很好的例子。但是作为一本重理论推导,轻代码实践的书籍,我建议将要学习强化学习的读者可以把这本书作为第二本读物(至于第一本应该是什么我也不确定),对于大部分人来说,强化学习应该是一门工科而非理科,先学会去写代码掌握大局,再去了解底层原理往往会起到更深入的效果
3+
赵世钰老师的《强化学习中的数学原理》无疑是最适合作为强化学习领域入门的课程之一,笔者历经三个星期左右的时间,终于把这本《强化学习中的数学原理》课程笔记写完,由于在GitHub的版本只有英文版,所以我在学习的过程中也是一边翻译一边做笔记,当然这套笔记还存在着一些问题,需要我在未来的时间里慢慢修订打磨
44

5-
强化学习中一个非常基础的概念就是探索与利用问题,如何找到一个平衡点以便在环境中找到最佳策略我,没有充分探索就盲目选择可能会使模型陷入局部最优或完全不收敛。所以我也希望读者可以把目光放广,不仅仅局限于本书,强化学习的变化日新月异,应该多去探索前沿领域的研究,找到自己的研究兴趣。
5+
强化学习中一个非常基础的概念就是探索与利用问题,如何找到一个平衡点以便在环境中找到最佳策略,没有充分探索就盲目选择可能会使模型陷入局部最优或完全不收敛。所以我也希望读者,更包括我自己,可以把目光放广,不仅仅局限于本书,强化学习的变化日新月异,应该多去探索前沿领域的研究,找到自己的研究兴趣。
66

77
本笔记的开源版本托管于GitHub,仓库名为"[Mathematical-Foundations-of-Reinforcement-Learning-Notes](https://github.com/wgyhhhh/Mathematical-Foundations-of-Reinforcement-Learning-Notes)"。

docs/Preface2.md

Lines changed: 5 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,5 @@
1+
2025 年,DeepSeek-R1 的出现成为后训练创新的里程碑,其摒弃了传统的有监督微调(SFT),转向链式思维推理和探索性强化学习策略,有效验证了强化学习驱动推理激励在开放研究范式下的有效性,并引入了蒸馏技术,将复杂推理模式从大模型迁移到小模型。
2+
3+
在过去几个月中,笔者初步探索了后训练强化学习领域,并复现了若干经典算法。在复现过程中,笔者发现,许多网上和视频教程对这些算法的讲解往往只有原理解析而缺乏代码实现,或仅有代码复现而没有理论讲解。而两者都有的教程往往有“造轮子”的问题,难以与主流开源框架结合。因此,笔者决定在现有笔记的基础上,新增一个专题,详细剖析各个算法的理论知识与主流开源框架,并记录下自己在学习和复现过程中遇到的问题与解决方案,以供大家参考。
4+
5+
[2026.4.2]读者正在整理笔记中,并将在更新笔记后同步更新网页UI,以给大家更好的阅读体验。

0 commit comments

Comments
 (0)