PRML是严肃学习机器学习的首选教材。虽然内容略微陈旧,但是从写作水平来说,目前没有与之匹敌的其他读物。可惜我英语水平有限,原著读起来很容易疲劳,幸得网上流传的PRML中译版,整体流畅严谨,显然是译者在有相当理解的基础上翻译的。只是阅读的过程中偶有卡壳,结合英文版原著,发现有些小问题,这里都列出来,方便其他读者。根据我的阅读进度,本文会不定期更新。

位置:p11 (1.2)上面

xn 的预测值 y(xn,w) 与目标值 tn 的平方和

xn
的预测值 y(xn,w) 与目标值 tn 之差的平方和

位置:p21 (1.32)下面

原文:把每个实数变量除以区间的宽度△

建议:把每个实数变量划分为宽度为△的区间

位置:p23 中间

原文:袁术数据集

建议:原始数据集

位置:p23 (1.60) 式

说明:公式抄写有误,右括号位置不对。请参考原作

位置:p29倒数第二段

原文:如果验证机很小

建议:如果验证集很小

位置:p32 下半部分

原文:然后把方向变量积分出来

建议:然后把方向变量积分掉

说明:当时阅读这行没看懂,后来看原文是"integrate out"。这里意思是,二重积分中有两个变量,先将方向变量通过积分可以消去,只剩下半径,变成一重积分。

位置:p33 最后一行

原文:通过贝叶斯定理修改

建议:通过贝叶斯定理校正

说明:revised翻译为修改,不是太好理解。当然,我建议的翻译未必更好。所以看不懂的地方看看原文吧。

位置:p52 中间

原文:多项式分布

建议:多项分布

说明:Multinomial和多项式没关系,译文中出现过“多元分布”和“多项式分布”两种提法,建议统一改成“多项分布”

位置:p56 (2.24)式下方

原文:由于这个方差是一个整数

建议:由于这个方差是一个正数

位置:p61 (2.54)式

原文:公式抄写有误, |J2| 应为 |J|2 。读者可参考原文

位置:p61 (2.54)式下方

原文:行列式 |Σ| 的协方差矩阵可以写成特征值的乘积

建议:协方差矩阵的行列式 |Σ| 可以写成特征值的乘积

位置:p62 (2.60)式上方

μμT
是常数,可以从积分中拿出。它本⾝等于单位矩阵,因为⾼斯分布是归⼀化的。

μμT 是常数,可以从积分中拿出,此时积分为1,因为⾼斯分布是归⼀化的。

位置:p64 (2.70)式下方

原文:“完成平方项“

建议:“配平方”

原文:我们一直一个二次型

建议:我们已知一个二次型

位置:p64 (2.73)式下方

原文:现在考虑公式(2.70)中所有 xa 的常数项

建议:现在考虑公式(2.70)中所有 xa 的一阶项

位置:p70 (2.127)式下方

原文:如果我们有观测z和 θ 的一个大数据集

建议:如果我们有一个包含z和 θ 观测值的大数据集。

位置:p76 (2.159)式上方

p(x|μa,b)

p(x|μ,a,b)

位置:p78 (2.168)式上方

原文:然后令分量 x2 相等

建议:然后算出分量

位置:p78 (2.170)式上方

原文:感召惯例

建议:按照惯例

位置:p84 (2.205)式下方

原文:其中 μk=ln⁡μk

建议:其中 ηk=ln⁡μk

位置:p85 (2.211)式

说明:公式最后一行漏了个 μj ,请参看原版。

位置:p85 (2.212)式下方

原文:回带

建议:回代

位置:p85 (2.214)式

说明:式中的 exp⁡(μk) 应为 exp⁡(ηk)

位置:p85 (2.217)式

说明:最右边的 exp⁡(μTx) 应为 exp⁡(ηTx)

位置:p86 (2.224)上方

μ 取梯度

η 取梯度

位置:p86 (2.224)式

ηTμ(x) 应为 ηTu(x)

位置:p86 (2.228)式下方

原文:那么公式(2.228)的右侧变成了 [u(x)]

建议:那么公式(2.228)的右侧变成了 E[u(x)]

位置:p89 中间

原文:流入,如果生成数据的过程是单峰的

建议:例如,如果生成数据的过程是单峰的

位置:p91 (2.250)式下方

原文:令每个数据点都服从高斯分布

建议:将高斯函数应用到每个数据点

位置:p91 (2.251)式上方

原文:对于箱子狂赌的选择

建议:对于箱子宽度的选择

位置:p104 (3.21)式上方

原文:我们也可以关于噪声精度参数

建议:我们也可以针对噪声精度参数

位置:p107 (3.31)式下方

原文:是一个M为向量

建议:是一个M维向量

位置:p107 最后一行

原文:我们值考虑

建议:我们只考虑

位置:p113 (3.57)式下方

p(t|w,w,β)

p(t|w,β)

位置:p118 (3.66)式下面

原文:先验分布让我们能够表达不同模型之间的优先级

建议:先验分布让我们能够表达对不同模型之间的偏好

原文:它表达了数据展现出的不同模型的优先级

建议:它表达了数据展现出的对不同模型的偏好

位置:p121 (3.74)式上面

原文:或者被称为推广的最大似然

建议:或者被称为广义最大似然

位置:p136 (4.24)式上面

原文:一位空间

建议:一维空间

位置:p136 (4.27)式

位置:p138 (4.41)式

位置:p139 (4.54)式下方

原文:其中 ϕn=ϕ(xn) M 表示所有误分类模式的集合。

建议:其中 ϕn=ϕ(xn) ,且 M 表示所有误分类模式的集合。

位置:p147 中央

原文:另一种方法是显示地使用一般的线性模型的函数形式

建议:另一种方法是显式地使用一般的线性模型的函数形式

位置:p147 中央

原文:在直接方法中

建议:而直接方法是

说明:本段分为两部分,分别介绍直接方法和间接方法。使用这种表达会清楚一些。

位置:p168 上方

原文:这就使得误差函数在权空间的某些方向上是常数

建议:这就使得误差函数在权空间的某些方向上不变

位置:p168 上方

原文:对应的多分类交叉熵错误函数

建议:对应的多分类交叉熵误差函数

位置:p169 (5.31)式上方

原文:根据公式(5.18)

建议:根据公式(5.28)

位置:p198 (5.161)上方

原文:精度(方差的倒数)β为

建议:精度(方差的倒数)为β

链接:https://www.zhihu.com/question/35992297/answer/67009652 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 通常从一个CS小白开始学Machine Learning或者Data Mining,到成长为一个独当一面的大牛,都会看几种类型的书:以《数学之美》为代表的科普类读物。通常作用为开发兴趣的。《 机器学习 实战》、《推荐系统实践》、《海量数据挖掘》等实践类书籍。在学中用,在用中学,实践中摸清套路。顺便了解一些基本模型。《统计学习方法》、《数据挖掘导论》、《数据挖掘(韩家炜)》等介绍类书籍。会对ML方面涉及到的技术做一个浅层次的介绍和全方位的了解,有少量数学内容和推导。《 PRML 》、《ESL》、《MLAPP》这类进阶类书籍。包涵大量理论知识和数学推导(尤其是习题),有助于了解Machine Learning方法背后的本质和思想。Machine Learning学习的过程,就是一个 what -> how -> why 的过程。而 PRML ,或者说同类的ESL等书籍,最大的作用就是让你知道为什么会有这样的方法,为什么会有这样的模型,它背后的intuition和motivation是什么。而这恰恰是一个Machine Learning Researcher想要进一步使用模型、看懂别人paper中的模型、甚至自己提出新模型的基础。看 PRML 会带给你在Machine Learning上的理解和使用能力一个质的飞跃。 Pattern Recognition And Machine Learning( 模式识别 机器学习 )一直是提供了 模式识别 机器学习 领域最为权威而综合的介绍(comprehensive introduction)。在学习前,应掌握基础的多元微积分以及线性代数、概率论等。 PRML 适用于 机器学习 、统计学、计算机科学、信号处理、计算机视觉、数据挖掘和生物信息学等课程。书中包括400多个练习,根据... 前言,第6页11行。“③人们在学习对象技术时,缺乏明确的起点和清晰的学习思路。当然,” 更正:③人们在学习对象技术时,缺乏明确的起点和清晰的学习思路,这一点将在[(5)PLP]中说明。当然, 任一中文的计算机图书中,符号的问题广泛存在。本书的印刷编辑已经作出了巨大努力,但仍然有许多误用。 通常不影响阅读。 目录,7.3.1 Class类。其