PRML是严肃学习机器学习的首选教材。虽然内容略微陈旧,但是从写作水平来说,目前没有与之匹敌的其他读物。可惜我英语水平有限,原著读起来很容易疲劳,幸得网上流传的PRML中译版,整体流畅严谨,显然是译者在有相当理解的基础上翻译的。只是阅读的过程中偶有卡壳,结合英文版原著,发现有些小问题,这里都列出来,方便其他读者。根据我的阅读进度,本文会不定期更新。
位置:p11 (1.2)上面
xn
的预测值
y(xn,w)
与目标值
tn
的平方和
xn
的预测值
y(xn,w)
与目标值
tn
之差的平方和
位置:p21 (1.32)下面
原文:把每个实数变量除以区间的宽度△
建议:把每个实数变量划分为宽度为△的区间
位置:p23 中间
原文:袁术数据集
建议:原始数据集
位置:p23 (1.60) 式
说明:公式抄写有误,右括号位置不对。请参考原作
位置:p29倒数第二段
原文:如果验证机很小
建议:如果验证集很小
位置:p32 下半部分
原文:然后把方向变量积分出来
建议:然后把方向变量积分掉
说明:当时阅读这行没看懂,后来看原文是"integrate out"。这里意思是,二重积分中有两个变量,先将方向变量通过积分可以消去,只剩下半径,变成一重积分。
位置:p33 最后一行
原文:通过贝叶斯定理修改
建议:通过贝叶斯定理校正
说明:revised翻译为修改,不是太好理解。当然,我建议的翻译未必更好。所以看不懂的地方看看原文吧。
位置:p52 中间
原文:多项式分布
建议:多项分布
说明:Multinomial和多项式没关系,译文中出现过“多元分布”和“多项式分布”两种提法,建议统一改成“多项分布”
位置:p56 (2.24)式下方
原文:由于这个方差是一个整数
建议:由于这个方差是一个正数
位置:p61 (2.54)式
原文:公式抄写有误,
|J2|
应为
|J|2
。读者可参考原文
位置:p61 (2.54)式下方
原文:行列式
|Σ|
的协方差矩阵可以写成特征值的乘积
建议:协方差矩阵的行列式
|Σ|
可以写成特征值的乘积
位置:p62 (2.60)式上方
μμT
是常数,可以从积分中拿出。它本⾝等于单位矩阵,因为⾼斯分布是归⼀化的。
μμT
是常数,可以从积分中拿出,此时积分为1,因为⾼斯分布是归⼀化的。
位置:p64 (2.70)式下方
原文:“完成平方项“
建议:“配平方”
原文:我们一直一个二次型
建议:我们已知一个二次型
位置:p64 (2.73)式下方
原文:现在考虑公式(2.70)中所有
xa
的常数项
建议:现在考虑公式(2.70)中所有
xa
的一阶项
位置:p70 (2.127)式下方
原文:如果我们有观测z和
θ
的一个大数据集
建议:如果我们有一个包含z和
θ
观测值的大数据集。
位置:p76 (2.159)式上方
p(x|μa,b)
p(x|μ,a,b)
位置:p78 (2.168)式上方
原文:然后令分量
x2
相等
建议:然后算出分量
位置:p78 (2.170)式上方
原文:感召惯例
建议:按照惯例
位置:p84 (2.205)式下方
原文:其中
μk=lnμk
建议:其中
ηk=lnμk
位置:p85 (2.211)式
说明:公式最后一行漏了个
μj
,请参看原版。
位置:p85 (2.212)式下方
原文:回带
建议:回代
位置:p85 (2.214)式
说明:式中的
exp(μk)
应为
exp(ηk)
位置:p85 (2.217)式
说明:最右边的
exp(μTx)
应为
exp(ηTx)
位置:p86 (2.224)上方
μ
取梯度
η
取梯度
位置:p86 (2.224)式
ηTμ(x)
应为
ηTu(x)
位置:p86 (2.228)式下方
原文:那么公式(2.228)的右侧变成了
[u(x)]
建议:那么公式(2.228)的右侧变成了
E[u(x)]
位置:p89 中间
原文:流入,如果生成数据的过程是单峰的
建议:例如,如果生成数据的过程是单峰的
位置:p91 (2.250)式下方
原文:令每个数据点都服从高斯分布
建议:将高斯函数应用到每个数据点
位置:p91 (2.251)式上方
原文:对于箱子狂赌的选择
建议:对于箱子宽度的选择
位置:p104 (3.21)式上方
原文:我们也可以关于噪声精度参数
建议:我们也可以针对噪声精度参数
位置:p107 (3.31)式下方
原文:是一个M为向量
建议:是一个M维向量
位置:p107 最后一行
原文:我们值考虑
建议:我们只考虑
位置:p113 (3.57)式下方
p(t|w,w,β)
p(t|w,β)
位置:p118 (3.66)式下面
原文:先验分布让我们能够表达不同模型之间的优先级
建议:先验分布让我们能够表达对不同模型之间的偏好
原文:它表达了数据展现出的不同模型的优先级
建议:它表达了数据展现出的对不同模型的偏好
位置:p121 (3.74)式上面
原文:或者被称为推广的最大似然
建议:或者被称为广义最大似然
位置:p136 (4.24)式上面
原文:一位空间
建议:一维空间
位置:p136 (4.27)式
位置:p138 (4.41)式
位置:p139 (4.54)式下方
原文:其中
ϕn=ϕ(xn)
和
M
表示所有误分类模式的集合。
建议:其中
ϕn=ϕ(xn)
,且
M
表示所有误分类模式的集合。
位置:p147 中央
原文:另一种方法是显示地使用一般的线性模型的函数形式
建议:另一种方法是显式地使用一般的线性模型的函数形式
位置:p147 中央
原文:在直接方法中
建议:而直接方法是
说明:本段分为两部分,分别介绍直接方法和间接方法。使用这种表达会清楚一些。
位置:p168 上方
原文:这就使得误差函数在权空间的某些方向上是常数
建议:这就使得误差函数在权空间的某些方向上不变
位置:p168 上方
原文:对应的多分类交叉熵错误函数
建议:对应的多分类交叉熵误差函数
位置:p169 (5.31)式上方
原文:根据公式(5.18)
建议:根据公式(5.28)
位置:p198 (5.161)上方
原文:精度(方差的倒数)β为
建议:精度(方差的倒数)为β
链接:https://www.zhihu.com/question/35992297/answer/67009652
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
通常从一个CS小白开始学Machine Learning或者Data Mining,到成长为一个独当一面的大牛,都会看几种类型的书:以《数学之美》为代表的科普类读物。通常作用为开发兴趣的。《
机器学习
实战》、《推荐系统实践》、《海量数据挖掘》等实践类书籍。在学中用,在用中学,实践中摸清套路。顺便了解一些基本模型。《统计学习方法》、《数据挖掘导论》、《数据挖掘(韩家炜)》等介绍类书籍。会对ML方面涉及到的技术做一个浅层次的介绍和全方位的了解,有少量数学内容和推导。《
PRML
》、《ESL》、《MLAPP》这类进阶类书籍。包涵大量理论知识和数学推导(尤其是习题),有助于了解Machine Learning方法背后的本质和思想。Machine Learning学习的过程,就是一个 what -> how -> why 的过程。而
PRML
,或者说同类的ESL等书籍,最大的作用就是让你知道为什么会有这样的方法,为什么会有这样的模型,它背后的intuition和motivation是什么。而这恰恰是一个Machine Learning Researcher想要进一步使用模型、看懂别人paper中的模型、甚至自己提出新模型的基础。看
PRML
会带给你在Machine Learning上的理解和使用能力一个质的飞跃。
Pattern Recognition And Machine Learning(
模式识别
与
机器学习
)一直是提供了
模式识别
与
机器学习
领域最为权威而综合的介绍(comprehensive introduction)。在学习前,应掌握基础的多元微积分以及线性代数、概率论等。
PRML
适用于
机器学习
、统计学、计算机科学、信号处理、计算机视觉、数据挖掘和生物信息学等课程。书中包括400多个练习,根据...
前言,第6页11行。“③人们在学习对象技术时,缺乏明确的起点和清晰的学习思路。当然,”
更正:③人们在学习对象技术时,缺乏明确的起点和清晰的学习思路,这一点将在[(5)PLP]中说明。当然,
任一中文的计算机图书中,符号的问题广泛存在。本书的印刷编辑已经作出了巨大努力,但仍然有许多误用。
通常不影响阅读。
目录,7.3.1 Class类。其