机器学习:三个层次

阅读量 3,评论量 0

机器学习:三个层次

极大似然估计

理解

用最大似然来学习数据中的模式时,当数据点数远小于参数数量时,会出现过拟合(因自由度远高于数据点数而导致的某些项被过度调参的情况,当出现这种情况时会导致模型的泛化能力急剧下降)的问题,所以不得不根据可得到的训练集的规模限制参数的数量。这种由表象得出的问题及其解决方案,很明显无法说明最大似然与过拟合的关联性,所以解决方案也显得非常不合逻辑(更为合理的解决方法似乎应是根据待解决问题的复杂性来限制参数的数量),下面以一个例子来说明最大似然与过拟合的内在联系:

假设要估计的 YN(μ,σ2) ,暂且不考虑 y 与 x 的关系,当 μ 已知, 1n(Yiμ)2μ 的一个无偏估计;

maxLikelyhood

而当用最大似然来做模式识别时, μ 是未知的,极大似然是用 Y¯ 来估计 μ 的,此时拟合出的估计分布的方差自然为 1n(YiY¯)2 ,对于无偏估计 1n(Yiμ)2 来说,当且仅当 μ=1nYi 时取得最小值,故在数据量过少,而模型复杂度很高的情况下,用极大似然做拟合时(极大似然倾向于将拟合出的估计分布的方差做到最小),为使方差足够小,会导致 Y¯μ 偏差过大,称之为过拟合,即过拟合的现象是 Y¯μ 偏差过大,本质是参数自由度过高导致的方差过小

计算

p(t|x;w,β) 建模,通过最大化样本的出现概率(直接拟合)求解模型参数,没有先后验一说。

似然函数为: p(y|x;w,β)=iNN(f(xi,w),1β)=iN(β2π)12eβ2(f(xi,w)yi)2 对数似然为: lnp(y|x;w,β)=β2iN(f(xi,w)yi)2+N2(lnβln2π) 可在对数似然的极值处求得 wML ,进而得到 1βML=1NiN(f(xi,wML)yi)2

最终得到拟合的估计分布为 p(y|x;wML,βML)=N(f(xi,wML),1βML)

贝叶斯估计(最大后验估计)

计算

p(t|x;w,β) 建模,通过最大化参数的后验概率求解模型参数。

p(w|x,y;α,β)p(y|x;w,β)p(w|α),先验概率为(其中 α 为超参数,为模型参数的先验方差的倒数p(w|α)=N(0,α1I)=(α2π)M+12eα2wTw, 故后验概率为 (iN(β2π)12eβ2(f(xi,w)yi)2)(α2π)M+12eα2wTw 取对数得 iNp(yi|xi;w,β)+M+12(lnαln2π)α2wTw

故最大化后验概率等价于最小化该函数 iN(f(xi;w)yi)2+α2wTw. 故先验即为正则项。

贝叶斯推理

MLE、MAP是选择相对最好的一个模型(point estimation), 贝叶斯方法则是通过观测数据来估计后验分布(posterior distribution),并通过后验分布做群体决策,所以后者的目标并不是在去选择某一个最好的模型,贝叶斯估计复杂度大,通常用MCMC等近似算法来近似,这样做模型的ensemble的优点是它可以reduce variance。

总结

首先建立数据的参数模型p(D;w),通过带参模型计算各样本出现的概率,然后



0 Comments
  • Latest
  • Best
  • Oldest
  • Author
Close Comment
No Comment