热线电话:13121318867

登录
2018-11-22 阅读量: 1598
朴素贝叶斯的EM算法是什么?

EM算法即期望最大化算法。

期望最大化(EM)算法是一种迭代方法,用于在统计模型中找到参数的最大似然或最大后验(MAP)估计,其中模型取决于未观察到的潜在变量。EM迭代在执行期望(E)步骤和最大化(M)步骤之间交替,期望(E)步骤创建用于使用参数的当前估计评估的对数似然的期望的函数,最大化(M)步骤计算最大化预期对数的参数。在E步骤中发现的可能性。然后使用这些参数估计来确定下一个E步骤中潜在变量的分布。

EM算法及其扩展是用于模态估计的流行工具,但经常因其收敛速度慢而受到批评。我们提出了一种新方法,通常可以使EM更快。直观的想法是使用“协方差调整”来纠正M步骤的分析,利用在推算的完整数据中捕获的额外信息。我们实现这一目标的方式是通过参数扩展; 我们扩展了完整数据模型,同时保留了观察数据模型,并使用扩展的完整数据模型来生成EM。这种参数扩展的EM,PX-EM算法共享普通EM的简单性和稳定性,但由于其M步执行更有效的分析,因此具有更快的收敛速度。针对多变量t示出了PX-EM算法 分布,随机效应模型,因子分析,概率回归和泊松成像模型。

EM算法分以下步骤:

1.初始化分布参数
2.重复直到收敛:
E步骤:估计未知参数的期望值,给出当前的参数估计。
M步骤:重新估计分布参数,以使得数据的似然性最大,给出未知变量的期望估计。


0.0000
1
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子