Machine Learning-L15-EM算法全解析(下)
2 EM算法2.1 算法描述输入:观测变量数据X = ( x ( 1 ) , x ( 2 ) , . . . x ( m ) ,隐变量数据Z = ( z ( 1 ) , z ( 2 ) , . . . z ( m ) 输出:模型参数θ 观测数据X 又称不完全数据(incomplete-data),其概率分布是P ( X ∣ θ X 和Z连在一起称完全数据(complete data),其联合概率....
Machine Learning-L15-EM算法全解析(上)
期望极大化(EM,Expectation Maximization)是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量(hidden variable)的概率模型参数的极大似然估计或极大后验概率估计。概率模型有时既含有观测变量(observable variable),又含有隐变量或潜变量(latent variable)。如果概率模型的变量都是观测变量,那么给定数据后,可....
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
智能引擎技术
AI Online Serving,阿里巴巴集团搜推广算法与工程技术的大本营,大数据深度学习时代的创新主场。
+关注