来源:达内教育IT培训大连分校
时间:2023/12/28 14:36:29
大连市人工智能工程师培训班哪里有?学人工智能推荐大连达内教育,大连达内教育,20多年专注it教育,国内值得信赖的教育机构,全国各地拥有多个教学中心,30大类线上线下it课程(UI设计,影视,剪辑包装,Java开发,AI人工智能)等,开始「AI全场景学习」时代!
概率和似然有什么区别?
概率和似然都是指可能性,但在统计学中,概率和似然有截然不同的用法。
• 概率描述了已知参数时的随机变量的输出结果;
• 似然则用来描述已知随机变量输出结果时,未知参数的可能取值。
例如,对于“一枚正反对称的硬币上抛十次”这种事件,我们可以问硬币落地时十次都是正面向上的“概率”是多少;而对于“一枚硬币上抛十次,我们则可以问,这枚硬币正反面对称的“似然”程度是多少。
概率(密度)表达给定θ下样本随机向量X=x的可能性,而似然表达了给定样本X=x下参数θ1(相对于另外的参数θ2)为真实值的可能性。我们总是对随机变量的取值谈概率,而在非贝叶斯统计的角度下,参数是一个实数而非随机变量,所以我们一般不谈一个参数的概率,而说似然。
什么是EM算法?
EM算法也称期望较大化(Expectation-Maximum,简称EM)算法。 它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM)等等。 EM算法是一种迭代优化策略,由于它的计算方法中每一次迭代都分两步, 其中一个为期望步(E步), 另一个为极大步(M步), 所以算法被称为EM算法(Expectation-Maximization Algorithm)。
EM算法受到缺失思想影响,较初是为了解决数据缺失情况下的参数估计问题,其算法基础和收敛有效性等问题在Dempster、Laird和Rubin三人于1977年所做的文章《Maximum likelihood from incomplete data via the EM algorithm》中给出了详细的阐述。其基本思想是:
• 首先根据已经给出的观测数据,估计出模型参数的值;
• 然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前已经观测到的数据重新再对参数值进行估计;
• 然后反复迭代,直至较后收敛,迭代结束。
版权所有:搜学搜课(www.soxsok.com)