最大似然估计

统计学中,最大似然估计英語:,簡作MLE),也称极大似然估计,是用来估計一个概率模型的参数的一种方法。

预备知识

下方的讨论要求读者熟悉概率论中的基本定义,如概率分布概率密度函数随机变量数学期望等。读者還須先熟悉连续实函数的基本性质,比如使用微分来求一个函数的极值(即极大值极小值)。
同時,讀者須先擁有似然函數的背景知識,以了解最大似然估計的出發點及應用目的。

最大似然估计的原理

给定一个概率分布,已知其概率密度函数(连续分布)或概率质量函数(离散分佈)为,以及一个分佈参数,我们可以从这个分布中抽出一个具有个值的采样,利用计算出其似然函数:

是离散分布,即是在参数为时观测到这一采样的概率;若其是连续分布,则为联合分布的概率密度函数在观测值处的取值。一旦我们获得,我们就能求得一个关于的估计。最大似然估计会寻找关于的最可能的值(即,在所有可能的取值中,寻找一个值使这个采样的“可能性”最大化)。从数学上来说,我们可以在的所有可能取值中寻找一个值使得似然函数取到最大值。这个使可能性最大的值即称为最大似然估计。由定义,最大似然估计是样本的函数。

注意

  • 这裡的似然函数是指不变时,关于的一个函数。
  • 最大似然估计不一定存在,也不一定唯一。

推导

最大似然估计可以从相对熵推导而来。相对熵衡量了使用一个给定分布来近似另一个分布时的信息损失,对于离散型随机变量,可以用以下公式:

其中,是真实分布,是近似分布。在最大似然估计的情景下,假设分布拥有一系列参数,我们希望通过样本得到参数的估计值。我们可以利用相对熵来评判估计的好坏:

根据期望的定义,我们可以将上式改写为:

KL值越大,参数估计越坏,因此,需要通过改变估计参数的值来获得最小的值,所对应的参数极为最佳估计参数。即:

假设有个样本,根据大数定理,可以进行替换:

即,可以通过下式评估:

对于一个已知的分布,其参数是确定的。因此,为常数。因此,我们可以通过最小化KL值获得最佳估计参数:

因此,要得到最佳参数估计值,只需要最大化,这就是最大似然函数。对于连续型随机变量,有相同的结论。

例子

离散分布,离散有限参数空间

考虑一个抛硬币的例子。假设这个硬币正面跟反面轻重不同。我们把这个硬币抛80次(即,我们获取一个采样并把正面的次数记下来,正面记为H,反面记为T)。并把抛出一个正面的概率记为,抛出一个反面的概率记为(因此,这裡的即相当于上方的)。假设我们抛出了49个正面,31个反面,即49次H,31次T。假设这个硬币是我们从一个装了三个硬币的盒子里头取出的。这三个硬币抛出正面的概率分别为, , ,这些硬币没有标记,所以我们无法知道哪个是哪个。使用最大似然估计,基于二项分布中的概率质量函数公式,通过这些试验数据(即采样数据),我们可以计算出哪个硬币的可能性最大。这个似然函数取以下三个值中的一个:

我们可以看到当时,似然函数取得最大值。
顯然地,這硬幣的公平性和那種拋出後正面的機率是2/3的硬幣是最接近的。这就是的最大似然估计。

离散分布,连续参数空间

现在假设例子1中的盒子中有无数个硬币,对于中的任何一个, 都有一个抛出正面概率为的硬币对应,我们来求其似然函数的最大值:

其中. 我们可以使用微分法来求極值。方程两边同时对微分,并使其为零。

在不同比例参数值下一个二项式过程的可能性曲线t = 3, n = 10;其最大似然估计值发生在其众数并在曲线的最大值处。

其解为, ,以及.使可能性最大的解显然是(因为这两个解会使可能性为零)。因此我们说最大似然估计值.

这个结果很容易一般化。只需要用一个字母代替49用以表达伯努利试验中的被观察数据(即样本)的“成功”次数,用另一个字母代表伯努利试验的次数即可。使用完全同样的方法即可以得到最大似然估计值:

对于任何成功次数为,试验总数为的伯努利试验。

连续分布,连续参数空间

最常见的连续概率分布正态分布,其概率密度函数如下:

现在有个正态随机变量的采样点,要求的是一个这样的正态分布,这些采样点分布到这个正态分布可能性最大(也就是概率密度积最大,每个点更靠近中心点),其个正态随机变量的采样的对应密度函数(假设其独立并服从同一分布)为:

也可以写为:

,

这个分布有两个参数:.有人可能会担心两个参数与上方的讨论的例子不同,上方的例子都只是在一个参数上对可能性进行最大化。实际上,在两个参数上的求最大值的方法也差不多:只需要分别把可能性在两个参数上最大化即可。当然这比一个参数麻烦一些,但是一点也不复杂。使用上方例子同样的符号,我们有.

最大化一个似然函数同最大化它的自然对数是等价的。因为自然对数log是一个连续且在似然函数的值域严格递增的上凹函数。[注意:可能性函数(似然函数)的自然对数跟信息熵以及費雪訊息联系紧密。]求对数通常能够一定程度上简化运算,比如在这个例子中可以看到:

这个方程的解是.这的确是这个函数的最大值,因为它是里头惟一的一阶导数等于零的点并且二阶导数严格小于零。

同理,我们对求导,并使其为零。

这个方程的解是.

因此,其关于最大似然估计为:

.

性质

泛函不变性(Functional invariance)

如果的一个最大似然估计,那么的最大似然估计是。函数g无需是一个双射[1]

渐近线行为

最大似然估计函数在采样样本总数趋于无穷的时候达到最小方差,其证明可见于克拉馬-羅下限。当最大似然估计非偏时,等价的,在极限的情况下我们可以称其有最小的均方差。 对于独立的观察来说,最大似然估计函数经常趋于正态分布

偏差

最大似然估计的偏差是非常重要的。考虑这样一个例子,标有张票放在一个盒子中。从盒子中随机抽取票。如果是未知的话,那么的最大似然估计值就是抽出的票上标有的,尽管其期望值的只有.为了估计出最高的值,我们能确定的只能是值不小于抽出来的票上的值。

历史

最大似然估计最早是由羅納德·費雪在1912年至1922年间推荐、分析并大范围推广的。[2](虽然以前高斯拉普拉斯、托瓦爾·尼古拉·蒂勒和F. Y. 埃奇沃思也使用过)。[3] 许多作者都提供了最大似然估计发展的回顾。[4]

大部分的最大似然估计理论都在贝叶斯统计中第一次得到发展,并被后来的作者简化。[2]

参见

  • 均方差是衡量一个估计函数的好坏的一个量。
  • 关于拉奧-布萊克韋爾定理(Rao-Blackwell theorem)的文章中讨论到如何利用Rao-Blackwellisation过程寻找最佳不偏估计(即使均方差最小)的方法。而最大似然估计通常是一个好的起点。
  • 读者可能会对最大似然估计(如果存在)总是一个关于参数的充分统计量(sufficient statistic)的函数感兴趣。
  • 最大似然估计跟廣義動差估計(generalized method of moments)有关。

参考文献

  1. 请参见George Casella与Roger L. Berger所著的Statistical Inference定理Theorem 7.2.10的证明。(中国大陆出版的大部分教材上也可以找到这个证明。)
  2. Pfanzagl (1994)
  3. Edgeworth (September 1908) and Edgeworth (December 1908)
  4. Savage (1976), Pratt (1976), Stigler 1978, 1986, 1999, Hald 1998, 1999, and Aldrich (1997)

外部链接

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.