当前位置: 首页 > news >正文

[概率论基本概念4]什么是无偏估计

关键词:Unbiased Estimation

一、说明

对于无偏和有偏估计,需要了解其叙事背景,是指整体和抽样的关系,也就是说整体的叙事是从理论角度的,而估计器原理是从实践角度说事;为了表明概率理论(不可操作)和统计学(可操作)的实践的一致性,于是提出有偏和无偏的观点。

二、关于无偏和有偏

如果给定参数的估计量 的 预期值等于该参数的真实值, 则称该估计量是无偏的 。另一个说法,如果估计量产生的参数估计平均而言是正确的,那么它就是无偏的。
我们先做一个思想实验,如通过打靶考核射手的水平,假如决定射手的因素有两个:眼力和手平衡。
在这里插入图片描述
于是对于任意一个选手,这个选手的属性如下:

<眼力=1,手平衡=1>,<眼力=0,手平衡=1>,<眼力=1,手平衡=0>,
<眼力=0,手平衡=0>

打靶结果
在这里插入图片描述
我们从上面例子解释“无偏”和“有偏”的关系。在以上打靶结果中,
<眼力=1,手平衡=1>和<眼力=1,手平衡=0>属于“无偏
<眼力=0,手平衡=1>和<眼力=0,手平衡=0>属于“有偏
为什么呢?
我们考虑打靶的重心值:
X ˉ = ∑ i = 1 3 X i \bar{X}=\sum^{3}_{i=1}X_i Xˉ=i=13Xi
X ˉ \bar{X} Xˉ的极限等于把心c,那么就是无偏的,否则就是有偏的。

注意:有偏估计也不是没有意义的。只要能给出固定偏移,不难将无偏估计转化成无偏估计。

三、偏差和无偏差估计器

如果估计器 u ( X 1 , X 2 , … , X n ) u(X_1,X_2,\ldots,X_n) u(X1,X2,,Xn)以下情况成立:
E [ u ( X 1 , X 2 , … , X n ) ] = θ E[u(X_1,X_2,\ldots,X_n)]=\theta E[u(X1,X2,,Xn)]=θ那么统计 u ( X 1 , X 2 , … , X n ) u(X_1,X_2,\ldots,X_n) u(X1,X2,,Xn)是参数的无偏估计量 θ \theta θ。 否则, u ( X 1 , X 2 , … , X n ) u(X_1,X_2,\ldots,X_n) u(X1,X2,,Xn)是一个有偏估计 θ \theta θ

3.1 贝努力变量p的无偏估计

如果 X i X_i Xi是具有参数的伯努利随机变量 p p p, 那么:
p ^ = 1 n ∑ i = 1 n X i \hat{p}=\dfrac{1}{n}\sum\limits_{i=1}^nX_i p^=n1i=1nXi
是最大似然估计量(MLE) p ^ \hat{p} p^ 是p的无偏估计量.

证明:
回想一下,如果 X i X_i Xi是具有参数的伯努利随机变量 p p p, 那么 E ( X i ) = p E(X_i)=p E(Xi)=p
。 这里对估计器求期望:
E ( p ^ ) = E ( 1 n ∑ i = 1 n X i ) = 1 n ∑ i = 1 n E ( X i ) = 1 n ∑ i = 1 n p = 1 n ( n p ) = p E(\hat{p})=E\left(\dfrac{1}{n}\sum\limits_{i=1}^nX_i\right)=\dfrac{1}{n}\sum\limits_{i=1}^nE(X_i)=\dfrac{1}{n}\sum\limits_{i=1}^np=\dfrac{1}{n}(np)=p E(p^)=E(n1i=1nXi)=n1i=1nE(Xi)=n1i=1np=n1(np)=p

第一个等式成立,因为我们只是替换了 p ^ \hat{p} p^及其定义。第二个等式根据线性组合的期望规则成立。第三个等式成立,因为 E ( X i ) = p E(X_i)=p E(Xi)=p。第四个等式成立,因为当你添加值p向上连加n次,你得到np。当然,最后一个等式是简单的代数。

总而言之,我们已经证明: E ( p ^ ) = p E(\hat {p})= p Ep^=p
因此,最大似然估计量是p。

3.2 正态分布的无偏估计

如果 X i X_i Xi是具有均值的正态分布的随机变量,参数 μ \mu μ和方差 σ 2 \sigma^2 σ2的无偏估计是:
μ ^ = ∑ X i n = X ˉ \hat{\mu}=\dfrac{\sum X_i}{n}=\bar{X} μ^=nXi=Xˉ
σ ^ 2 = ∑ ( X i − X ˉ ) 2 n \hat{\sigma}^2=\dfrac{\sum(X_i-\bar{X})^2}{n} σ^2=n(XiXˉ)2
下面用无偏性估计定义进行验证:
只要证明: E ( X i ) = μ E(X_i)=\mu E(Xi)=μ Var ( X i ) = σ 2 \text{Var}(X_i)=\sigma^2 Var(Xi)=σ2就可以。

E ( X ˉ ) = E ( 1 n ∑ i = 1 n X i ) = 1 n ∑ i = 1 n E ( X i ) = 1 n ∑ i = 1 μ = 1 n ( n μ ) = μ E(\bar{X})=E\left(\dfrac{1}{n}\sum\limits_{i=1}^nX_i\right)=\dfrac{1}{n}\sum\limits_{i=1}^nE(X_i)=\dfrac{1}{n}\sum\limits_{i=1}\mu=\dfrac{1}{n}(n\mu)=\mu E(Xˉ)=E(n1i=1nXi)=n1i=1nE(Xi)=n1i=1μ=n1(nμ)=μ
第一个等式成立,因为我们只是用 X ˉ \bar{X} Xˉ及其定义。同样,第二个相等性符合线性组合的期望规则。第三个相等性成立,因为 E ( X i ) = μ E(X_i)=\mu E(Xi)=μ.第四个相等性成立,因为当您将值 μ \mu μ累加n次倍,你会得到np。最后一个相等是简单代数。
总之,我们已经证明: E ( X ˉ ) = μ E(\bar{X})=\mu E(Xˉ)=μ
因此,最大似然估计量为 μ \mu μ是公正的.
下面我们证明 σ ^ 2 = ∑ ( X i − X ˉ ) 2 n \hat{\sigma}^2=\dfrac{\sum(X_i-\bar{X})^2}{n} σ^2=n(XiXˉ)2也是公正无偏的。
首先回顾方差的基本定义:
V a r ( X ) = E ( ( X − E ( X ) ) 2 ) = E ( X 2 ) − E ( X ) 2 Var(X)=E( (X-E(X))^2)=E(X^2)-E(X)^2 Var(X)=E(XEX2)=E(X2)E(X)2
对于独立同分布的抽样样本 ( X 1 , X 2 , … , X n ) (X_1,X_2,\ldots,X_n) (X1,X2,,Xn),每个随机变量数值特征是一样的,也就是说:
E ( X 1 ) = E ( X 2 ) = , … , E ( X n ) = μ E(X_1)=E(X_2)=,\ldots,E(X_n)=\mu E(X1=EX2=,,EXn)=μ
V a r ( X ) = V a r ( X 1 ) = V a r ( X 2 ) = , … , V a r ( X n ) = σ 2 Var(X)=Var(X_1)=Var(X_2)=,\ldots,Var(X_n)=\sigma^2 Var(X)=Var(X1=VarX2=,,VarXn)=σ2
下面我们将给出证明
E ( σ ^ 2 ) = E ( ∑ ( X i − X ˉ ) 2 n ) = ∑ E ( X i − X ˉ ) 2 n = ∑ E ( X i 2 − 2 X 2 X ˉ + X ˉ 2 ) n = ∑ [ E ( X i 2 ) − 2 E ( X i X ˉ ) + E ( X ˉ ) 2 ] n = ∑ [ E ( X i 2 ) − 2 E ( X i ) X ˉ + ( X ˉ ) 2 ) n = ∑ [ E ( X i 2 ) − X ˉ 2 ] n = n [ E ( X 2 ) − E X ˉ 2 ] n = E ( X 2 ) − E X ˉ 2 = σ 2 E(\hat{\sigma}^2)=E(\dfrac{\sum(X_i-\bar{X})^2}{n})=\dfrac{\sum E(X_i-\bar{X})^2}{n}=\dfrac{\sum E(X_i^2-2X_2\bar{X}+\bar{X}^2)}{n}=\dfrac{\sum[ E(X_i^2)-2E(X_i\bar{X})+E(\bar{X})^2]}{n}=\dfrac{\sum[ E(X_i^2)-2E(X_i)\bar{X}+(\bar{X})^2)}{n}=\dfrac{\sum[ E(X_i^2)- \bar{X}^2]}{n}=\dfrac{n[ E(X^2)- E\bar{X}^2]}{n}= E(X^2)- E\bar{X}^2=\sigma^2 E(σ^2)=E(n(XiXˉ)2)=nE(XiXˉ)2=nE(Xi22X2Xˉ+Xˉ2)=n[E(Xi2)2E(XiXˉ)+E(Xˉ)2]=n[E(Xi2)2E(Xi)Xˉ+(Xˉ)2)=n[E(Xi2)Xˉ2]=nn[E(X2)EXˉ2]=E(X2)EXˉ2=σ2
第一个等号是等价代换,第二个等号E(期望)的线性等价性质。第三个等号。代数展开。第四个等号,期望线性恒等式。第五个等式,因为 X ˉ \bar X Xˉ不是随机变量,而 X i X_i Xi是随机变量,因此用 E ( c X ) = c E ( X ) E(cX)=cE(X) E(cX=cEX E ( X ˉ ) = X ˉ E(\bar X)=\bar X E(Xˉ)=Xˉ简化;第六个等式,因为 E ( X i ) = E ( X ) E(X_i)=E(X) EXi=EX这是因为两个随机变量的期望是一致的。第七个等式代数加和展开。第八等式,正态分布方差公式简化版。从而 E ( σ 2 ^ ) = σ 2 E(\hat{\sigma^2})=\sigma^2 E(σ2^)=σ2得证。

四、结论

这里需要首先肯定得是,有偏/无偏与误差偏差无关,不是说误差越大越有偏;一种可能是估计器误差很大,但他是无偏估计;另一种可能是估计器误差很小,但他是有偏估计。一个抽样有偏和无偏得判断措施就是对他求期望,该期望与整体得期望比较,发现有/无偏性。

http://www.xdnf.cn/news/792469.html

相关文章:

  • 【电力电子】什么是并网?为什么要并网?并网需要考虑哪些因素?
  • 黑盒(功能)测试基本方法
  • 如何从0开始搭建自动化测试框架?
  • Docker 部署前后端分离项目
  • 中英混合编码解码全解析
  • 飞牛fnNAS使用群辉DSM系统
  • C#基础语法
  • DMA-BUF与mmap共享内存对比分析
  • 辩证唯物主义精要
  • 【Golang】使用gin框架导出excel和csv文件
  • 基于Python协同过滤的电影推荐系统研究
  • DDR信号线走线关键点
  • Vert.x学习笔记-EventLoop与Handler的关系
  • WebTracing:一站式前端埋点监控解决方案
  • 多线程编程中的重要概念
  • CSP模式下如何保证不抖动
  • 查询去重使用 DISTINCT 的性能分析
  • Ubuntu安装Docker命令清单(以20.04为例)
  • 文件批量重命名
  • Tiktok App 登录账号、密码、验证码 XOR 加密算法
  • C++指针加减法详解:深入理解指针运算的本质
  • ES6 Promise 状态机
  • 外贸建站平台推荐
  • shell脚本的常用命令
  • 2024年认证杯SPSSPRO杯数学建模D题(第二阶段)AI绘画带来的挑战解题全过程文档及程序
  • Linux 命令全讲解:从基础操作到高级运维的实战指南
  • 人脸识别技术应用备案系统已开启!
  • Python趣学篇:Pygame重现《黑客帝国》数字雨
  • ArcGIS Pro 3.4 二次开发 - 地图创作 2
  • 车规级BMS芯片国产化!精准电量监测延长电池寿命