在学习概率论的"参数估计"一章时有一些概念没能理解清楚,尤其是参数估计量的性质。在反复翻书的过程中总算搞清楚了一些,在这里记录一下我的理解
无偏性
一般书上讲到的第一个性质就是这个,初看很让人头大,如果不弄清楚的话对于后续内容的理解是很大的阻碍
按照书上(浙大概率论)的定义,无偏性是指:
设
X
1
,
X
2
,
.
.
.
,
X
n
X_1, X_2, ..., X_n
X1,X2,...,Xn 是总体
X
X
X的一个样本,
θ
∈
Θ
\theta\in\Theta
θ∈Θ是包含在总体
X
X
X的分布中的待估参数,其中
Θ
\Theta
Θ 是
θ
\theta
θ的取值范围
若估计量
θ
^
=
θ
^
(
X
1
,
X
2
,
.
.
.
,
X
n
)
\hat{\theta}=\hat{\theta}(X_1, X_2, ..., X_n)
θ^=θ^(X1,X2,...,Xn)的数学期望
E
(
θ
^
)
E(\hat\theta)
E(θ^)存在,且对于任意
θ
∈
Θ
\theta\in\Theta
θ∈Θ有
E
(
θ
^
)
=
θ
E(\hat\theta)=\theta
E(θ^)=θ
则称 θ ^ \hat\theta θ^是 θ \theta θ的一个无偏估计量
这个定义初看的话是很难理解的(至少对我来说),因为很难理解这个 θ ^ \hat\theta θ^到底指的是什么, θ ^ = θ ^ ( X 1 , X 2 , . . . , X n ) \hat{\theta}=\hat{\theta}(X_1, X_2, ..., X_n) θ^=θ^(X1,X2,...,Xn) 这个等式也是有点捉摸不透
其实定义里已经提到,
θ
^
\hat{\theta}
θ^是一个估计量,更为具体的,是对样本的估计量。参数估计目的就是利用样本的估计量去估计真值,一个典型的例子就是用样本的均值去估计真正的均值。
所以参数的点估计(与之对应的还有区间估计)指的就是,取
n
n
n个样本,对这
n
n
n个样本进行某种运算(比如: 取均值,这个运算就是
θ
^
\hat\theta
θ^)可以得到一个估计值,用这个估计值去估算真值(这个真值就是
θ
\theta
θ)。但是我们知道,只取
n
n
n个样本存在随机性,估计出来的真值很可能是不准确的,所以我们再进行多次取样,如果这多次取样运算的均值与真值
θ
\theta
θ相等,那么这个运算
θ
^
\hat\theta
θ^就是无偏的
那么按照这样的理解去解释估计量的其他性质:
- 有效性: 对于按不同的估算量 θ ^ 1 , θ ^ 2 \hat\theta_1, \hat\theta_2 θ^1,θ^2进行多次取样运算,可以得到两组值,方差较小者对应的 θ ^ \hat\theta θ^称为更有效
- 相合性: 相合性指的是随着样本容量增大( n n n趋于正无穷时),估计量 θ ^ \hat\theta θ^稳定于真值 θ \theta θ, 也即 θ ^ ( X 1 , X 2 , . . . , X n ) \hat\theta(X_1, X_2, ..., X_n) θ^(X1,X2,...,Xn)依概率收敛于 θ \theta θ
以上只是我的个人理解,如有错误,欢迎指出