Bootstrap

《机器学习数学基础》补充资料:第343页结论证明

证明 E ( X T ) = E ( X ) T E(\pmb{X}^{\text{T}})=E(\pmb{X})^{\text{T}} E(XT)=E(X)T

《机器学习数学基础》 第 343 页,有这样一句话:

对于多维随机变量 X \pmb{X} X ,根据数学期望的定义,有: E ( X T ) = E ( X ) T E(\pmb{X}^{\text{T}})=E(\pmb{X})^{\text{T}} E(XT)=E(X)T

有读者反应,希望能给出有关证明。

证明过程见下。

证明:

随机变量 X \pmb{X} X 是一个向量,于是数学期望可以写成:

E ( X ) = ( E ( X 1 ) E ( X 2 ) ⋮ E ( X n ) ) E(\pmb{X}) =\begin{pmatrix} E(X_1)\\E(X_2)\\\vdots \\E(X_n)\end{pmatrix} E(X)= E(X1)E(X2)E(Xn)

其中, X i X_i Xi X \pmb{X} X 的第 i i i 个分量。

X \pmb{X} X 的转置 X T \pmb{X}^{\text{T}} XT ,如果用分量的形式,可以将 X \pmb{X} X 写成: X = ( X 1 , X 2 , ⋯   , X n ) T \pmb{X}=(X_1,X_2,\cdots,X_n)^{\text{T}} X=(X1,X2,,Xn)T ,也就是有: X T = ( X 1 , X 2 , ⋯   , X n ) \pmb{X}^{\text{T}}=(X_1,X_2,\cdots,X_n) XT=(X1,X2,,Xn) 。于是:

E ( X T ) = ( E ( X 1 ) E ( X 2 ) … E ( X n ) ) E(\pmb{X}^\text{T}) = \begin{pmatrix} E(X_1) & E(X_2) & \dots & E(X_n) \end{pmatrix} E(XT)=(E(X1)E(X2)E(Xn))

再对 E ( X ) E(\pmb{X}) E(X) 求转置,则得到:

E ( X ) T = ( E ( X 1 ) E ( X 2 ) ⋮ E ( X n ) ) T = ( E ( X 1 ) E ( X 2 ) … E ( X n ) ) E(\pmb{X})^\text{T} = \begin{pmatrix} E(X_1) \\ E(X_2) \\ \vdots \\ E(X_n) \end{pmatrix}^\text{T} = \begin{pmatrix} E(X_1) & E(X_2) & \dots & E(X_n) \end{pmatrix} E(X)T= E(X1)E(X2)E(Xn) T=(E(X1)E(X2)E(Xn))

比较上述两个式子,于是得到结论:

E ( X T ) = E ( X ) T E(\pmb{X}^{\text{T}})=E(\pmb{X})^\text{T} E(XT)=E(X)T

证毕。

;