Bootstrap

北邮通信原理知识点笔记小结-上半部分

北邮通信原理知识点小结-1

第一章 绪 论

1. 数字信号和模拟信号的比较

数字通信比模拟通信有着更强的抗干扰能力,可以消除噪声积累,便于集成化、加密性能好,但是代价是什么呢

数字信号需要更高的带宽,频带利用率不高、对于同步信号要求高。

2. 离散消息的信息量

H = − ∑ i = 1 M p ( x i ) log ⁡ 2 p ( x i ) b i t / 符 号 H=-\sum_{i=1}^{M} p\left(x_{i}\right) \log _{2} p\left(x_{i}\right) bit/符号 H=i=1Mp(xi)log2p(xi)bit/

上述公式中H代表每个符号的平均信号量。

当消息集的各个元素(符号)在消息序列中等概独立出现时,其符号熵最大,等于:
H = − ∑ i = 1 M 1 M log ⁡ 2 1 M = log ⁡ 2 M b i t / 符 号 H=-\sum_{i=1}^{M} \frac{1}{M} \log _{2} \frac{1}{M}=\log _{2} M bit/符号 H=i=1MM1log2M1=log2Mbit/
当二元消息集的元素在消息中等概率独立出现时,其符号熵最大,等于: 1 bit/符号。

3. 通信系统的主要性能指标

模拟通信系统:

有效性通常用单位带宽内传送的电话路数或电视路数表示,而可靠性是 用接受端的输出信噪比来度量。

数字通信系统:

数字通信系统的有效性的主要性能指标是传输速率、频带利用率。可靠性主要是差错率。

1.传输速率

1)码元传输速率(Rg):码元传输速率简称传码率,也称码元速率或符号速率。它被定义为单位时间(s-1)内 传输码元的数目,单位为波特,记为 Baud 或 B。码元速率与所传的码元进制无关,即码元可以是多进制的也可以是二进制的。通常一个 M 进制的码元可以用 log2M 个二进制码元表示。码元速率又叫做调制速率。它表示信号调制过程中,1 秒中内调制信号波形的变换次数。如果一个单位调制信号波形的时间长度为 T 秒,则调制速率为
R B = 1 T B R_{B}=\frac{1}{T} B RB=T1B
2)信息传输速率(Rb

信息传输速率简称传信率,又称信息速率。它被定义为单位时间(s-1)内传递的信息 量(bit 数),单位是 比特/秒,也记为 bit/s 或 bps。 信息传输速率=码元传输速率*符号平均信息量

2.频带利用率:

频带利用率可以有两种表示方法,一种是单位带宽中的传码率,即:
η = R B Δ f B / H z \eta=\frac{R B}{\Delta f} \mathrm{B} / \mathrm{Hz} η=ΔfRBB/Hz
或单位带宽内的传信率,即:
β = R b Δ f b i t / s , H z \beta=\frac{R b}{\Delta f} \mathrm{bit} / \mathrm{s}, \quad \mathrm{Hz} β=ΔfRbbit/s,Hz
其中:Δf 为系统带宽。 严格讲,第二种表示方法更为确切地反映了系统的频带利用率。

3.可靠性指标:

数字通信系统的可靠性指标是差错率,常用误码率和误信率表示。误码率(也称误符号 率)为接收码元错误的概率,可表示为:
P e = 错 误 码 元 数 传 输 总 码 数 P_{e}=\frac{错误码元数}{传输总码数} Pe=
误信率(也称误比特率)是信息比特错误的概率,可表示为:
P e = 错 误 比 特 数 传 输 总 比 特 数 P_{e}=\frac{错误比特数}{传输总比特数} Pe=
在多进制中,误判错一个码元,对应着错误1到log2M个比特,所以总是有误信率(误比特率)小等于误码率。

第二章 随机过程

1. 随机过程的基本概念

随机过程是随时间变化的随机变量,它的实现(样本函数)是时间函数。无穷多个样本函数 (实现)的集合构成一个随机过程。我们用大写字母 X(t),Y(t),Z(t),等表示随机过程; 用小写字母 x(t),y(t),z(t)等表示对应的随机过程的实现(样本函数)。

在确定的时刻 t1,随机过程 X(t1),是一个随机变量在时刻 t1,t2,X(t1),X(t2)构成一个二维的 随机向量;在时刻 t1,t2,t3,…,tn,X(t1),X(t2),X(t3),…,X(tn),构成一个 n 维的随机向量。

2. 分布函数和概率密度

一维概率密度

这个和高数上的定义实际上一样的,概率密度由以为分布函数求导而得到,一维分布函数:
F 1 ( x 1 , t 1 ) = p [ X ( t 1 ) ≤ x 1 ] F_{1}\left(x_{1}, t_{1}\right)=p\left[X\left(t_{1}\right) \leq x_{1}\right] F1(x1,t1)=p[X(t1)x1]
上述公式对随机变量x求导,得到:
∂ F 1 ( x 1 , t 1 ) ∂ x 1 = f 1 ( x 1 , t 1 ) \frac{\partial F_{1}\left(x_{1}, t_{1}\right)}{\partial x_{1}}=f_{1}\left(x_{1}, t_{1}\right) x1F1(x1,t1)=f1(x1,t1)
n维概率密度

显然,随机过程的一维分布函数和一维概率密度仅仅描述随机过程在各个孤立时刻的统计特性,而没有反映随机过程在各个时刻取值之间的内在联系,通常还需要在足够多的时刻上考虑随机过程的多维分布函数。X(t)的 n 维分布函数被定义为:
F n ( x 1 , x 2 , … , x n ; t 1 , t 2 … , t n ) = P [ X ( t 1 ) ≤ x 1 , X ( t 2 ) ≤ x 2 , … , X ( t n ) ≤ x n ] \begin{array}{l}{F_{n}\left(x_{1}, x_{2}, \ldots, x_{n} ; t_{1}, t_{2} \ldots, t_{n}\right)} \\ {=P\left[X\left(t_{1}\right) \leq x_{1}, X\left(t_{2}\right) \leq x_{2}, \ldots, X\left(t_{n}\right) \leq x_{n}\right]}\end{array} Fn(x1,x2,,xn;t1,t2,tn)=P[X(t1)x1,X(t2)x2,,X(tn)xn]
假设求导成立,那么n维概率密度则是如下:
∂ ′ ′ F n ( x 1 , x 2 , … , x n ; t 1 , t 2 … , t n ) ∂ x 1 ∂ x 2 … ∂ x n = f n ( x 1 , x 2 , … , x n ; t 1 , t 2 … , t n ) \frac{\partial^{\prime \prime} F_{n}\left(x_{1}, x_{2}, \ldots, x_{n} ; t_{1}, t_{2} \ldots, t_{n}\right)}{\partial x_{1} \partial x_{2} \ldots \partial x_{n}}=f_{n}\left(x_{1}, x_{2}, \ldots, x_{n} ; t_{1}, t_{2} \ldots, t_{n}\right) x1x2xnFn(x1,x2,,xn;t1,t2,tn)=fn(x1,x2,,xn;t1,t2,tn)
显然,n 越大,对随机过程统计特性的描述就越充分。

3. 随机过程的数字特征

在实际工作中,有时不需要了解随机过程的分布函数和概率密度,只需知道随机过程的某些数字特征,如均值、方差及相关函数等即可满足需要。

(1)均值(数学期望或统计平均):
E [ X ( t ) ] = ∫ − ∞ ∞ x f 1 ( x , t ) d x E[X(t)]=\int_{-\infty}^{\infty} x f_{1}(x, t) d x E[X(t)]=xf1(x,t)dx
并记为 E[X(t)]=a(t)。均值表示随机过程的摆动中心。

(2)方差:
D [ X ( t ) ] = E { [ X ( t ) − a ( t ) ] 2 } = E [ X ( t ) ] 2 − [ a ( t ) ] 2 = ∫ − ∞ ∞ x 2 f 1 ( x , t ) d x − [ a ( t ) ] 2 \begin{array}{l}{D[X(t)]=E\left\{[X(t)-a(t)]^{2}\right\}=E[X(t)]^{2}-[a(t)]^{2}} \\ {=\int_{-\infty}^{\infty} x^{2} f_{1}(x, t) d x-[a(t)]^{2}}\end{array} D[X(t)]=E{ [X(t)a(t)]2}=E[X(t)]2[a(t)]2=x2f1(x,t)dx[a(t)]2
D[X(t)]常记为σ2(t) ,方差等于均方值与数学期望平方之差。它表示随机过程 在某时刻对于其均值的偏离程度。

均值和方差是刻画随机过程在各个孤立时刻统计特性的重要数字特征,为了描述随机过程在两个不同时刻状态之间的联系,还需利用二维概率密度引入新的数字特征

(3)相关函数:

自协方差函数:

可以认为自协方差是某个信号与其自身经过一定时间平移之后的相似性,自协方差σ就表示了在那个时延的相关性。
B ( t 1 , t 2 ) = E { [ X ( t 1 ) − a ( t 1 ) ] [ X ( t 2 ) − a ( t 2 ) ] } B\left(t_{1}, t_{2}\right)=E\left\{\left[X\left(t_{1}\right)-a\left(t_{1}\right)\right]\left[X\left(t_{2}\right)-a\left(t_{2}\right)\right]\right\} B(t1,t2)=E{ [X(t1)a(t1)][X(t2)a(t2)]}
自相关函数:

是一个信号于其自身在不同时间点的互相关。非正式地来说,它就是两次观察之间的相似度对它们之间的时间差函数。如果要写为 τ =t1-t2,那么就可以使用一个参数来表示自相关函数。这里的E()都是指期望,是可以使用一个积分算式来表示的。

R ( t 1 , t 2 ) = E [ X ( t 1 ) X ( t 2 ) ] R\left(t_{1}, t_{2}\right)=E\left[X\left(t_{1}\right) X\left(t_{2}\right)\right] R(t1,t2)=E[X(t1)X(t2)]
互相关函数:
R X Y ( t 1 , t 2 ) = E [ X ( t 1 ) Y ( t 2 ) ] R_{X Y}\left(t_{1}, t_{2}\right)=E\left[X\left(t_{1}\right) Y\left(t_{2}\right)\right] RXY(t1,t2)=E[X(t1)Y(t2)]

4. 平稳随机过程

狭义平稳随机过程

狭义平稳随机过程,又称严平稳妥过程。其 n 维分布函数和 n 维概率密度与时间起点无关。 平隐随机过程的统计特性将不随时间的推移而不同。例如,其一维概率密度与时间无关:
f 1 ( x , t ) = f 1 ( x ) f_{1}(x, t)=f_{1}(x) f1(x,t)=f1(x)
而二维概率密度函数只与时间间隔有关:
f 2 ( x 1 , x 2 ; t 1 , t 2 ) = f 2 ( x 1 , x 2 ; τ ) f_{2}\left(x_{1}, x_{2} ; t_{1}, t_{2}\right)=f_{2}\left(x_{1}, x_{2} ; \tau\right) f2(x1,x2;t1,t2)=f2(x1,x2;τ)
广义平稳随机过程

广义平衡随机过程,又称宽平稳随机过程。其定义为:若随机过程的数学期望和方差与时间无关,而相关函数仅与时间间隔τ有关,即
a ( t ) = a σ 2 ( t ) = σ 2 R ( t 1 , t 1 + τ ) = R ( τ ) \begin{aligned} a(t) &=a \\ \sigma^{2}(t) &=\sigma^{2} \\ R\left(t_{1}, t_{1}+\tau\right) &=R(\tau) \end{aligned} a(t)σ2(t)R(t1,t1+τ)=a=σ2=R(τ)
在通信系统中所遇到的信号及噪声的大多数均可视为广义平稳随机过程

广义平稳随机过程的性质

1.各态历经性(遍历性)

设 x(t)是平稳随机过程 X(t)的任意一个实现(样函数),若 X(t)的数字特征(统 计平均)可由 X(t)的时间平均代替,即:
a = a ˉ = lim ⁡ T → ∞ 1 T ∫ − T 2 T 2 x ( t ) d t σ 2 = σ ˉ 2 = lim ⁡ T → ∞ 1 T ∫ − T 2 T 2 x ( t ) − a ˉ ] 2 d t R ( τ ) = R ( τ ) ‾ = lim ⁡ T → ∞ 1 T ∫ − T 2 T 2 x ( t ) x ( t + τ ) d t \begin{array}{l}{a=\bar{a}=\lim _{T \rightarrow \infty} \frac{1}{T} \int_{\frac{-T}{2}}^{\frac{T}{2}} x(t) d t} \\ {\left.\sigma^{2}=\bar{\sigma}^{2}=\lim _{T \rightarrow \infty} \frac{1}{T} \int_{\frac{-T}{2}}^{\frac{T}{2}} x(t)-\bar{a}\right]^{2} d t} \\ {R(\tau)=\overline{R(\tau)}=\lim _{T \rightarrow \infty} \frac{1}{T} \int_{\frac{-T}{2}}^{\frac{T}{2}} x(t) x(t+\tau) d t}\end{array} a=aˉ=limTT12T2Tx(t)dtσ2=σˉ2=limTT12T2T

;