通信原理(第3版)
上QQ阅读APP看书,第一时间看更新

2.4 随机变量及其数字特征

2.4.1 随机变量的概念

1.随机变量

生活中有许多随机变量的例子。例如,掷一枚硬币出现正面与反面的随机试验,我们规定数值1表示出现反面,数值0表示出现正面,这样做就相当于引入一个变量X,它将随机地取两个数值,而对应每一个数值都有一定的可能性,这一变量X就称之为随机变量(ran-dom variable)。

当随机变量X的取值个数有限或无穷可数时,称它为离散随机变量,否则就称之为连续随机变量,即可能的取值充满某一有限或无限区间。例如上述掷硬币随机试验的结果X就是一个离散随机变量,再如在给定的某一时刻测量接收机输出端上的噪声,所测得的噪声瞬时值将是一个连续随机变量。

2.随机事件与概率

在随机试验中,对一次试验可能出现也可能不出现,而在大量重复试验中却具有某种规律性的事件,称为随机事件。假设某一试验,可能出现ABC三种结果,把试验重复N次,并记录每一事件发生的次数,分别用nAnBnC表示,则每个事件发生的相对频率为nA/NnB/NnC/N,在N→∞的情况下,这些频率就趋于事件发生的概率,用P(·)表示,即有

978-7-111-66043-9-Chapter02-119.jpg

显然,概率是在0到1之间,并包括0和1在内的一个数,PA)=0的事件A称为不可能事件,PA)=1的事件A称为必然事件。

3.条件概率与统计独立

在事件A发生的条件下,事件B发生的概率用PB|A)表示。按定义,有

978-7-111-66043-9-Chapter02-120.jpg

在一般情形下,PB|A)≠PB),这说明事件A的发生对事件B出现的概率有影响。当PB|A)=PB)时,事件B的发生与事件A无关,也即事件AB是统计独立的。此时,有

978-7-111-66043-9-Chapter02-121.jpg

这就是两事件统计独立的条件。

4.概率的基本定理

(1)事件和的概率

978-7-111-66043-9-Chapter02-122.jpg

(2)事件积的概率

978-7-111-66043-9-Chapter02-123.jpg

(3)全概率公式

如果事件B能且只能与n个互不相容事件A1A2,…,An之一同时发生,则

978-7-111-66043-9-Chapter02-124.jpg

(4)贝叶斯(Bayes)公式

在全概率公式的命题中,如果知道事件B已发生,则诸互不相容事件之一Ai发生的概率为

978-7-111-66043-9-Chapter02-125.jpg

2.4.2 概率分布与概率密度函数

1.概率分布函数的定义及性质

假设随机变量X可能取xi=x1x2x3x4共4个值,且有x4>x3>x2>x1,相应的概率为Pxi)或PX=xi),则有

PXx2)=Px1)+Px2

PXx2)的含义是随机变量取值小于等于x2的概率,它等于变量取值x1x2的概率之和。用PXx)定义的x的函数称为随机变量X的概率分布函数,也可称为累积分布函数(Cumulative Distribute Function,CDF),简称分布函数,记作Fx),即

978-7-111-66043-9-Chapter02-126.jpg

它表示随机变量取值小于等于x的概率。在这个定义中,X可以是离散的也可以是连续的,显然Fx)有如下特点:

1)F(-∞)=PX≤-∞)=0。

2)F(∞)=PX≤∞)=1。

3)如果x1x2,则Fx1)≤Fx2),即概率分布函数Fx)为单调不减函数。

【例2-8】 设有随机变量X可能的取值有4个,分别是0、1、2、3,各值出现的概率都为1/4,即P(0)=P(1)=P(2)=P(3)=1/4。求概率分布函数Fx)并画出曲线。

解:分几个区间来讨论。

x<0时,Fx)=PX<x)=0

当0≤x<1时,Fx)=PXx)=P(0)=1/4

当1≤x<2时,Fx)=PXx)=P(0)+P(1)=1/4+1/4=1/2

当2≤x<3时,Fx)=PXx)=P(0)+P(1)+P(2)=1/4+1/4+1/4=3/4

当3≤x<∞时,Fx)=PXx)=P(0)+P(1)+P(2)+P(3)=1/4+1/4+1/4+1/4=1

根据上面的讨论结果,画出Fx)曲线如图2-11所示。

978-7-111-66043-9-Chapter02-127.jpg

图2-11 概率分布函数曲线

2.概率密度函数的定义及性质

若存在连续随机变量X,其分布函数Fx)与一个非负函数fx)之间有如下关系:

978-7-111-66043-9-Chapter02-128.jpg

则称fx)为X的概率密度函数(P robability Den-sity Function,PDF),简称概率密度。因为式(2-93)表示随机变量X在(-∞,x)区间上取值的概率,故fx)具有概率密度的含义。式(2-93)也可写成

978-7-111-66043-9-Chapter02-129.jpg

因此,概率密度就是概率分布函数的导数。

概率密度有如下性质。

1)fx)≥0。

2)978-7-111-66043-9-Chapter02-130.jpg

3)978-7-111-66043-9-Chapter02-131.jpg

要说明的是,PDF表示随机变量取值概率在横轴上的分布情况,PDF在横轴上的积分即面积表示概率,如图2-12所示。

【例2-9】 某随机变量X,其概率分布函数如图2-13a所示,求其概率密度函数fx)。

978-7-111-66043-9-Chapter02-132.jpg

图2-12 概率密度函数

978-7-111-66043-9-Chapter02-133.jpg

图2-13 某随机变量概率分布和概率密度图

解:由图2-13a可得概率分布为

978-7-111-66043-9-Chapter02-134.jpg

由式(2-94)得概率密度函数为

978-7-111-66043-9-Chapter02-135.jpg

概率密度函数示意图如图2-13b所示。

3.多维概率分布和概率密度函数

上面仅考虑了单个即一维随机变量的情况。实际上,许多随机试验的结果只用一个随机变量来描述是不够的,必须同时用两个或多个随机变量来描述。我们把这种由多个随机变量所组成的一个随机变量总体称为多维随机变量,记作:二维(X1X2),…,n维(X1X2,…,Xn)。

设有两个随机变量XY,我们把两个事件(Xx)和(Yy)同时出现的概率定义为二维随机变量(XY)的二维概率分布函数

978-7-111-66043-9-Chapter02-136.jpg

如果Fxy)可表示成

978-7-111-66043-9-Chapter02-137.jpg

则称fxy)为二维概率密度函数。式(2-95)也意味着下式成立:

978-7-111-66043-9-Chapter02-138.jpg

二维联合概率分布有如下性质。

1)fxy)≥0。

2)978-7-111-66043-9-Chapter02-139.jpg

3)F(-∞,y)=Fx,-∞)=0。

4)978-7-111-66043-9-Chapter02-140.jpg

5)978-7-111-66043-9-Chapter02-141.jpg

上面的性质4)和5)分别称为二维边际概率分布函数和二维边际概率密度函数。这说明,知道了二维概率分布,就可以求出一维概率分布。

前面讨论的统计独立的条件式(2-87)也可以用概率分布来表述,即若

978-7-111-66043-9-Chapter02-142.jpg

则称随机变量XY统计独立。

由上式可见,当随机变量XY统计独立时,可以由一维概率分布确定二维联合分布。但在一般情况下,需要引入条件概率分布,将一维和二维分布联系起来。给定随机变量X后,随机变量Y的条件概率密度定义为

978-7-111-66043-9-Chapter02-143.jpg

从而有

978-7-111-66043-9-Chapter02-144.jpg

结合式(2-98)可知,若随机变量XY统计独立,则有

978-7-111-66043-9-Chapter02-145.jpg

以上的概念和结论可以推广到n维随机变量,但在本书中,掌握一维和二维就可以了。

2.4.3 几种常见的概率密度函数

1.均匀分布

具有图2-13b所示概率密度函数的随机变量称为均匀分布的随机变量,其概率分布函数如图2-13a所示。均匀分布是常见的概率分布之一。例如,正弦振荡源所产生的振荡信号的初相在(0,2π)上均匀分布。

2.高斯(Gauss)分布

高斯分布(也称为正态分布)随机变量的概率密度函数为

978-7-111-66043-9-Chapter02-146.jpg

其中,a为高斯随机变量的均值(数学期望);σ2为高斯随机变量的方差(σ为标准差)。当a=0,σ2=1时,我们称其为标准正态分布。

高斯分布(正态分布)随机变量的概率密度函数fx)如图2-14所示。

概率密度函数的中心位置由均值a确定,其形状由方差的平方根即标准差σ确定。图2-15画出了不同a和不同σ时的概率密度函数曲线示意图。由图可看出,均值a决定fx)极大值的位置,fx)曲线的宽窄和极值与方差的平方根σ有关。

978-7-111-66043-9-Chapter02-147.jpg

图2-14 正态分布随机变量的概率密度函数

978-7-111-66043-9-Chapter02-148.jpg

图2-15 不同参数下高斯分布概率密度函数曲线示意图

a)σ不变 b)a不变

3.瑞利(Rayleigh)分布

“通信原理”课程中遇到的窄带高斯噪声的包络是服从瑞利分布的,瑞利分布随机变量的概率密度函数为

978-7-111-66043-9-Chapter02-149.jpg

式中,σ>0,其曲线如图2-16a所示。

978-7-111-66043-9-Chapter02-150.jpg

图2-16 瑞利分布和莱斯分布随机变量的概率密度函数

a)瑞利分布 b)莱斯分布

4.莱斯(Rice)分布

正弦(或余弦)信号加上窄带高斯噪声包络的瞬时值服从莱斯分布。莱斯分布随机变量的概率密度函数为

978-7-111-66043-9-Chapter02-151.jpg

式中,I0x)为零阶贝塞尔函数;A为正弦波的振幅,其曲线如图2-16b所示。当A=0时,莱斯分布退化为瑞利分布。当A相对于噪声较大时,莱斯分布(图中A=5对应的曲线)趋近于高斯分布(图中虚线)。

2.4.4 随机变量的数字特征

若要完整地描述一个随机变量的统计特性,就必须求得它的分布函数或概率密度函数。在实际应用中,除了关心随机变量的概率密度函数外,还需要考察随机变量的数字特征。因为在有些场合,要确定随机变量的分布函数,并且加以分析是比较困难的。而数字特征既能描述随机变量的部分重要特征,又便于进行运算和实际测量。经常用到的数字特征有以下几个:

1)随机变量的数学期望,也称为随机变量的均值。

2)随机变量的方差。

3)两个随机变量的相关系数。

1.随机变量的数学期望

数学期望是随机变量的统计平均值。对于离散随机变量X,如果它可能的取值有x1x2x3、…、xn,其相应的概率分别为Px1)、Px2)、Px3)、…、Pxn),则其数学期望定义为

978-7-111-66043-9-Chapter02-152.jpg

对于连续随机变量X,如果其概率密度函数为fx),则其数学期望定义为

978-7-111-66043-9-Chapter02-153.jpg

【例2-10】 (1)测量某随机电压X,测得3.0V的概率为2/5,测得3.2V的概率为2/5,测得3.1V的概率为1/5,求该随机电压的数学期望。

(2)某连续随机变量X的概率密度函数978-7-111-66043-9-Chapter02-154.jpg,其中aσ2均为常数,求该随机变量的数学期望。

解:(1)由式(2-105)得

978-7-111-66043-9-Chapter02-155.jpg

(2)由式(2-106)得

978-7-111-66043-9-Chapter02-156.jpg

数学期望有如下特性:

1)EC)=CC为常数。

2)EX+Y)=EX)+EY)。

3)EXY)=EXEY),XY统计独立。

4)EX+C)=EX)+C

5)ECX)=CEX)。

其中XY为随机变量。

2.方差

随机变量的方差反映了随机变量取值的集中程度,方差越小,说明随机变量取值越集中,方差越大,说明随机变量取值越分散。

对于离散随机变量X,如果它可能的取值有x1x2x3、…、xn,其相应的概率分别为Px1)、Px2)、Px3)、…、Pxn),则其方差定义为

978-7-111-66043-9-Chapter02-157.jpg

对于连续随机变量X,如果其概率密度函数为fx),则其方差定义为

978-7-111-66043-9-Chapter02-158.jpg

方差有如下特性:

1)DC)=0,C为常数。

2)DX+Y)=DX)+DY),此式成立的条件是XY统计独立。

3)DX+C)=DX)。

4)DCX)=C2DX)。

5)DX)=EX2)-E2X)。

如果X代表某随机信号,则随机信号的功率为

978-7-111-66043-9-Chapter02-159.jpg

其中,E2X)=a2为信号的直流功率;DX)=σ2为信号的交流功率。

3.协方差、相关矩和相关系数

两个随机变量之间的协方差定义为

978-7-111-66043-9-Chapter02-160.jpg

其中,EXY)称为两个随机变量XY之间的相关矩,它是两个随机变量乘积的均值,可由如下表达式求得:

978-7-111-66043-9-Chapter02-161.jpg

当随机变量XY相互独立时,fxy)=fxfy),上式变为

978-7-111-66043-9-Chapter02-162.jpg

相关系数反映了两个随机变量之间的相关程度,相关系数定义如下:

978-7-111-66043-9-Chapter02-163.jpg

显然ρ≤1。下面结合协方差、相关系数和相关矩的定义,解释三个重要的概念。

1)不相关。当协方差CXY)=0时,相关系数ρ=0,称两个随机变量是不相关的。

2)正交。当相关矩EXY)=0时,称两个随机变量是正交的。

3)独立。当两个随机变量的联合概率密度函数等于两个随机变量各自概率密度函数的乘积时,即fxy)=fxfy)时,称两个随机变量是独立的。

若两个随机变量XY是统计独立的,则它们必不相关,这是因为

978-7-111-66043-9-Chapter02-164.jpg

978-7-111-66043-9-Chapter02-165.jpg

从而由式(2-113)可知,ρ=0,故XY互不相关。但是应注意,若XY互不相关,并不意味着它们是统计独立的。