admin 管理员组

文章数量: 1086019


2024年3月12日发(作者:简笔画边框)

《模式识别》试题库

一、基本概念题

1.1 模式识别的三大核心问题是: 、 、 。

1.2、模式分布为团状时,选用 聚类算法较好。

1.3 欧式距离具有 。 马式距离具有 。

(1)平移不变性 (2)旋转不变性 (3)尺度缩放不变性 (4)不受量纲影响的特性

1.4 描述模式相似的测度有: 。

(1)距离测度 (2)模糊测度 (3)相似测度 (4)匹配测度

1.5 利用两类方法处理多类问题的技术途径有:(1) ;(2) ;

(3) 。其中最常用的是第 个技术途径。

1.6 判别函数的正负和数值大小在分类中的意义是: ,

1.7 感知器算法 。

(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。

1.8 积累位势函数法的判别界面一般为 。

(1)线性界面;(2)非线性界面。

1.9 基于距离的类别可分性判据有: 。

S

B

S

B

(1) (2)

(3)

-

1

S

W

+S

B

Tr[S

w

S

B

]

S

W

1.10 作为统计判别问题的模式分类,在( )情况下,可使用聂曼-皮尔逊判决准则。

1.11 确定性模式非线形分类的势函数法中,位势函数K(x,x

k

)与积累位势函数K(x)的关系为(

)。

1.12 用作确定性模式非线形分类的势函数法,通常,两个n维向量x和x

k

的函数K(x,x

k

)若同时满足下

列三个条件,都可作为势函数。

①( );

②( );

③ K(x,x

k

)是光滑函数,且是x和x

k

之间距离的单调下降函数。

1.13 散度J

ij

越大,说明

w

i

类模式与

w

j

类模式的分布( )。当

w

i

类模式与

w

j

类模式的分布相

同时,J

ij

=( )。

1.14 若用Parzen窗法估计模式的类概率密度函数,窗口尺寸h1过小可能产生的问题是(

),h1过大可能产生的问题是( )。

1.15 信息熵可以作为一种可分性判据的原因是: 。

1.16作为统计判别问题的模式分类,在( )条件下,最小损失判决规则与最小错误判

决规则是等价的。

1.17 随机变量l(

x

)=p(

x

|w

1)/p(

x

|w

2),l(

x

)又称似然比,则E

{

l(

x

)

|w

2

}

=( )。在最小

误判概率准则下,对数似然比Bayes判决规则为(             )。

1.18 影响类概率密度估计质量的最重要因素是( )。





J

E[

-

P(

w

|x)logP(

w

|x)]

,J

H

越( ),说明模式的可1.19 基于熵的可分性判据定义为

H

ixi

c

i

1

分性越强。当P(

w

i

|

x

) =( )(i=1,2,…,c)时,J

H

取极大值。

1.20 Kn近邻元法较之于Parzen窗法的优势在于( )。

上述两种算法的共同弱点主要是( )。

1.21 已知有限状态自动机Af=(

,Q,

d

,q0,F),

={0,1};Q={q0,q1};

d

d

(q0,0)= q1,

d

(q0,1)= q1,

d

(q1,0)=q0,

d

(q1,1)=q0;q0=q0;F={q0}。现有输入字符串:

(a) ,(b) 1100110011,(c) 1,(d)0010011,试问,用Af对上述字符串

进行分类的结果为( )。

1.22 句法模式识别中模式描述方法有: 。

(1)符号串 (2)树 (3)图 (4)特征向量

1.23设集合X=

{

a,b,c,d

}

上的关系, R=

{

(a,a),(a,b),(a,d),(b,b),(b,a),(b,d),(c,c),(d,d),(d,a),

(d,b)

}

,则a,b,c,d生成的R等价类分别为 ( [a]R= ,[b]R= ,[c]R= ,[d]R=

)。

1.24 如果集合X上的关系R是传递的、( )和( )的,则称R是一个等价关系。

1.25一个模式识别系统由那几部分组成?画出其原理框图。

1.26 统计模式识别中,模式是如何描述的。

1.27 简述随机矢量之间的统计关系:不相关,正交,独立的定义及它们之间的关系。

1.28 试证明,对于正态分布,不相关与独立是等价的。

1.29 试证明,多元正态随机矢量的线性变换仍为多元正态随机矢量。

1.30 试证明,多元正态随机矢量

X

的分量的线性组合是一正态随机变量。

第二部分 分析、证明、计算题

第二章 聚类分析

2.1 影响聚类结果的主要因素有那些?

2.2 马氏距离有那些优点?

2.3 如果各模式类呈现链状分布,衡量其类间距离用最小距离还是用最大距离?为什么?

2.4 动态聚类算法较之于简单聚类算法的改进之处何在?层次聚类算法是动态聚类算法吗?比较层次

聚类算法与c-均值算法的优劣。

2.5 ISODATA算法较之于c-均值算法的优势何在?

2.6 简述最小张树算法的优点。

2.7 证明马氏距离是平移不变的、非奇异线性变换不变的。



ww

xxn

n

q

个。2.8 设,类

p

、将和

w

q

合并为

w

l

,则

w

l

q

的重心分别为

p

q

,它们分别有样本

p

n

l

n

p

+n

q

个样本。另一类

w

k

的重心为

x

k

。试证明

w

k

w

l

的距离平方是

n

p

n

k

+

n

l

n

q

n

k

+

n

l

n

p

n

q

n

k

+

n

l

D

2

kl

D

+

2

kp

D

-

2

kq

2

D

pq

2.9 (1)设有M类模式

w

i

,i=1,2,...,M,试证明总体散布矩阵S

T

是总类内散布矩阵S

W

与类间散布矩阵

S

B

之和,即S

T

=S

W

+S

B

(2)设有二维样本:x1=(-1,0)

T

,x2=(0,-1)

T

,x3=(0,0)

T

,x4=(2,0)

T

和x5=(0,2)

T

。试选用一种合适的方

法进行一维特征特征提取y

i

= W

T

x

i

。要求求出变换矩阵W,并求出变换结果y

i

,(i=1,2,3,4,5)。

(3)根据(2)特征提取后的一维特征,选用一种合适的聚类算法将这些样本分为两类,要求每类样

本个数不少于两个,并写出聚类过程。

2.10 (1)试给出c-均值算法的算法流程图;

(2)试证明c-均值算法可使误差平方和准则

J

(k)

j

1

c

x

i

w

(

j

k)

(k)T

(k)

(x

i

-

z

j

)(x

i

-

z

j

)

最小。

其中,k是迭代次数;

z

j

w

j

的样本均值。

2.11 现有2k+1个一维样本,其中k个样本在x=-2处重合,另k个样本在x=0处重合,只有1个在

x=a>0处。若a=2(k+1),证明,使误差平方和准则Jc最小的两类划分是x=0处的k个样本与x=a处

的1个样本为一类,其余为另一类。这里,

c N

j

Jc =

(x

i

-

m

j

)

2

j=1 i=1

其中,c为类别数,Nj是第j类的样本个数,xi

w

j,i=1,2,...,Nj,mj是第j类的样本均值。

(k)(k)

0



0



4



4



5



5



1

2.12 有样本集

{

0

,

1

,

4

,

5

,

4

,

5

,

0

}

,试用谱系聚类算法对其分类。



T

(x



2.13 设有样本集S=

到S中各样本点距离平方和

i

-

z)(x

i

-

z)

为最

{x

1

,x

2

,...,x

n

}

,证明类心

z

i

1

n

1

n

小时,有

z

x

i

n

i

1

2.14 假设s为模式矢量集X上的距离相似侧度,有

"x,y>0,s(x,y)>0

且当

a>0

时,

d(x,y)a/s(x,y)

。证明d是距离差异性测度。

2.15 证明欧氏距离满足旋转不变性。

提示:运用Minkowski不等式,对于两矢量

x[x

1

,L,x

l

]

T

d

min

(

s

min

),

d

max

(

s

max

),

d

avg

(

s

avg

),

d

mean

(

s

mean

)d(s)

,满足

(

x

i

+

y

i

)

i

1

2.16证明:

(a)如果s是类X上的距离相似侧度,

"x,y>0,s(x,y)>0

,那么对于

"a>0

s(x,y)+a

也是类X上的距离测度。

(b)如果d是类X上的距离差异性测度,那么对于

"a>0

d+a

也是类X上的距离差异性

测度

2.17 假设

f:

ssssssssssssssss

l

p

1/p

(

x

i

i

1

l

p

1/p

)

+

(

y

i

i

1

l

p

1/p

)

R

+

R

+

是连续单调递增函数,满足

f(x)

+

f(y)

f(x

+

y),

"

x,y

R

+

d是类X上的距离差异性测度且

d

0

ᆪ0

。证明

f(d)

也是类X上的距离差异性测度。

2.18 假设s为类X上的距离相似侧度,有

"x,y>0,s(x,y)>0

f:

数,满足

R

+

R

+

是连续单调递增函

f(x)

+

f(y)

f(

1

1

+

),

"

x,y

R

1

+

xy

证明

f(x)

是X上的距离相似侧度。

y

2.19 证明:对于模式矢量集X上任意两个矢量

x



(x,y)

(x,y)

(x

d

d

2

d

1

,y)

l



q

1/q



2.20 (a)证明公式

s

F

(x,y)

(

s(x

i

,y

i

))

1/q



的最大最小值分别是和

s

F

(x,y)

0.5l

i

1

q

(b)证明当

qᆪ+ᆪ



q



时,公式

s

(x,y)

(

s(x

i

,y

i

))

q

l

1/q

F

i

1



(x,y)

maxs(x

1

i

li

,y

i

)

s

F

2.21 假设d是模式矢量集X上的差异性测度,

sd

max

-d

是相应相似测度。

证明

X,C

s

avg

(x,C)

d

max

-

d

avg

(x,C),

"

x

��

psps

X

其中

s

ps

avg

d

ps

avg

是分别根据s和d所定义的。

Y

avg

的定义来自于下面公式,其中第一个集合

ps

只含有一个矢量。

提示:平均亲近函数

ps

Y

(D

i

,D

j

)

avg

1

n

D

i

n

D

j

ps

x

D

i

y

D

j

��

Y

(x,y)

,其中

n

D

i

n

D

j

分别是集合

D

i

D

j

的势。

即使

Y

是测度,显然

Y

avg

不是测度。在公式中,

D

i

D

j

中的所有矢量都参与计算。

2.22 假设

x,yᆪ{0,1}

l

。证明

d

2

(x,y)

d

Ham

min

g

(x,y)

T

2.23 考虑一维空间的两矢量,

x[x

1

,L,x

l

]

y[y

1

,L,y

l

]

T

x

-

y

i

i

max

j1

KK

l

{

x

j

-

y

}

,定义距离

(

x

,

y

)

j

d

n

d

n

(x,y)

x

-

y

i

i

l

1

+

l

-

[(l

-

2)/2]

j

1,j

i

x

-

y

i

i

这个距离曾被提议作为欧氏距离的近似值。

(a)证明

d

d

n

是距离。

(b)比较

n

d

2

的计算复杂度。

2.24 若定义下列准则函数

T

-

1

J

T

(x

-

m)

i

S

T

(x

-

m

i

)

i

1x

X

i

c

其中

m

i

X

i

N

i

个样本的均值向量,

S

T

是总散布矩阵,

(1)证明

J

T

对数据的非奇异线形变换具有不变性。

(2)证明把

X

i

中的样本

x

ˆ

转移到

X

j

中去,则使

J

T

改变为

J

J

T

-

[

*

T

N

j

N

j

+

1

ˆˆˆˆ

(x

-

m

j

)

T

S

T

-

1

(x

-

m

j

)

-

N

i

(x

-

m

i

)

T

S

T

-

1

(x

-

m

i

)]

N

i

-

1

(3)写出使

J

T

最小化的迭代程序。

%

)ᆪJ(G,K)

,则有2.25 证明对于C-均值算法,聚类准则函数满足使算法收敛的条件。(即若

J(G,K

%

)ᆪJ(G,K

%

)

%

,KJ(G

2.26 令

D

(y,K

j

)

11

-

1

(y

-

m

j

)

T

(y

-

m)

+

log|

j

|

是点到聚类的相似性度量,式中

m

jj

jj

22

是聚类

G

j

的均值和协方差矩阵,若把一点从

G

i

转移到

G

j

中去,计算由公式

J

K

��

D

(y,K

j

)

所示

i

1y

�G

j

c

J

K

的变化值。

第三章 判别域代数界面方程法

3.1 证明感知器算法在训练模式是线性可分的情况下,经过有限次迭代后可以收敛到正确的解矢量

w

3.2

(1)试给出LMSE算法(H-K算法)的算法流程图;

(2)试证明X

#

e(k)=0,这里, X

#

是伪逆矩阵;e(k)为第k次迭代的误差向量;

(3)已知两类模式样本

w

1:x1=(-1,0)

T

, x2=(1,0)

T

w

2:x3=(0,0)

T

,x4=(0,-1)

T

试用LMSE算法判断其线性可分性。

*

3.3 设等式方程组

Xw

b

,其中:属于

w

1

的样本作为

X

的前

N

1

行,属于

w

2

的样本作为

X

的后

行。证明:当余量矢量

b(

NNNN

,

L

,,,

L

,)

N

1

N

1

N

2

N

2

时,MSE解等价于Fisher解。



N

1

N

2

N

2





TTTTT

x{x

xxx

3.4 已知二维样本:

1

=(-1,0),

2

=(0,-1),=(0,0),

4

=(2,0)和

5

=(0,2),

1

,x

2

,x

3

}

w

1



{x

4

,x

5

}

w

2

。试用感知器算法求出分类决策函数,并判断

x

6

=(1,1)

T

属于哪一类?

3.4. 已知模式样本 x

1

=(0,0)

T

,x

2

=(1,0)

T

,x

3

=(-1,1)

T

分别属于三个模式类别,即, x

1

w

1

,x

2

w

2

,x

3

w

3

(1)试用感知器算法求判别函数g

i

(x),使之满足,若x

i

w

i

则g

i

(x)>0,i=1,2,3;

(2)求出相应的判决界面方程,并画出解区域的示意图。

给定校正增量因子C=1,初始值可以取:

w

1

(1)=(4,-9,-4)

T

,w

2

(1)=(4,1,-4,)

T

,w

3

(1)=(-4,-1,-6)

T

3.5 已知

w

1:{(0,0)

T

},

w

2:{(1,1)

T

},

w

3:{(-1,1)

T

}。用感知器算法求该三类问题的判别函数,并画出解区

域。

3.6 试证明:

|g(x)|

是在

T

(1)从

到超平面

的距离

r

g(x

q

)0

的约束条件下,使

w

g

(

x

)

wx+w

0

x

0



2

x

-

x

q

达到极小的解。



g(x)

(2)

在超平面上的投影是

x

p

x

-

2

w

w

x

3.7 设有一维空间二次判别函数

g(x)5+7x+9x

,试将其映射成广义齐次线性判别函数

2



g

(

x

)

a

T

y

g

(

x

)

x

1

+

2

x

2

-

2

3.8 对二维线性判别函数



T

g(x)

wx

+

w

g(x)0

的几何图形;(1)将判别函数写成

0

的形式,并画出

(2)将其映射成广义齐次线性判别函数

g

(

x

)

ay



T

T

a

(3)指出上述X空间实际是Y空间的一个子空间,且

y0

对X子空间的划分与原空间中



w

T

x+w

0

0

对原X空间的划分相同,并在图上表示出来。

3.9 指出在Fisher线性判别中,

w

的比例因子对Fisher判别结果无影响的原因。

3.10 证明两向量外积组成的矩阵一般是奇异的。

3.11 证明,在几何上,感知器准则函数值正比于被错分类样本到决策面的距离之和。

3.12解释为什么感知器函数是一个连续分段的线性分类器。

3.13如果在感知器算法中

r

r

k

,那么在

k

0

w

(

0

)

-

a

w

2

*

b

r

(

2

-

r

)

步之后,这个算法收敛,其中

a

b

g

2

r

<2

3.14证明感知器算法的正确分类和错误分类在有限个反复的运算以后是收敛的

3.15 考虑一种情况,在类

w

1

中包含两个特征向量,

[

0,1

]

T

。类

w

2

中包含

[

1,0

]

[

1,1

]

T

T

两个

向量。根据感知器算法,其中

r

1

w

(0)

[

0.5,0.5

]

m

T

1

T

,设计一个线性分离器来区分这两类

3.16在上一章2。12问题中两分类问题中,取

[

1,1

]

,

m

[

0,0

]

,

s

2

s

2

0.2

.对于每一类产

2

12

T

生50个向量。为了确保对于这两类的线性分离,对于向量[1,1]类确保

x

+

x

12

<

1

对于[0,0]向量类

x

+

x

12

>

1

。下面的步骤就是使用这些向量去设计一个线性分类器使用(3.21)中的感

知器算法。在收敛以后,画出相关的判定线

3.17 假如2.12问题中是多类分类问题,每一类有100个样本点。根据LMS算法使用这些数据去设计一

个线性分类器。当所有的点被带入这个算法中进行计算的时候,画出这个算法收敛的相关超平面。其中

r

r

k

0.01

,然后使用

r

0.01

。观察这个结果

3.18 证明,使用KESLER构造器,经过前面3。21感知器算法的有限步正确与错误分类计算后,对于一

x

()

w

ti

,变为

w

i

(

t

+

1

)

w

i

(

t

)

+

r

x

(

t

)

if

w

i

i

w

i

(

t

+

1

)

w

i

(

t

)

-

r

x

(

t

)

w

k

(

t

+

1

)

w

k

(

t

)

x

()

,

if

w

x

()

<

w

(

t

)

x

()

,

t

TT

jtt

T

x

(

t

)

<

w

j

(

t

)

"

k

j

T

j

i

j

i

andk

i

3.19 证明理想权重向量的误差平方和趋渐进于MSE的解。

3.20使用均方误差和的原则解问题3.6并设计一个线性分类器。

3.21证明设计一个M类的线性分类器,有最佳误差平方和。分类器减少到M等价个有相应的效果。

3.22证明,假如x,y服从联合高斯分布,对于x条件下y的分布是

E

[

y

|

x

]

as

x

+

m

-

as

m

ss

y

y

y

xx

x

�

a

sass

sss

xx

2

xyy

2

y

k

3.23 取M类分类器按照参数函数

gx;

(

w

)

的形式存在,目的是估计参数

w

k

,使得分类器根据输入

向量x能够产生期望的响应输出值 。假设在每一类中x是随机分布,分类器的输出根据相关期望响应值

的不同而不同。按照高斯已知变量的一个高斯分布,假设所有的输出都是相同的。证明按照误差平方和

的原则,ML估计是产生一个等价的估计值。

提示:在已知的类别当中取出N个训练样本值。对于他们中的每一个形成

y

i

i

g

(

x

i

;

w

k

)

-

d

k

d

i

k

是第k类中第i个样本点的期望响应值。

y

s

服从正态0均值,方差为

s

i

'

2

的分布。这个似然函数使用

y

s

i

'

3.24在二类分类问题中,贝叶斯最佳判定截面是通过

g

(

x

)

P

(

w

|x

)

-

P

(

w

12

|x

)

0

给出,证明

MSE中训练一个判定界面

f

(

x;

w

)

,目的是对两类进行有效判别,相关的,它等价于在MSE最优感

知中,它等价于

f

(

x;

w

)

的渐进函数形式g(.).

3.25 假设在两类分类问题中有服从联合分布的特征向量,他们在有共同的方差

。设计一个线性MSE

分类器,证明在2.11问题中的贝叶斯分类器和这个结果的MSE分类器仅仅通过一个阈值就可以区分。

简化起见,仅仅考虑等概率的类的情况。

提示:计算MSE超平面

w

T

x

+

w

0

0

,增加x的维数,它的解按照下列方式提供,

R

E

x

[]

T

1

E

[

x

]

w

2

��

1

w

0

��

(

m

-

m

)

12

0

相关的R和

在MSE分类器中按照下列的形式给出

(

m

1

-

m

2

)

T

-

1

1

x

-

2

(

+>

(

<

)0

m

1

m

2

)

第四章 统计判决

4.1 使用最小最大损失判决规则的错分概率是最小吗?为什么?

4.2 当

S

i=

s

2I时,先验概率对决策超平面的位置影响如何?

4.3 假设在某个地区的细胞识别中正常

w

1

和异常

w

2

两类的先验概率分别为

正常状态 :

P(

w

1

)0.9

异常状态:

P(

w

2

)0.1

现有一待识的细胞,其观测值为

x

,从类条件概率密度分布曲线上查得

p(x

w

1

)0.2,p(x

w

2

)0.4

并且已知损失系数为

l

11

=0,

l

12

=1,

l

21

=6,

l

22

=0。

试对该细胞以以下两种方法进行分类:①基于最小错误概率准则的贝叶斯判决;②基于最小损失准则

的贝叶斯判决。请分析两种分类结果的异同及原因。

4.4 试用最大似然估计的方法估计单变量正态分布的均值

m

和方差

s

2

4.5 已知两个一维模式类别的类概率密度函数为

ì

x 0≤x<1

p(x

|w

1

)=

í

2-x1≤x≤2

î

0 其它

ì

x

-

1 1≤x<2

p(x

|w

2

)=

í

3-x 2≤x≤3

î

0 其它

先验概率P(

w

1)=0.6,P(

w

2)=0.4,

(1)求0-1代价Bayes判决函数;

(2)求总错误概率P(e);

(3)判断样本

{

x1=1.35,x2=1.45,x3=1.55,x4=1.65

}

各属于哪一类别。

4.6 在目标识别中,假定有农田和装甲车两种类型,类型

w

1

和类型

w

2

分别代表农田和装甲车,它们的

先验概率分别为0.8和0.2,损失函数如表1所示。现在做了三次试验,获得三个样本的类概率密度如

下:

p

(

x

/

w

1

)

:0.3,0.1,0.6

p

(

x

/

w

2

)

:0.7,0.8,0.3

(1)

(2)

(3)

试用贝叶斯最小误判概率准则判决三个样本各属于哪一个类型;

假定只考虑前两种判决,试用贝叶斯最小风险准则判决三个样本各属于哪一个类型;

把拒绝判决考虑在内,重新考核三次试验的结果。

表1

类型

损失

判决

w

1

w

2

a

1

a

2

a

3

0.5

5

2

3

1

2

4.7已知两个一维模式类别的类概率密度函数为

ì

2x, 0

x

1

p(x|

w

1

)

í

î

0, 其它

ì

2

-

2x , 0

x

1

p(x|

w

2

)

í

î

0 , 其它

先验概率P(

w

1

)=P(

w

2

),损失函数,

l

11

=

l

22

=0,

l

12

=0.6,

l

21

=0.4。

(1)求最小平均损失Bayes判决函数;

(2)求总的误判概率P(e);


本文标签: 算法 模式 距离 分类 证明