机器学习与模式识别期末试题回忆

记录一下自己的考试题目

一 选择
1、给人脸打上标签再让模型进行学习训练的方法,属于( )
A.强化学习
B.半监督学习
C.监督学习
D.无监督学习
正确答案:C

2、下面哪几种机器学习的分类,完全不需要人工标注数据?
A.半监督学习
B.强化学习
C.无监督学习
D.监督学习
正确答案:B.C

3、机器学习中E, T、P分别表示:
A. Performance Measure
B. Task
C. Performance
D. Experience
正确答案: A, B,D

4、一般来说,在机器学习中,用计算机处理一幅的图像,维度是:
A.上万维
B.二维
C.三维
D.一维
正确答案:A

5、向量x=[1,2,3,4,-9,0]的L1范数是多少(B)
A. 1
B. 19
C. 6
D. sqrt(111)

6、关于L1正则和L2正则 下面的说法正确的是(BD)
A. L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B. L2正则化标识各个参数的平方的和的开方值。
C. L2正则化有个名称叫“Lasso regularization”
D.L1范数会使权值稀疏

7、Fisher线性判别函数的求解过程是将N维特征矢量投影在 (2)中进行 。 (1)二维空间 (2)一维空间 (3)N-1维空间

8、以下描述中,对梯度解释正确的是(AB)
A梯度是一个向量,有方向有大小
B求梯度就是对梯度向量的各个元素求偏导
C梯度只有大小没有方向
D梯度只有方向没有大小

9、.标准差与方差的关系是(ABC)
A标准差是方差的算术平方根
B标准差可以反映离散程度,也可以反映出样本的量纲
C方差只能反映离散程度
D标准差的平方是方差

10、 假设你在卷积神经网络的第一层中有 5 个卷积核,每个卷积核尺寸为 7×7,具有零填充且步幅为 1。该层的输入图片的维度是 224×224×3。那么该层输出的维度是多少?C
A. 217 x 217 x 3
B. 217 x 217 x 8
C. 218 x 218 x 5
D. 220 x 220 x 7

二 判断题

(1)给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小(T)
(2)当训练数据较少时更容易发生过拟合。(T)
(4)在核回归中,最影响回归的过拟合性和欠拟合之间平衡的参数为核函数的宽度。(T)
(7)梯度下降有时会陷于局部极小值,但 EM 算法不会。(F)
(9)Boosting 和 Bagging 都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重。(F)
(11) 一般来说,回归不用在分类问题上,但是也有特殊情况,比如logistic 回归可以用来解决0/1分类问题。(T)
(13)回归和分类都是有监督学习问题(T)
(15)在AdaBoost算法中,所有被错分的样本的权重更新比例相同(T)
(17)增加卷积核的尺寸,一定能提高卷积神经网络的性能。(F)
(21)两个变量相关,它们的相关系数 r 可能为 0 。(T)

三 简答题
1 简述模式和模式类的定义,老王和老头分别代表什么,哪一个是模式,哪一个是模式类?

2简述判别函数的两个影响因素

3简述贝叶斯算法的定义思路

4简述PCA的思路

5简述LLE的思路

四 程序填空题
kmeans算法填空,采用matlab编写(10个)

clear all;
close all;
clc;

N=4;%设置聚类数目 (1)
[m,n]=size(data);%表示矩阵data大小,m行n列
pattern=zeros(m,n+1);%生成0矩阵 (2)
center=zeros(N,n);%初始化聚类中心
pattern(:,1:n)=data(:,:);
for x=1:N
center(x,:)=data( randi(300,1),;);%第一次随机产生聚类中心
end (3)
while 1 %循环迭代每次的聚类簇;
distence=zeros(1,N);%最小距离矩阵 (4)
num=zeros(1,N);%聚类簇数矩阵
new_center=zeros(N,n);%聚类中心矩阵

for x=1:m
for y=1:N
distence(y)=norm(data(x,:)-center(y,:));%计算到每个类的距离 (5)
end
[~, temp]=min(distence);%求最小的距离 (6)
pattern(x,n+1)=temp;%划分所有对象点到最近的聚类中心;标记为1,2,3; (7)
end
k=0;
for y=1:N
for x=1:m
if pattern(x,n+1) = =y
new_center(y,:)=new_center(y,:)+pattern(x,1:n);
num(y)=num(y)+1;
end
end
new_center(y,:)=new_center(y,:)/num(y);%求均值,即新的聚类中心;
if norm(new_center(y,:)-center(y,:))<0.1%检查集群中心是否已收敛。如果是则终止。 (8)
k=k+1;
end
end
if k==N
break; (9)
else
center=new_center; (10)
end
end
[m, n]=size(pattern);

五 写出流程
例: 利用遗传算法计算下面函数的最大值:
f(x)=xsin(10π*x)+2 -1=<x<=2

1.设定参数:选择二进制编码,种群中个体数为40,每个种群长度为22,使用代沟为0.9,最大遗传代数为25,交叉率为0.7,变异率为0.0017。
二进制编码:假设要求求解精度到6位小数,区间长度为2-(-1)=3,即需将区间分3/0.000001=3×10 等份。所以编码的二进制串长应为22位。

2.初始种群:
产生的方式:随机
产生的结果:长度为22的二进制串
1111010011100001011000
1100110011101010101110
1010100011110010000100

3.计算适应度:直接用目标函数作为适应度函数
①解码:将个体i转化为[-1,2]区间的实数:
i=<1000101110110101000111> → x=0.637197
②计算x的函数值(适应度):
f(x)=xsin(10πx)+2.0=2.586345

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值