问卷发布者还未购买企业标准版或企业标准版已到期,此问卷暂时不能被填写!

2021年春季深度学习师资培训班入学考试(CV班)

疫情浇不灭我们学习的热情,感谢您报名2021全国高校深度学习师资培训第14期(CV班)!为了保证此次培训效果达到最佳,特设置此测试,一共20道题目,全部为选择题,包含单选和多选,根据答题得分和报名信息综合择优录取。请您仔细阅读下面的考试规则,感谢您的理解和支持!
考试规则:
1.请保证报名本人作答,提交问卷则表示同意该要求
2.每人只有一次作答机会,限时30分钟,不可反复提交
3.只允许在全屏状态下作答,全程切屏(即鼠标离开考试页面)超过6次将立即结束考试
*
基本信息(请保证所填姓名和手机号与报名填写的姓名、手机号一致)
姓名:
姓名:
学校:
学校:
手机号:
手机号:
*
1.
在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为10w条数据,负样本只有1w条数据,以下最合适的处理方法是【多选题】
从10w正样本中随机抽取1w参与分类
将负样本重复10次,生成10w样本量,打乱顺序参与分类
将负样本每个权重设置为10,正样本权重为1,参与训练过程
直接进行分类,可以最大限度利用数据
*
2.
关于激活函数以下说法正确的是? 【多选题】
tanh函数对于规模比较大的深度网络计算速度比较慢
ReLU函数的正区间存在梯度消失的问题
ReLU函数计算速度和收敛速度都比tanh/sigmoid快
sigmoid函数在深度神经网络中梯度反向传递时容易导致梯度消失
*
3.
相对于DNN模型,CNN模型做了哪些改变?【多选题】
参数共享
使用了relu激活函数
增加了batch normalization
局部连接
*
4.
关于Python字典中,正确的是 【多选题】
可以使用字典对象的items()方法可以返回字典的“键-值对”
可以使用字典对象的keys()方法可以返回字典的“键”
可以使用has_key()方法来检验一个键值对是否存在
可以使用字典对象的values ()方法可以返回字典的“值”
*
5.
下列哪种不是Python元组的定义方式?
(1)
(1, 2, (3, 4))
(1, )
(1, 2)
*
6.
关于SVM泛化误差描述正确的是
超平面与支持向量之间距离
SVM对未知数据的预测能力
SVM对训练数据的划分能力
SVM的误差阈值
*
7.
假设有一个列表a,现要求从列表a中每3个元素取1个,并且将取到的元素组成新的列表b,可以使用语句
b=a[0:3]
b=a[1:3]
b=a[:2]
b=a[::3]
*
8.
关于欠拟合(under-fitting),下面哪个说法是正确的?
训练误差较大,测试误差较大
训练误差较小,测试误差较小
训练误差较小,测试误差较大
训练误差较大,测试误差较小
*
9.
下列哪种类型是Python的映射类型?
dict
list
tuple
str
*
10.
深度学习涉及到大量的矩阵相乘,现需要计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别为m∗n,n∗p,p∗q,且m < n < p < q,以下计算顺序效率最高的是
(AB)C
所有效率都相同
AC(B)
A(BC)
*
11.
假设你有一个变量 "example",如何判断它的类型?
type(example)
example.type:
getType(example)
Type(example)
*
12.
已知一个由全连接层构成的前馈神经网络,输入层有5个神经元,第一隐层有10个神经元,第二隐层有10个神经元,输出层有2个神经元,则神经模型中共有(   )条连接。
1000
27
170
80
*
13.
下面哪种网络架构属于前馈神经网络
A
B
C
以上都是
*
14.
以下哪个关键字是与 try 语句一起使用来处理异常的?
catch(a)
exception
except
catch
*
15.
与传统机器学习方法相比,深度学习的优势在于
深度学习不需要调参
深度学习完全不需要做数据预处理
深度学习完全不提取底层特征,如图像边缘、纹理等
深度学习可以自动学习特征
*
16.
在一个神经网络里,知道每一个神经元的权重和偏差是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,就可以近似任何函数。实现这个最佳的办法是
搜索所有权重和偏差的组合,直到得到最佳值
随机赋值,祈祷它们是正确的
赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重
以上都不正确
*
17.
下图中的数据是线性可分的吗?

不一定
不确定
*
18.
以下哪一个关于卷积神经网络的说法是错误的
卷积神经网络中的建模学习,学习对象是每一层神经元的值
典型的卷积神经网络,由卷积层、池化层、激活层、全连接层等组成
目标检测网络SSD的网络结构中包含卷积层
AlexNet是一个八层的卷积神经网络
*
19.
以下哪一个关于卷积神经网络的说法是错误的
多元神经网络可看成是一个复合的非线性多元函数。
Relu非线性激活函数的收敛速度比sigmoid要慢得多
输入一个300*300的RGB图像,经过10个5*5的卷积核,隐层的参数量为760(考虑偏置)。
在神经元总数相当的情况下,增加网络的深度可以比增加宽度带来更强的网络表示能力。
*
20.
以下现象属于过拟合的是
训练集loss下降,验证集loss不变
训练集loss上升,验证集loss上升
训练集loss下降,验证集loss下降
训练集loss下降,验证集loss上升
问卷星提供技术支持
举报