admin 管理员组文章数量: 887021
2024年2月27日发(作者:wide和width的区别)
人工智能深度学习技术练习(试卷编号131)
1.[单选题]随机梯度下降算法是()。A)MomentumB)AdamC)AdaGradD)SGD答案:D解析:难易程度:易题型:
2.[单选题]( )的建立通常是为解决实际问题和需要解决的问题而建立的模型A)架构B)数学模型C)流程图D)数据集答案:B解析:
3.[单选题]判断当前时间步信息是否存储入状态的门是:A)遗忘门B)输入门C)输出门D)更新门答案:B解析:
4.[单选题]与传统机器学习方法相比,深度学习的优势在于A)深度学习可以自动学习特征B)深度学习完全不需要做数据预处理C)深度学习完全不提取底层特征,如图像边缘、纹理等D)深度学习不需要调参答案:A解析:
5.[单选题]我们课堂中最早使用的第一个手写数字识别神经网络使用那个深度学习框架()。A)飞桨B)TensorFlowC)PytorchD)以上都不是答案:D解析:难易程度:易题型:
6.[单选题]YOLO是Joseph Redmon和Ali Farhadi等人于2015年提出的第一个基于单个神经网络的目标检测系统。在今年CVPR上,Joseph Redmon和Ali Farhadi发表的YOLO 2进一步提高了检测的( )和速度A)精度B)细度C)难度D)力度答案:A解析:
7.[单选题]resnet网络中,如果通道数有变化,那么跃迁方式是A)直接使用原有数值B)使用1*1卷积核改变通道C)不做跃迁D)使用3*3卷积核改变通道答案:B解析:
8.[单选题]基础的神经网络只在层与层之间建立了权连接,RNN最大的不同之处就是在层之间的神经元之间也建立的( )A)权连接B)层连接C)前馈连接D)反馈连接答案:A解析:
9.[单选题]可以在同一个会话中运行两个图吗?()A)可以B)不可以C)可能可以D)以上都错答案:B解析:
10.[单选题]双曲正切函数指的是那一个函数?A)Sigmoid函数B)tanh函数C)ReLUD)leaky ReLU答案:B
解析:
11.[单选题]是把训练样本分成k份,在验证时,依次选取每一份样本作为验证集,每次实验中,使用此过程在验证集合上取得最佳性能的迭代次数,并选择恰当的参数。A)K均值验证B)K-flod交叉验证C)K-means验证D)K-折线验证答案:B解析:K-flod交叉验证是把训练样本分成k份,在验证时,依次选取每一份样本作为验证集,每次实验中,使用此过程在验证集合上取得最佳性能的迭代次数,并选择恰当的参数。
12.[单选题]下列不属于ndarray的属性的是()。A)ndimB)shapeC)sizeD)add答案:D解析:难易程度:易题型:
13.[单选题]Siamese网络从数据中去学习一个相似性( ),用这个学习出来的度量去比较和匹配新的未知类别的样本。A)度量B)范数C)欧式距离D)模答案:A解析:
14.[单选题]当使用conv2D层作为模型第一层时,需要提供 () 参数A)inputB)input_shapeC)input_dimD)output_dim答案:B解析:
15.[单选题]pytorch的开发公司是A)googleB)facebookC)yamazoonD)baidu
答案:B解析:
16.[单选题]以下程序输出结果是多少?Import tensorflow as tfA = nt (1)B = nt (1)C = (a, b)Print (c)With n () as sess:Print ( (c))A)2B)[1 , 1]C)[2]D)[0 , 1]答案:A解析:
17.[单选题]使用类创建模型时,正向传播函数是A)fitB)initC)buildD)call答案:D解析:
18.[单选题]卷积网络在本质上是一种输入到输出的( ),它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式。A)卷积B)池化C)全连接D)映射答案:D解析:
19.[单选题]就是常用的()A)全连接层B)半连接层C)直接连接D)嵌入连接答案:A解析:
20.[单选题]通过pandas中的( )调用混淆矩阵,来查看哪些结果最容易混淆,对角线部分,为正确预测的部分,其它部分则是预测错误的部分。A)crosstabB)crossroadC)crosstroyD)crosslab答案:A解析:
21.[单选题]对y=sigmoid(x)函数对x的导数可以写成A)y(1+y)B)exp(-x)C)1-exp(-x)D)y(1-y)答案:D解析:
22.[单选题]神经网络需要激活函数,其原因是可实现A)解决线性可分性B)非线性分类C)归一化D)正则化答案:B解析:
23.[单选题]在Keras中,fit函数的参数:validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。其不指定时默认值是()A)1B)0.5C)0.2D)0答案:D解析:在Keras中,fit函数的参数:validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。其不指定时默认值是0
24.[单选题]深度学习模型训练,一个训练过程的完成可以不包含()A)数据集加载B)优化器设置C)网络搭建
D)学习率调整答案:D解析:进行深度学习模型训练,一个训练过程的完成包含以下几点: 1.数据集加载 2.网络搭建3.优化器设置 4.学习率调整(可选)
25.[单选题]Xavier初始化是最为常用的神经网络权重初始化方法,下图是初始化的公式。Xavier初始化是用来帮助信号能够在神经网络中传递得更深,下面哪些叙述是对的?1 如果权重一开始很小,信号到达最后也会很小2 如果权重一开始很大,信号到达最后也会很大3 Xavier初始化是由高斯发布引出的4 Xavier初始化可以帮助减少梯度弥散问题 BA)234B)1234C)124D)134答案:B解析:
26.[单选题]Tf定义一个标量变量X,其语句是A)X = tf. variable (2.0,shape=[1,2])B)X = le (2.0,dtype=32)C)X = tf. variable (2.0,shape=[1,2])D)X = tf. constant (2.0,btype=32 )答案:B解析:
27.[单选题]数据管道从文件夹获取数据的方式是:A)from_tensor_slicesB)flow_from_directoryC)make_csv_datasetD)list_files答案:D解析:
28.[单选题]Which of the following are reasons for using feature scaling?A)It prevents the matrix XTX (used in the normal equation) from being no n-invertable(singular/degenerate)B)It speeds up gradient descent by making it require fewer iterations to get to a goodsolution.C)It speeds up gradient descent by making each iteration of gradient descent lessD)It is necessary to prevent the normal equation from getting stuck in local optima答案:B解析:
29.[单选题]Keras中进行独热处理的代码是A)to_categorical()B)OneHotEncoder()C)eye()D)diag()答案:A解析:
30.[单选题]卷积层通过过滤器从高维数据中提取特征,增加了输出的深度(特征数),那么,最大池化层的作用是()A)增加输出维度(宽高)B)降低输出维度(宽高)C)保持输出维度(宽高)D)以上均不正确答案:B解析:
31.[单选题]卡耐基梅隆大学的 Dean Pomerleau 在上世纪 80 年代末基于( )制造了一辆自动驾驶汽车A)BP算法B)神经网络C)前向算法D)NFC答案:B解析:
32.[单选题]关于TensorFlow的描述,以下选项中错误的是()。A)TensorFlow是Python语育的一套优秀的CU图形库B)TensorFlow是谷歌公司基于DistBelief进行研发的第二代人工智能学习系统C)Tensor(张逊)指N维数组,Flow(流)指燕于数据流图的计算D)TensorFlow描述张量从流图的一端流动到另三端的计算过程答案:A解析:难易程度:易题型:
33.[单选题]Session 是 Tensorflow 为了控制,和输出文件的执行的语句. 运行 () 可以获得你要得知的运算结果,或者是你所要运算的部分通常要创建Session对象,对应的编程语句为:A)sess = n()B)()C)()D)()答案:A解析:
34.[单选题]神经网络中神经元的说法正确的是()A)一个神经元有多个输入输出B)一个神经元有多个输入和一个输出C)一个神经元有一个输入和多个输出D)以上都正确答案:D解析:难易程度:易题型:
35.[单选题]resnet和Inception使用()代替全连接处理A)平均池化B)最大池化C)1*1卷积D)3*3卷积答案:A解析:
36.[单选题]属于百度飞桨的开发套件()。A)PaddleClasB)PaddleC)PaddleSlimD)答案:A解析:难易程度:易题型:
37.[单选题]带有正则化处理的函数是A)reLuB)sigmoidC)softmaxD)dropout答案:D解析:
38.[单选题]# dropout in the input layer with weight constraintdef create_model():# create modelmodel = Sequential()A:(Dropout(0.2, input_shape=(60,)))B:Dropout(0.2, input_shape=(60,))(Dense(60, kernel_initializer='normal', activation='relu',kernel_constraint=maxnorm(3)))C:(Dropout(0.2, input_shape=(60,)))
D:Dropout(0.2, input_shape=(60,))(Dense(30, kernel_initializer='normal', activation='relu',kernel_constraint=maxnorm(3)))(Dense(1, kernel_initializer='normal', activation='sigmoid'))# Compile modelsgd = SGD(lr=0.1, momentum=0.9, decay=0.0, nesterov=False)e(loss='binary_crossentropy', optimizer=sgd, metrics=['accuracy'])return model上面代码中,向模型的第一个隐藏层添加Dropout功能,请问上面哪个代码是插入正确的?A)(Dropout(0.2, input_shape=(60,)))B)Dropout(0.2, input_shape=(60,))C)(Dropout(0.2, input_shape=(60,)))D)Dropout(0.2, input_shape=(60,))答案:C解析:
39.[单选题]下列关于循环控制语句的说法正确的是()。A)break语句的作用是终止整个程序B)continue语句的作用是终止整层循坏C)pass语句的作用是终止一层循环中的某一次循环D)break和continue语句采用不同方式终止循环,pass语句仅仅是一个占位符答案:D解析:难易程度:中题型:
40.[单选题]关于agg方法,下列说法错误的是()。A)返回标量值和数组B)可接收Numpy函数C)可对分组的不同列指定作用的函数D)可同时接收多个函数答案:A解析:难易程度:中题型:
41.[单选题]下面哪个选项可以直接读取一副灰度图像( )A)(path)B)(path,0)C)(path,1)D)(path,-1)答案:B解析:(filename, flags)参数:filepath:读入imge的完整路径flags:标志位,{_COLOR,_GRAYSCALE,_UNCHANGED}_COLOR:默认参数,读入一副彩色图片,忽略alpha通道,可用1作为实参替代_GRAYSCALE:读入灰度图片,可用0作为实参替代_UNCHANGED:顾名思义,读入完整图片,包括alpha通道,可
用-1作为实参替代PS:alpha通道,又称A通道,是一个8位的灰度通道,该通道用256级灰度来记录图像中的透明度复信息,定义透明、不透明和半透明区域,其中黑表示全透明,白表示不透明,灰表示半透明
42.[单选题]relu( )的结果是多少A)0B)0.5563543C)10D)1答案:C解析:
43.[单选题]基于切比雪夫距离的单位园是一个A)圆形B)45度的正方型C)正方形,其边与xy轴平行D)不确定答案:C解析:
44.[单选题]根据以下代码,选择z的输出结果A=nt([1,2,3], [4,5,6])Z=_sum(a)A)21B)[5, 7, 9]C)[6, 15]D)以上都不正确答案:A解析:
45.[单选题]CNN最后使用全连接的作用是:A)有更多的神经元进行处理B)一种形式C)让网络使用softmax处理D)不做也可以答案:C解析:
46.[单选题]keras输入20个特征,30个神经元表达正确的是A)Dense(30, input_shape=(20)B)Dense(20, input_shape=(30)C)fit(data,labels,20, 30)
D)fit(data,labels,30, 20)答案:A解析:
47.[单选题]Activation function Rectified Linear Unit即激活函数ReLU,它的作用是( )A)引用了无效的单元格地址B)过滤无效神经元C)不是激发函数D)将正数保留,将负数置0答案:D解析:
48.[单选题]已知- 大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。- 每一个神经元都有输入、处理函数和输出。- 神经元组合起来形成了网络,可以拟合任何函数。-为了得到最佳的神经网络,我们用梯度下降方法不断更新模型给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?A)加入更多层,使神经网络的深度增加B)有维度更高的数据C)当这是一个图形识别的问题时D)以上都不正确答案:A解析:难易程度:易题型:
49.[单选题]以下选项中不是Python数据分析的第三方库的是()。A)requestsB)numpyC)scipyD)pandas答案:A解析:难易程度:易题型:
50.[单选题]在神经网络中引入了非线性的是( )A)下降B)修正线性单元(RelLU)C)多维输入数据D)以上都不正确答案B答案:B解析:
51.[单选题]加权平均值是通过()得到的A)局部平均值
B)局部方差C)全局平均值D)全局方差答案:A解析:
52.[单选题]神经网络中参数的调试不包括A)学习率αB)动量梯度下降的参数βC)mini-Batch的大小D)输入图片大小答案:D解析:
53.[单选题]距离空间有多种多样,他们的目的是A)度量后比较B)求相关性C)求信息熵D)构成线性空间答案:A解析:
54.[单选题]图片修复是需要人类专家来进行修复的,这对于修复受损照片和视频非常有帮助。下图是一个终像修复的例子。现在人们在研究如何用深度学习来解决图片修复的问题。对于这个问题,哪种损失函数适用于计算像素区域的修复?CA)负对数似然度损失函数(Negative-logLikelihood loss)B)欧式距离损失函数(Euclidean loss)C)两种方法皆可D)两种法不可答案:C解析:
55.[单选题]如果一个神经网络用于预测一种事物的分类,例如分为A,B,C,D四类,那么下列哪一个激活函数适用于该神经网络的输出层?A)SigmoidB)TanHC)SoftmaxD)Relu答案:C解析:
56.[单选题]以下有关神经网络的描述,错误的是( )
A)model=(ayer(input_shape=(1)))((5activation=sigmoid))((tion=sigmoid))上述代码创建的神经网络的可训练的参数有16个。B)当输入是负数时ReLU激活函数的值可以不为0。C)Sigmoid激活函数把负无穷到正无穷的输入规范化为0到1的输出。D)Softmax激活函数将元素为负无穷到正无穷的输入向量。转化为每个元素都在0到1的输出向量。并且各分量的和为1。答案:B解析:
57.[单选题]X的定义是Variable或constant则 print(_shape())输出:A)X张量描述B)X的数据值C)X的数轴数D)X的数据长度答案:A解析:
58.[单选题]计算机视觉,主要研究方法是A)机器学习B)数据挖掘C)卷积神经网络D)openCV答案:C解析:
59.[单选题]()并不会改变网络,他会对神经元做随机删减,从而使得网络复杂度降低,有效的防止过拟合。A)Batch NormalizationB)L1正则化C)L2正则化D)Dropout答案:D解析:Dropout并不会改变网络,他会对神经元做随机删减,从而使得网络复杂度降低,有效的防止过拟合。
60.[单选题]激活函数能A)用于卷积后数据B)用于卷积核C)用于步长D)不能用到全连接层答案:A
解析:
61.[单选题]输入大小为64X64的黑白图像,卷积核5X5,步长为1,填充方式为“VALID”,卷积后图像尺寸为A)59B)60C)58D)61答案:B解析:
62.[单选题]卷积的过程尤为清晰:在坐标轴上让x(n)保持不动,先把h(n)( ),然后不断执行二者重合部分相乘求和然后让h(n)滑动的过程。A)反转B)减小C)增加D)倒置答案:A解析:
63.[单选题]下列关于激活函数,说法正确的是:A)神经网络中最好的激活函数是sigmoidB)激活函数有正则化作用C)dropout是CNN中的激活函数D)神经元输出后需要给定一个激活函数答案:D解析:
64.[单选题]Cross Entropy交叉熵主要度量两个( )分布间的差异性信息A)概率B)矢量C)矩阵数据D)空间答案:A解析:
65.[单选题]在课堂中使用预测器对那个单位进行互相转换()A)英里和海里B)英里和千米C)海里和千米D)公里和千米答案:B
解析:难易程度:易题型:
66.[单选题]一幅彩色数字图像,分辨率为1024*768,请问在计算机中存储需要多少空间?A)0.28MBB)1.28MBC)2.28MBD)3.28MB答案:C解析:
67.[单选题]DataLoader中shuffle的作用是A)批次大小B)是否乱序(数据洗牌)C)使用多进程读取数据,设置的进程数。D)是否丢弃最后一个样本数量不足batch_size批次数据。答案:B解析:
68.[单选题]神经网络中使用的激活函数()。A)Sigmoid函数B)阶梯函数C)余弦函数D)正弦函数答案:A解析:难易程度:易题型:
69.[单选题]( )是定义在单个样本上的,是指一个样本的误差A)损失函数(Loss Function)B)代价函数(Cost Function)C)目标函数(Object Function)D)范数答案:A解析:
70.[单选题]tensorflow2.0诞生的时间是:A)2020.10.01B)2019.10.01C)2018.09.10D)2010.06.01答案:B解析:
71.[单选题]在卷积神经网络中,函数()可以返回vector中的最大值的索引号或者是最大值的()A)上标B)下标C)坐标D)内积答案:B解析:
72.[单选题]控制是否循环神经每次都输出结果的参数是A)return_sequencesB)num_classesC)unrollD)training答案:A解析:
73.[单选题]彩色图片数据()维张量A)1B)2C)3D)4答案:C解析:
74.[单选题]什么是TensorFlow的核心的基本数据单元?A)张量B)向量C)纯量D)以上都不是答案:A解析:
75.[单选题]在深度学习中的目标检测中会检测出多个目标框,后期需要通过非极大值抑制去除得分低并且iou( )阈值的目标框A)小于B)大于C)等于D)大于或小于答案:B解析:
76.[单选题]关于索引对象,下列说法错误的是()。A)可通过Series接收索引参数并进行创建B)MultiIndex是层次化索引对象C)索引对象可以修改D)isin是索引对象的一种方法答案:C解析:难易程度:中题型:
77.[单选题]如果x的值是True,那么(x, 32)的值是什么?A)0.0B)1.0C)FalseD)True答案:B解析:
78.[单选题]池化效果层没有的属性是A)步长B)权重参数C)0填充D)池化核答案:B解析:
79.[单选题]与 Inception 同年提出的优秀网络还有( ),它相比于 AlexNet 有更小的卷积核和更深的层级A)VGG-NetB)InceptionC)ResNetD)LeNet-5答案:A解析:
80.[单选题]自顶向下设计主要由下列哪个语法元素实现?()。A)面向对象B)函数C)循环结构D)过程答案:B解析:难易程度:易题型:
81.[单选题]对于以下线性运算的结果向量,如果要映射成概率结果,需要函数:
A)xB)tC)lD)2d答案:A解析:
82.[单选题]Vanishing Gradient Problem 问题是( ),这个问题是在神经网络框架设计中经常出现的问题,例如隐藏层设计过多而导致的。A)梯度消失问题B)卷积C)池化D)全连接答案:A解析:
83.[单选题]下面能够实现激活函数操作的语句是:A)h_conv1 = ( conv_ret1 )B)h_conv1 = t( conv_ret1 )C)h_conv1 = ( conv_ret1 )D)h_conv1 = .l2_loss( conv_ret1 )答案:A解析:
84.[单选题]自然语言处理领域中,判断两个单词是不是一对上下文词(context)与目标词(target),如果是一对,则是()?A)负样本B)无效样本C)学习样本D)正样本答案:D解析:
85.[单选题]百度飞桨中训练配置流程的最后一步是()。A)指定运行训练的机器资源B)设置优化算法和学习率C)声明模型实例D)加载训练和测试数据答案:B解析:难易程度:易题型:
86.[单选题]在神经网络中,下列哪种技术用于解决过拟合
A)DropoutB)VariableC)SoftmaxD)Relu答案:A解析:
87.[单选题]为了屏蔽一些不必要的警告和错误,常使用编程语句例如n['TF_CPP_MIN_LOG_LEVEL'] = '2'主要作用是屏蔽什么?A)警告B)错误C)警告和错误D)反汇编过程答案:C解析:
88.[单选题]使用1*1卷积思想的网络模型是A)lenetB)alexnetC)resnetD)inception答案:D解析:
89.[单选题]在深度神经网络中,全连接层的作用是A)滤波B)One-hot处理C)用于特征提取D)用于分类答案:D解析:
90.[单选题]局部平均值又被称为A)常规平均值B)栅格平均值C)移动平均值D)唯一平均值答案:C解析:
91.[单选题]什么是卷积?A)缩小图像的技术
B)放大图像的技术C)提取图像特征的技术D)过滤掉不需要的图像的技术答案:C解析:
92.[单选题]函数tanh值域范围是( )A)+1 和-1B)+0 和-1C)+1 和0D)+2 和-2答案:A解析:
93.[单选题]神经网络中的每个节点称为()。A)神经元细胞B)神经元C)神经细胞D)细胞答案:B解析:难易程度:易题型:
94.[单选题]关于drop_duplicates函数,下列说法中错误的是()。A)对Dataframe的数据有效B)仅支持单一特征的数据去重C)数据有重复时默认保留第一个数据D)该函数不会改变原始数据排列答案:B解析:难易程度:中题型:
95.[单选题]c = nt([3,2.0,5],[1,6,0],[9,0,0]]),print(),该程序输出结果为A)
96.[多选题]有训练集包含num个训练样本,交叉熵在tf中的表述是:A)entropy = -_sum(y_actual*(y_predict))B)entropy = -_mean(y_actual*(y_predict))
C)entropy = -_max(y_actual*(y_predict))D)entropy = -_any(y_actual*(y_predict))答案:AB解析:
97.[多选题]如果一个时间步很重要,但是要在很多个时间步后有效,可以使用什么模型进行处理A)RNNB)LSTMC)GRUD)BRNN答案:BC解析:
98.[多选题]被誉为近代人工智能领域的三驾马车的人物是:A)杨立坤YanLeCuB)辛顿C)BenGioD)比尔·盖茨答案:ABC解析:
99.[多选题]要权释机器学习/深度学习在人工智能体系中的作用,通常从机器感知、( )、( )三方面来进行A)感知B)理解C)决策D)证明答案:BC解析:
100.[多选题]在h_pool2_flat = e( h_pool2, [-1, 7*7*64] )这条语句的意义有:A)卷积层的终极输出是64幅图B)卷积层输出图片size是7X7C)将64幅7X7张量改写成一个向量D)h_pool2_flat是全链接层的输入数据答案:ABCD解析:
101.[多选题]神经网络层数越多,就会产生什么效果A)算法精度提升B)梯度消失风险越大C)计算时间越长
D)参数越多答案:ABCD解析:
102.[多选题]深度学习中通过动物来形容训练模型有A)熊猫法B)鱼子酱法C)猫狗法D)大鱼法答案:AB解析:
103.[多选题]语句train_(feed_dict={x: batch[0], y_actual: batch[1], keep_prob:0.5})这条语句的意义:A)train_step必须是优化器B)feed_dict接收训练集和标签集。C)要求百分之五十的神经元参与训练。D)这是训练过程的入口。答案:ABCD解析:
104.[多选题]下列属于序列处理多对一的场景是A)图像预测B)情感分类C)语音翻译D)写唐诗答案:AB解析:
105.[多选题]具有激活功能的函数有A)reluB)softmaxC)sigmoidD)tanh答案:ABCD解析:
106.[多选题]迁移学习之开发模型的方法包括那几种?A)选择源任务B)开发源模型C)重用模型D)调整模型
答案:ABCD解析:
107.[多选题]定义卷积核W_conv1 = weight_variable([5, 5, 5, 10])后A)尺寸5X5B)输入通道5C)输出通道5D)有10个卷积核答案:ABD解析:
108.[多选题]训练模型的三种方式:A)内置fitB)内置train_on_batchC)自定义训练循环D)内置compile答案:ABC解析:
109.[多选题]语句les_initializer语句可以A)初始化一个变量B)初始化多个变量C)初始化全部变量D)初始化常量答案:ABC解析:
110.[多选题]CNN网络结构中常用的处理有A)卷积层B)池化层C)全连接层D)激活函数答案:ABCD解析:
111.[多选题]模型的整体处理流程包含A)模型创建B)输入数据尺寸C)模型编译D)模型训练集预测答案:ABCD解析:
112.[多选题]逻辑回归S型曲线描述正确的是:A)输出结果是-1~+1B)0.5是分类的阈值C)输出的结果为正类别概率D)导数范围为0~0.25答案:BCD解析:
113.[多选题]在循环神经网络中,GRU中有几个门?A)输入门B)遗忘门C)重置门D)更新门答案:CD解析:
114.[多选题]AlphaGo下围棋的关键技术深度学习A)决策神经网络B)评估神经网络C)历史经验D)线性代数答案:AB解析:
115.[多选题]信息熵是对概率空间的整个系统描述,这里的概率空间描述正确的是:A)包含全部样本点B)可能有多种划分C)是核函数D)解决线性分类问题答案:AB解析:
116.[多选题]读入的图片,要想用tf卷积,需要A)将图片转换成张量B)需要按照tf的四元组格式C)需要定义卷积核D)定义步长答案:ABCD解析:
117.[多选题]timizer(1e-4).minimize(cross_entropy)意义:
A)定义学习步长B)优化器C)交叉熵损失函数D)开始训练答案:ABC解析:
118.[多选题]下列关于测试集,说法正确的是A)不管数据大小,始终保持30%作为测试集B)测试集和验证集不能共存C)在数据规模小时,可以保留30%测试集D)大数据时代,测试集不必占用数据集的30%,能够保证对模型的考核即可答案:CD解析:
119.[多选题]关于深度神经网络的构成,将卷积层放在前面,将全连接层放在后面,它们的作用是A)用卷积层提取特征B)pooling的下采样能够降低overfittingC)激活函数relu可以用到卷积层D)全连接层负责分类答案:ABCD解析:
120.[多选题]由深度神经网络构成的网络结构中,其构成通常会包括那些层?A)输入层B)卷积层(激活函数)C)池化层D)全连接层答案:ABCD解析:
121.[多选题]keras中fit函数的参数有A)dataB)labelsC)epochsD)batch_size答案:ABCD解析:
122.[多选题]例如集合外的一个点,该点到该集合的距离是A)是该点到集合边界点的最短距离B)是该点到集合内所有点的最短距离
C)是该点到集合内任意一点的距离D)是该点到集合内非边界点的某点的距离答案:AB解析:
123.[多选题]请选出常用的三种梯度下降的方法()A)批量梯度下降B)大批量梯度下降C)随机梯度下降D)小批量梯度下降答案:ACD解析:
124.[多选题]腾讯云硬盘产品提供( )云硬盘类型,不同的硬盘类型、性能、特点和价格均不同。A)高性能云硬盘B)SSD 云硬盘C)增强型 SSD 云硬盘D)极速型 SSD 云硬盘答案:ABCD解析:云硬盘产品提供高性能云硬盘、SSD 云硬盘、增强型 SSD 云硬盘及极速型 SSD 云硬盘四种云硬盘类型,不同的硬盘类型、性能、特点和价格均不同。
125.[多选题]Tensorflow中,函数x_cross_entropy_with_logits()的功能描述正确的是A)在卷积层B)进行优化C)用信息熵D)一定全连接层答案:BCD解析:
126.[判断题]embedding就是独热A)正确B)错误答案:B解析:
127.[判断题]分类问题用逻辑回归,预测问题用线性回归。A)正确B)错误答案:A解析:
128.[判断题]BP传播算法,主要由两个环节即(激励传播、权重更新)反复循环迭代,直到网络对输入的响应达到预定的目标/期望范围为止A)正确B)错误答案:A解析:
129.[判断题]随机梯度下降算法是每次考虑单个样本进行权重更新。A)正确B)错误答案:A解析:
130.[判断题]在Tensorflow中,若声明字符串类型,可以直接使用。A)正确B)错误答案:A解析:
131.[判断题]caffe的基本工作流程所有计算以层的形式表示,网络层所做的事情就是输入数据,然后输出计算结果。A)正确B)错误答案:A解析:
132.[判断题]pytorch不支持广播A)正确B)错误答案:B解析:
133.[判断题]原始样本数据集可以分为训练集、验证集和测试集( )。A)正确B)错误答案:A解析:
134.[判断题]关于信息,这个概念目前还没有明确定义。A)正确B)错误
答案:A解析:
135.[判断题]分类类型的代价函数相同A)正确B)错误答案:B解析:
136.[判断题]动量梯度下降法运行速度几乎总是快于标准的梯度下降算法A)正确B)错误答案:A解析:
137.[判断题]所谓损失函数,只有在训练的时候才参与运算,在训练以后,测试或应用中无需损失函数。A)正确B)错误答案:A解析:
138.[判断题]机器学习是实现人工智能的方法,深度学习是机器学习的算法之一。A)正确B)错误答案:A解析:
139.[判断题]如果需要对模型的参数(一般非标量)在训练过程中的变化进行可视化,可以使用_histogramA)正确B)错误答案:A解析:
140.[判断题]KNN可以用来够造神经网络( )。A)正确B)错误答案:B解析:
141.[判断题]全局变量初始化语句后,变量和常量都被初始化。
A)正确B)错误答案:B解析:
142.[判断题]torchvision是处理数据相关操作的A)正确B)错误答案:A解析:
143.[判断题]曼哈顿距离的正式意义为L1-距离或城市区块距离,也就是在欧几里德空间的固定直角坐标系上两点所形成的线段对轴产生的投影的距离总和A)正确B)错误答案:A解析:
144.[判断题]所谓图灵测试是一个典型思想实验。A)正确B)错误答案:A解析:
145.[判断题]在数字图像处理领域,将图像分为模拟图像和数字图像两种,计算机处理的信号都是数字信号,所以在计算机上处理的图像均为模拟图像。A)正确B)错误答案:B解析:
146.[判断题]zero_grad用于更新梯度A)正确B)错误答案:A解析:
147.[判断题]在深度多层感知机网络中,梯度爆炸会引起网络不稳定,最好的结果是无法从训练数据中学习,而最坏的结果是出现无法再更新的 NaN 权重值。A)正确B)错误答案:A
解析:
148.[判断题]在28x28的图像上使用3x3的过滤器后,输出将是26x26。A)正确B)错误答案:A解析:
149.[判断题]在使用SOFTMAX函数时,是将运算结果从向量空间转化到概率空间。A)正确B)错误答案:A解析:
150.[判断题]所谓积分运算,就是求积的极限A)正确B)错误答案:B解析:
151.[判断题]分类的交叉熵公式是统一的,没有区别A)正确B)错误答案:B解析:
152.[判断题]鞍点是多维空间中函数的最优解A)正确B)错误答案:B解析:
153.[判断题]激活函数也就是大于某个值输出1(被激活了),小于等于则输出0(没有激活)。这个函数是非线性函数。A)正确B)错误答案:A解析:
154.[判断题]Relu函数就是正数不变,负数取零的激活函数A)正确B)错误
答案:A解析:
155.[判断题]随机梯度下降在神经网络中引入了非线性。A)正确B)错误答案:B解析:
156.[判断题]GPU的计算能力远超CPU ( )。A)正确B)错误答案:A解析:
157.[判断题]给定概率空间,信息熵是针对有限个概率事件的。A)正确B)错误答案:A解析:
158.[判断题]通常说的信息熵总是在一个概率系统下才有意义。A)正确B)错误答案:A解析:
159.[判断题]深度学习的发展先后经过起源阶段、发展阶段、和爆发阶段。A)正确B)错误答案:A解析:
160.[判断题]反向传播过程中权重是同时更新的A)正确B)错误答案:A解析:
161.[判断题]提升卷积核(convolutional kernel)的大小会显著提升卷积神经网络的性能。A)正确B)错误
答案:B解析:
162.[判断题]多层感知器(Multi-Layer Perceptron,MLP)也叫人工神经网络(Artificial NeuralNetwork,ANN),除了输入输出层,它中间只能有一个隐藏层。A)正确B)错误答案:B解析:
163.[判断题]神经网络框架TensorFlow可以安装在Ubuntu、Mac OS和Windows系统平台上A)正确B)错误答案:A解析:
164.[判断题]如果使用的学习率太大,会导致网络收敛的快。A)正确B)错误答案:B解析:
165.[问答题]普通反向传播算法和随时间的反向传播算法(BPTT)有什么技术上的不同?A)与反向传播不同的。RPTT会在每个时间步长内减夫所有对应权重的梯度B)传播不同是,BPTT会在每个时间步长内叠加所有对应权重的梯度答案:B解析:
166.[问答题]神经网络的特征由_______决定权重参数的值答案:数据解析:
167.[问答题]请标出一下神经网络的参数符号答案:
>解析:
168.[问答题]编程:定义sum函数,参数 a 是 Variable,参数 b 是 constant,记 value 为 b 的值,计算从1+..+value的值,并将其结果存储在a节点中。
答案:import tensorflow as tfDef sum(a,b):(a,nt(0)).eval()i=1while i <=():_add(a,nt(i)).eval()i = i + 1解析:
169.[问答题]使用Opencv读取灰度图像并显示的代码如下,请补充完整。import cv2import numpy as npimg= ("./")grayImg=or(img, ____________)cv2.________("GrayImage",grayImg )答案:COLOR_BGR2GRAY|imshow解析:使用Opencv读取灰度图像并显示的代码如下,请补充完整。import cv2import numpy asnpimg= ("./")grayImg=or(img,COLOR_BGR2GRAY)("GrayImage",grayImg )
170.[问答题]神经网络以_______为线索寻找最优权重参数答案:损失函数解析:
171.[问答题]如果学习率太小,则可能发生()。较高的学习率有助于正则训练,但如果学习率过大,训练就会出现误差。A)欠拟合B)过拟合答案:B解析:
172.[问答题]编程:分别在两个不同的命令空间中定义两个变量,并在会话中输出变量名称。答案:Import tensorflow as tfWith _scope('foo'):a = le([1.0, 2.0], name='weights')With _scope('bar'):b = le([4.0, 2.0], name='weights')Init = _variables_initializer()With n() as sess:(init)
print()print()解析:
173.[问答题]写出Tanh激活函数的语法格式。答案:tf . (input_data ,name = None )解析:
174.[问答题]占位符实质上也是一种_____。答案:变量;解析:
175.[问答题]b是调整神经元被激活的_______的参数答案:容易程度解析:
176.[问答题]Dropout率和正则化有什么关系? AA)Dropout率越高,正则化程度越低B)Dropout率越高,正则化程度越高答案:A解析:
177.[问答题]批量梯度下降法首先遍历______数集,然后计算损失函数。答案:全部;解析:
178.[问答题]dropout = t(rt,0.3,noise_shape=[1,4]),该程序中,隐藏层节点按_____丢弃。答案:列;解析:
179.[问答题]设置图形标题的方法_______答案:title()解析:
180.[问答题]简述L1正则化和L2正则化的计算方法。答案:L1正则化为所有学习参数W的绝对值和,L2正则化为所有学习参数w的平方和让后求平方根
解析:
181.[问答题]tensorflow是_____公司推出来的深度学习框架。答案:谷歌;解析:
182.[问答题]神经网络一般包含三层:_______、_______、_______答案:输入层|隐藏层|输出层解析:
183.[问答题]写出下图的卷积运算的运算结果和运算过程答案:>解析:
184.[问答题]前馈网络分类能力和模式识别能力一般都( )于反馈网络。答案:强解析:
185.[问答题]训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些?答案:并不能说明这个模型无效,导致模型不收敛的原因可能有数据分类的标注不准确,样本的信息量太大导致模型不足以fit整个样本空间。学习率设置的太大容易产生震荡,太小会导致不收敛。可能复杂的分类任务用了简单的模型。数据没有进行归一化的操作。
解析:
186.[问答题]编程:Tensorflow完成一次线性函数计算。注:使用Tensorflow将各个不同的计算模块拼接成流程图,完成一次线性函数的计算,并在一个隐式会话中执行。答案:Matrix1 = nt([[3., 3.]]) #声明matrix1为TF的一个1*2的行向量Matrix2 = nt([[2.],[2.]]) #声明matrix2为TF的一个2*1的列向量Product = (matrix1, matrix2) #两个算子相乘,作为新算例Linear = (product, nt(2.0)) #将product与一个标量2求和拼接.作为最终的linear算例#直接在会话中执行linear算例,相当于将上面所有的单独算例拼接成流程图来执行With n() as sess:result = (linear)print(result)解析:
187.[问答题]读取单张灰度图片,使用(fname,as_grey=True)函数,第一个参数为图片路径,第二个参数为as_grey, bool型值,默认为False,下面是读取单张灰色图像并显示的代码,请补充完整。from skimage import ioimg=___________('d:/',as_grey=True)_________(img)答案:|解析:读取单张灰度图片,使用(fname,as_grey=True)函数,第一个参数为图片路径,第二个参数为as_grey, bool型值,默认为False,下面是读取单张灰色图像并显示的代码,请补充完整。from skimage importioimg=('d:/',as_grey=True)(img)
188.[问答题]正则化的方式有两种,分别是L1正则化和______。答案:L2正则化;解析:
189.[问答题]什么是权值衰减?权值的初始值应该如何设置,为什么不能设置为0?答案:①以减小权重参数的值为目的的进行学习的方法。②在误差反向传播法中,所有权重值都会进行相同的更新解析:
190.[问答题]编程:定义两个占位符,数据类型为16位有符号整型,喂入数据计算两个占位符的和与积,并输出结果。答案:Import tensorflow as tfA = older(dtype=16)
B = older(dtype=16)Add = (a, b)Mul = ly(a, b)With n() as sess:Print ("相加: %i" % (add, feed_dict={a: 3, b: 4}))Print ("相乘: %i" % (mul, feed_dict={a: 3, b: 4}))解析:
191.[问答题]损失函数一般使用_______和_______答案:均方误差|交叉熵解析:
192.[问答题]应用滤波器的位置间隔称为_______答案:步幅解析:
193.[问答题]编程:创建变量与常量,分别计算两者的和与积,并输出结果。答案:Import tensorflow as tfState = le(0, name='counter')One = nt(1)New_value = (state, one)Update = (state, new_value)Init = lize_all_variables()With n() as sess:(init)For _ in range(3):(update)Print((state))解析:
194.[问答题]绘制条形图的方法_______答案:bar()解析:
195.[问答题]简述tensorflow的构建阶段和执行阶段所做的操作。答案:TensorFlow 程序通常被组织成计算图的构建阶段和执行阶段。在构建阶段,节点的执行过程被描述成一个图,在执行阶段,使用会话执行图中的节点,产生结果。解析:
196.[问答题]定义一个初始值为[1,2,3]的整型变量的代码为_______。答案:le([1,2,3],dtype=32);
解析:
197.[问答题]常用的梯度下降方法包括批量梯度下降、________和小批量梯度下降法。答案:随机梯度下降;解析:
198.[单选题]程序设计中,返回了最大的那个数值的( )或下标后,接下来通常使用()进行逻辑判断A)上标B)索引号C)坐标D)内积答案:B解析:
199.[单选题]模型顺序简单,最使用使用()方式创建模型A)SequentialB)函数式API创建任意结构模型C)Model子类化创建自定义模型D)自定义函数答案:A解析:
200.[单选题]在深度学习中,如果输入图像有2个,经过10个卷积核卷积后,输出图像有A)2B)5C)10D)不确定答案:C解析:
版权声明:本文标题:人工智能深度学习技术练习(试卷编号131) 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/jishu/1709034564h536629.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论