机器学习与数据
1、下面关于Transfer learning描述正确的是?A.借助与目标task不直接相关的数据去improve目标task的性能B.借助大量与task不相同但是domain相同的data去improve目标task的性能C.借助机器猫和米老鼠的图片实现现实中猫跟老鼠的照片进行分类识别D.借助网络上的文字去实现病人症状和体征的聚类分析答案:A, B, C, D难易程度:中题型:多选题2、与Tas
1、下面关于Transfer learning描述正确的是?
A. 借助与目标task不直接相关的数据去improve目标task的性能
B. 借助大量与task不相同但是domain相同的data去improve目标task的性能
C. 借助机器猫和米老鼠的图片实现现实中猫跟老鼠的照片进行分类识别
D. 借助网络上的文字去实现病人症状和体征的聚类分析
答案:A, B, C, D
难易程度:中
题型:多选题
2、与Task有关的数据称为Target data, Task没有直接相关的数据称为Source data, 下面关于Model Fine-tuning的描述正确的是:
A. Target data是unlabeled data, Source data是labeled data
B. Target data数量只有几个时,又称为one-shot learning
C.首先用source data 训练一个模型,再利用target data进一步训练该model
D. Target data是labeled data, Source data是labeled data
答案:B, C, D
难易程度:中
题型:多选题
3、下面关于Model Fine-tuning缺陷描述正确的是:
A. 因为Target data数据量少,容易出现training时性能好,testing时性能差
B. 可以通过设定最小化Target data training 的模型和Source data training 的模型的距离来规避缺陷(conservative traing)
C. 可以通过将source data training的部分中间层移花接木到Target data training 的模型中并且Target data training只training剩下没有training过的层的参数(layer transfer)
D. 可以通过设定相同输入数据条件下最小化Target data training 的模型输出数据和Source data training 的模型输出数据的二范数来规避缺陷
答案:A, B, C, D
难易程度:中
题型:多选题
4、下面关于Layer Transfer描述正确的是:
A. 语音识别通常Target data training model copy from Source data training model的层为模型的后几层
B. 语音识别通常Target data training model copy from Source data training model的层为模型的前几层
C. 图像识别通常Target data training model copy from Source data training model的层为模型的后几层
D. 图像识别通常Target data training model copy from Source data training model的层为模型的前几层
答案:A, D
难易程度:中
题型:多选题
5、下面有关Multitask描述正确的是
A. Model Fine-tuning只关注target task的性能,而Multitask同时关注target task和source task的性能
B. 共用常见疾病的NN model部分layer来实现罕见疾病和常见疾病的诊断分类
C. 应用于multilingual speech recognition
D. 应用于multilingual translation
E. Multitask因task之间的相异性会有把性能恶化的风险
答案:A, B, C, D, E
难易程度:中
题型:多选题
6、下面关于Domain-adversarial training描述正确的是
A. source data with label作为Training data, Target data without label作为Testing data,两者非常mismatch
B. source data和Target data的domain feature不同
C. 由feature extractor、label predictor、domain classifier组成
D. feature extractor与domain classifier处于互为对抗关系
答案:A, B, C, D
难易程度:中
题型:多选题
7、{
简述Domain-adversarial training如何实现feature extractor与domain classifier互为对抗?
}
{
答案:feature extractor目标是消除source data和target data之间的domain difference,即minimize domain classification accuracy,Domain classifier目标是maximize domain classification accuracy。feature extractor与domain classifier互为对抗可以引入gradient reversal layer来实现。
}
难易程度:中
题型:简答题
8、下面关于zero-shot learning描述正确的是?
A. source data with label作为Training data, Target data without label作为Testing data,且两者对应different tasks
B. testing data 往往不会再Training data中出现
C. testing data output分类依据其输入数据的属性与Training data输入数据属性越近的输出数据分类而判定
D. 当xn(如一幅图片)与yn(如图片中物品的分类)是一个pair(后者是前者的label),而xn与ym不是一个pair,则loss function不但缩小f(xn)与g(yn)的距离,而且拉大f(xn)与g(yn) 的距离
答案:A, B, C, D
难易程度:中
题型:多选题
9、{
针对Progressive Neural Networks,提出自己的改进想法?
}
{
答案:
Progressive Neural Networks:现有一个task 1,就先training 一个task 1的Neuro Network(NN), training 好以后task 1 NN 参数fix住,做task2 的training NN model时,它的每一个hidden layer 都会接task 1某一个hidden layer的output,所以这样training 的好处是,如果task 1 和task 2非常不像,首先task 2的data不会动到task 1的model, task 1的性能不会比原来更差,再者,task 2去借用task 1的参数,他可以把这些参数就直接设成0,最糟糕就是跟自己training 的性能差不多。依次类推,Task 3从 Task 1和Task 2的hidden layer 得到information。
改进想法如下:如设定滑窗大小w,则task i的hidden layer information只会影响task i+1、 task i+2、…、task i+w-1的hidden layer的input,进一步选择最佳滑窗大小}
难易程度:难
题型:简答题
10、Sigmoid 函数σ(-x)=______、冲激函数δ(-x)=______。
答案:1-σ(x);δ(x);
难易程度:中
题型:填空题
11、给定训练数据为
,训练模型为
,下面supervised 二分类learning loss function为square loss的是?
A. ![]()
B. ![]()
C. ![]()
D. ![]()
E. ![]()
答案:A
难易程度:中
题型:单选题
12、给定训练数据为
,训练模型为
,下面supervised 二分类learning loss function为hinge loss的是?
A. ![]()
B. ![]()
C. ![]()
D. ![]()
E. ![]()
答案:E
难易程度:中
题型:单选题
13、给定训练数据为
,训练模型为
,下面supervised 二分类learning loss function为理想 loss的是?
A. ![]()
B. ![]()
C. ![]()
D. ![]()
E. ![]()
答案:B
难易程度:中
题型:单选题
14、给定训练数据为
,训练模型为
,下面supervised 二分类learning loss function为sigmoid +cross entropy loss的是?
A. ![]()
B. ![]()
C. ![]()
D. ![]()
E. ![]()
答案:D
难易程度:中
题型:单选题
15、给定训练数据为
,训练模型为
,下面supervised 二分类learning loss function为sigmoid + square loss的是?
A. ![]()
B. ![]()
C. ![]()
D. ![]()
E. ![]()
答案:C
难易程度:中
题型:单选题
16、下面属于求解SVM的可行方法描述正确的是?
A. 梯度下降法
B. Cone Programming问题求解方法
C. KWIK算法
D. Quadratic Programming(二次规划)问题求解方法
答案:A, C, D
难易程度:中
题型:多选题
17、下面属于kernel for SVM描述正确的是?
A. linear kernel: ![]()
B. Radial Basis Function kernel: ![]()
C. sigmoid kernel: ![]()
D. Gaussian kernel: ![]()
答案:A, B, C, D
难易程度:中
题型:多选题
18、下面属于Recurrent Neural Network (RNN)描述正确的是?
A.有记忆的神经网络
B. The output of hidden layer are stored in the memory
C. Memory can be considered as another input
D. Neural不仅考虑输入数据而且考虑memory中的数据
答案:A, B, C, D
难易程度:中
题型:多选题
更多推荐



所有评论(0)