媒智科技一面(2019/8/13)
1. 说一下人脸识别哪些模型?
2. CosFace怎么做数据增强的,怎么做对齐?
3. 有哪些数据增强的方法(翻转,裁剪,有监督裁剪,面试官说了mixup,上下采样,增加不同惩罚)
4. 说下resnet网络,解决了什么问题;
5. 还有什么方式可以解决梯度消失问题(BN,LSTM)
6. 怎么调整学习率(指数衰减,轮数衰减,分数衰减,cos衰减,先大后小)
7. 机器学习知道哪些经典算法;
8. LR和SVM的联系和区别?
9. 用了高斯核的SVM和LR的区别(SVM就变成高斯分布,LR是逻辑斯蒂分布)
10. 知道哪些分类损失函数
11. 如何解决样本不平衡问题
12. 说下bagging和boosting;还有他们的代表算法
13. BN的中方差的作用,和PCA有什么联系(利用协方差矩阵进行剪枝)
14. 怎么利用BN的方差做剪枝(利用方差大小,去掉方差小的channel)
15. 说下BN层怎么做的,它的参数
16. 说下Kaggle分类项目;
全程40分钟;
去做分类,人脸识别,机器人等,基于项目
媒智科技二面(2019/8/16)
1. 说一下SVM的支撑向量;
2. 假如现在是二分类SVM的支撑向量有多少-视情况而定
3. 讲一下Kmeans,以及他的优化算法Kmeans++;
4. 如果Kmeans最后聚类效果不好的话,应该怎么优化?-合并类簇;
5. 有没有用真实数据做过Kmeans模型,真实数据应该怎么去优化;
6. 讲一下精确率,召回率,MAP;
7. 知道目标检测算法么;不太了解
8. 讲一下fasterrcnn和maskrcnn;不会
9. 讲一下focal loss-交叉熵多了一个alpha;
10. 为什么神经网络使用卷积层?-共享参数,局部连接;
11. 使用卷积层的前提条件是什么?-数据分布一致
12. 为什么使用激活函数;
13. 讲一下有哪些激活函数;
14. 讲一下过拟合;
15. 有哪些防止过拟合的方法;
16. 讲一下dropout的原理,具体实践怎么操作的-没答上来
17. 为什么可以防止过拟合?
18. 测试的时候要不要使用?
19. 倒置随机失活和普通的为什么可以等价(测试的时候都不用dropout,倒置随机失活还要乘以1/1-p)-这块炸裂,没答上来;
20. 残差结构为什么可以解决梯度消失问题?
21. Python中0.35/0.05等于多少?(python中/和//的区别)
22. 上个问题最后结果不等于7也不等于7.0你知道是因为什么原因吗?(面试官疯狂提示,换个说法,计算器怎么保存数字的,引出小数转二进制,最后发现0.05转二进制后是一个循环小数,没办法保存,所以最后结果不是7/7.0);
23. Python中深拷贝和浅拷贝的区别?
总时长48分钟,面试官做强化学习的,机械臂抓取,面试人数很多,很快出结果;
dropout需要加强;
媒智科技三面(2019/8/20)
1. 介绍一下51信用卡做的项目;
2. 你对人脸数据集预处理都有哪些方式,怎么做的?
3. 数据集是什么样子的,有多少?
4. 做了哪些数据增强?别的分类模型中使用的数据增强有哪些方式?
5. 别人有那么多方法,为什么你就只用了翻转;
6. 识别模型对了哪些改进;
7. 对于人脸图片曝光的问题你是怎么做的?为什么要那么做?
8. 用的什么指标,直接说出准确率的公式;
9. 这些改进后对于指标有提升吗?
10. 你用了验证集吗?没用的话怎么保证模型是有用的?
11. 你是把人脸识别模型当成分类模型来做的吗?
12. 假如说现在模型输入一张训练集中不存在的类的图片进行测试,会出现什么问题?
13. 说一下你的分类的项目?它的亮点是什么?
14. 知道哪些分类损失函数?-我用中文说损失函数,他直接说用英文说就行了。
15. 知道分类模型吗?
16. Resnet了解吗?他的性能最好的变体是哪个,结构是怎么样的,原理是什么?
17. 了解图像检索吗?
18. 知道minibatch-Gradient descent吗?为什么它的作用和batchGradient descent一样?Batch的值是不是越大越好?如果batch为1,会出现什么问题?
19. 你六级过了么。多少分,平时怎么看论文的。-因为面试官一直在说专业英语名词,有时候听不太清楚,所以问了这个问题;
20. 用softmax做分类函数,假如现在要对1w甚至10w类做分类会出现什么问题?-过拟合,怎么解决,面试官让自己想(不能使用softmax,使用三元组损失)
21. 如果我现在有一批工业零件,要做缺陷检测,但是有缺陷的零件样本很少,那你怎么解决呢?我提出训练一个模型只拟合正样本,然后输入负样本会判断他是负样本;继续问:那这个模型的结构是怎么样的,没答上来;(GANomaly模型结构)
22. 假如说前面用softmax得到一个值,那么我现在不用交叉熵函数,改用MSE会有什么问题呢?-说了一些,然而不对,问面试官,他说你自己想;(MSE不会收敛。第一、交叉熵函数计算loss是一个凸优化问题,MSE计算loss输出曲线是波动的,有很多局部极值点,变成一个非凸优化问题,不好收敛;第二、sigmod激活函数和mse一起使用时会出现梯度消失)
23. C++会么?学过一些,那我问个简单的好了;(int a=2;float *b;b=&a;cout*p;)输出值是多少?-说了是2.0,因为类型转换,面试官说你确定吗?你自己下去好好想想;(“int *”型的值不能分配给“float *”的实体)
24. 问你一道代码题:最长公共子序列知道么?知道的话怎么做?直接说状态转移方程,然后告诉我怎么做;时间复杂度是多少;O(n^2)
25. 求第K大的数,怎么做?说了冒泡,堆排序,快排变种;这三种的时间复杂度分别是多少;
26. 会计算感受野吗?两个k=3*3,s=1的感受野;一个k=3*3,s=1,一个k=3*3,s=2的感受野;两个k=3*3,s=2的感受野;一个k=3*3,s=2,一个k=3*3,s=1的感受野;一个k=3*3,s=1,一个k=3*3,s=1,膨胀率为2的空洞卷积感受野;一个k=3*3,s=1,一个k=3*3,s=2的反卷积感受野;反卷积的感受野不会,每次说了答案,都要问好几遍,你确认是这样的吗?
全程1小时16分钟,凉
全部评论
(8) 回帖