拿到offer,来还愿,写面经,
经历过春招实习的折磨,深深感觉自己差的很多,需要继续努力,一定要深入。
其实大部分还是围绕着项目的东西在聊,然后用到什么了就会延伸出一些问题。
一面:电话面
算法题:
1. 快排,面试官要求只能c++,问选择pivot的时候有没有加速的手段?
2. Python写个n-gram,用列表生成式把1-n gram生成(顺便问了生成器)
聊项目:
1. 人工特征工程和lighgbm模型特征处理的区别;
2. 你的特征为什么要这样构造;
3. 样本不平衡处理手段(重点聊了小样本只有一个的时候),为什么要这样处理;
4. 过拟合处理的手段,神经网络利用dropout和多项式回归利用正则项减轻过拟合的本质是什么(为什么就能减轻过拟合了);
5. 我项目有用到lightgbm和xgboost模型融合,lightgbm是xgboost的改进,那你为什么还要融合呢;
面试体验很好,就两个人互相聊天,感觉蛮亲切。
隔天两个电话都没接到,卒...哭泣...
应该是换部门了,
一面:腾讯会议
算法题:
有序数组找第K大元素
聊项目:
1. stacking,blending;
2. 神经网络和树模型的融合方式,神经网络处理过拟合的方式;
3. BN的细节,dropout的细节;
4. 项目:特征怎么构建的,效果怎么样?时序特征怎么处理的?为什么这样构造数据集?
5. AUC的细节,会不会代码实现
二面:腾讯会议
算法题:
二分查找翻转数组指定元素
聊项目:
1. 多进程和多线程的区别
2. 在浏览器输入网址后的一个过程,能说多详细就说多详细
3. 机器学习的一些问题:过拟合处理,模型融合,lightgbm处理分类问题的目标函数 4. 项目的一些细节
二面结束没多久,官网状态变为HR面,结果过几天直接灰了...哭泣。
换部门,
一面:腾讯会议
算法题:
1. 一个大文件,对里面的内容进行排序;
2. 一个大文件,里面的内容是有序的,如何打乱;
聊项目:
1. 决策树(ID3,C4.5,CART,GBDT,xgboost,lightgbm);
2. boosting和bagging的区别,重点是方差和偏差(整体和单棵树两个角度);
3. stacking和blending的细节;
4. 项目的一些细节;
5. 论文的一些细节;
6. 问了线性代数的内容(汗,本科学的忘的差不多了...)
7. 最后问了下深度学习的内容了解吗?也没问...
二面:
算法题:
1. 一维数组,最大连续序列和;
2. 二维数组,最大矩形区域和;
聊项目:
主要就是聊项目的细节了,问了下实习情况,会不会大数据这方面的内容,也说了部门负责的内容。
HR:聊人生...
3天后,offer call,开心!
全部评论
(7) 回帖