背景相关:
硕士澳洲八大,IT。本科末流985,非IT。硕士因为跨专业,学的是Course Work,期间运气比较好,有机会和几位老师一起做了几项ML相关的项目,因此毕业后找的工作都是算法相关的,希望能够帮助到正在找工作的小伙伴。
面经:
无论面试通过与否,都十分感谢在面试中遇到过的每一位面试官及HR小姐姐。
大多数的面试官都非常nice,都在有意的引导我回答出正确答案。
感觉面试比较玄学,面试过与不过,主要取决于基础知识,除此之外也取决于眼缘。
腾讯算法(一面挂):
一面:
1. 自我介绍
2. 项目细扣
3. LSTM与RNN的区别
4. 梯度消失/爆炸产生原因
5. 梯度消失解决方法
6. 梯度爆炸解决方法
7. Word2vec方法有哪些/区别
8. 集成学习了解吗
9. XGBOOST/GBDT简单介绍,区别
无手撕
字节跳动算法(三面挂):
一面:
1. CNN中感受野/权值共享
2. Resnet理解
3. Resnet相比全连接什么区别
4. Alexnet/VGG/Densenet/Googlenet
5. 什么是梯度消失/爆炸
6. RNN/LSTM解释
7. LSTM怎么缓解梯度消失/Resnet怎么缓解梯度消失
8. 有什么方法能解决梯度消失
9. 集成学习
10. XGBOOST理解
手撕两道:
1. Two sum
2. 最长公共子序列(理解成子串-子串手撕一遍,子序列在子串基础上修改)
二面:
1. 自我介绍
2. 项目细扣
3. 如何避免过拟合
4. LSTM理解
5. XGBOOST理解/损失函数/正则怎么算
6. XGBOOST与GBDT对比/ Random Forest理解/Boosting与Bagging对比
7. 为什么XGBOOST在大赛上表现很好/与GBDT相比优势
手撕两道:
1. 岛屿问题
2. 编辑距离
三面:
1. 自我介绍
2. TCP哪一层
3. HTTP/HTTPS区别
4. HTTPS为什么Security
5. 线程与进程
6. 锁/悲观锁乐观锁
手撕一道:
1. LC Hard。题目忘记了,只记得dfs+dp,撕了20多分钟才撕出来。
360算法:
一面:
1. 自我介绍
2. 项目细扣
3. 特征工程
4. Precision/Recall/F-score/ROC/AUC
5. AUC计算
6. 项目为什么选用AUC和F-score,为什么不选用Recall
7. LSTM与RNN的区别
8. 梯度消失/爆炸的原因及解决方法
9. word2vec方法介绍
10. Transformer了解吗/Bert了解吗
11. 除了神经网络,传统的机器学习算法了解吗
12. Boosting和Bagging区别
13. 简单介绍下XGBOOST/GBDT
14. XGBOOST和GBDT区别
15. SVM/SVM核函数
无手撕
二面:
1. 自我介绍
2. 项目细扣
3. Precision/Recall/F-score/ROC/AUC
4. LSTM与RNN
5. CNN中怎么做的卷积/卷积的优势/卷积之后接什么层/为什么做pooling/都有哪些pooling
6. 卷积层/Pooling层(mean/max)的反向传播
7. 卷积层参数量计算
8. 梯度消失/解决方法
9. Resnet
10. XGBOOST/GBDT/SVM/RF
11. 特征工程
12. 学过什么课/看了下成绩单
13. MapReduce/Spark/Hive
14. Mit6.824
手撕一道:
1. 记不太清了,没有Hard那么费劲,应该是Medium/Easy难度。
HR面:
1. 自我介绍
2. 跨专业/Gap一年干什么了
3. 爱好等个人问题
4. 城市选择
5. 部门选择理由
6. 期望薪资
7. 入职时间
华为硬件研究院算法(一面挂):
一面:
1. 自我介绍
2. 部门介绍
3. 岗位不太相符/为什么选择
4. 各基本算法理解/时间空间复杂度
5. 口述链表翻转
手撕两道:
1. 二分
2. 堆排序
东芝语音识别算法:
一面:
1. 自我介绍
2. CNN/RNN/LSTM理解
3. SVM/RF理解
4. Precision/Recall/F-scor/ROC/AUC
5. 语音识别算法
6. 特征工程
无手撕
笔试:
1. 前四道题都不难,LC Easy难度
2. Python Keras 搭一个基本的CNN
二面(全程英文):
1. 自我介绍
2. 为什么选择东芝
3. 澳洲生活
4. 入职时间
花椒直播算法:
一面:
1. 自我介绍
2. 项目细扣
3. 激活函数/比较
4. RNN理解
5. LSTM门控/作用/各门的激活函数选择原因
6. SGD/BGD/momentum/Adam对比
7. Adam优点
8. Resnet理解
9. CNN各种模块/名词解释
10. 梯度消失/爆炸的原因/缓解方法/解决方法
11. 常用的语言/库/tensorflow-Keras/Theano/Pytorch
12. 卷积层/Pooling层/dense层细扣
13. 集成学习/Boosting/Bagging
14. XGBOOST/GBDT/Random Forest
15. XGBOOST的损失函数
16. XGBOOST怎么避免过拟合/ XGBOOST正则
17. 随机森林的随机性体现在哪儿
18. LR/SVM理解
19. SVM核函数/作用
20. Wrangling/项目Wrangling解释
无手撕
二面(相当帅的一个小哥哥/眼睛带笑):
1. 自我介绍
2. 项目细扣
3. Word2vec理解/CBOW和Skip-gram对比
4. Bert
5. SVM理解/手推(太久没看了没推出来)
6. LR手推
7. XGBOOST/GBDT/Random Forest
8. 各模型参数解释/不同场合不同参数的影响
9. RNN/LSTM理解/对比
10. LSTM的方向传播
11. Kaggle比赛中LSTM及GRU的选择
12. CNN细扣
手撕一道:
1. 二分
2. 记不太清了,LC Medium难度
Boss直聘算法:
一面(面试官小姐姐很好看):
1. 自我介绍等
2. 项目细扣/各种参数/方法/架构等设置及原因(非常非常细)
3. 主要是关于大数据方面的考核,这方面并不擅长。
手撕一道:
1. 大数据相关的题
面试官小姐姐非常非常nice。大数据并不擅长,小姐姐一直在引导我,人也很美!
二面:
1. 自我介绍
2. 项目细扣
3. Word2vec理解/CBOW和Skip-gram对比
4. Bert
5. SVM
6. XGBOOST/GBDT/Random Forest
7. 激活函数
8. Optimizer对比
9. Adam优点
10. LSTM/RNN
11. 梯度消失/爆炸
12. 项目细扣
无手撕
三面:
1. 自我介绍
2. 项目细扣
3. 各种真实场景下的解决思路/例如做推荐都需要哪些特征,每种特征该怎么得到
无手撕
HR面:
1. 直切主题,很干脆,nice!
以上列出的是我能回忆起的比较有代表性的面试,其他公司例如其他互联网企业或国企银行等,如果有小伙伴需要也可以告诉我,if面试过,我会单独列出。除此之外,以上列出的面试经历也有很多问题记不太清了,可能或有一定程度的缺失。
希望大家都能拿到心仪的offer,也希望大家在日后的工作中更加努力,加油,加油,加油!
全部评论
(19) 回帖