本人学渣一枚,春招实习有幸过了几家大厂,在此期间在牛客网得到了很多帮助,也特意分享一下自己的经验,希望能帮助到有需要的人。
阿里:
阿里的面试周期最长,最初2月份参加预面试,到正式面试到收offer,经历了2个月。
一面:1h
- 面试讲项目
- 项目中为什么使用lightGBM,比起xgboost的优点是什么
- 因果词向量的应用场景
- tf多个变量如何共享权重
- SGD min-SGD的区别
- 对epcho做shuffle,类似于哪一种优化器
- 介绍一下优化器
- 什么情况下不适用动量优化器
- WGAN,要保证梯度平滑,使动量优化器容易过拟合,防止梯度突变
- 介绍一下生成任务的做法
- 用auto-regression的模型
- beam-search,如何在做生成任务的时候,生成多个结果并且保证结果的多样性
- 非自回归的模型如何一次性生成整个句子
- 机器翻译的最新论文
- 做后序遍历,判断一个数组是否满足后序遍历
二面:1h
部门leader面
主要问项目,项目难点在哪里
介绍attention 和self.attention区别
算法题目:
- 给定x种硬币,凑齐y元
- 给2种硬币,非均匀,计算正反面的概率,随机选1枚,抛100次
- ,重复1000次,如何计算2种硬币的概率
阿里3面(交叉面):
lr模型的输入和输出分别是什么
lr对商品进行点击进行概率预测,输入需要做一些什么处理
Lr---对商品,估计商品点击的概率--预测
什么情况下需要将连续特征离散化--- One-hot
lr按照分布需要将特征如何进行离散化
树模型如何处理离散型特征
lr模型---根据做特征交叉,为什么
lr中如何缓解过拟合
减轻特征工程的手段,--如何构建更多的特征
coding题目: 黑盒子,n是3的倍数个球,3种颜色,n个球排成一排,乱序 rgb
- 只能只用两个api :getcolour O(1) --获取指定位置的颜色 Swap: ij 交换位置
腾讯
- 第一次腾讯微信,一面挂:
- 自我介绍+询问简历内容
- 词向量的方法
- 正负样本不均衡的问题,如何解决
- 一种可行的方案是用拒绝推断
- 一种方案是用smote
- 介绍bert;bert如何使用transformer的encoding模块-bert的输入和transformer有什么不同
- bert有什么缺点
- XGboost和GBDT
- xgboost做树的分类的时候是怎么做的--
- 做过哪些nlp深度学习的任务
- 深度学习模型在训练过程中如何加速收敛
- 学习率/优化器(adam)/bach-normalzation/➕res+learn-rate
- 防止过拟合
- mse和交叉熵的区别----为什么用交叉熵
- 一对父母,已知一个人是男孩,另一个人是男孩的概率
- 给100亿个数据,怎么找到中位数
- pcg笔试--部门的笔试
- pgc一面:(30min)
- 主要聊项目
- pcg二面:
- 模型学习中,正负样本的训练方式不同有什么影响
- 引入词向量的相似性对于结果有什么不好的影响
- 面试题目:给两个球,求解最坏情况下走多少步(采用贪心的思想)
- pcg3面:(交叉面)
- 主要问项目
- 相似性匹配的常用算法
- bert
头条
算法岗挂,后来大数据岗通过面试,主要在这边记录算法岗的面试经验
一面:
- 问了bert ,transformer
- 用梯度下降的思路求开根号
- 写交叉熵公式
- 防止过拟合的方法
- transformer的中的attention机制,其中self-attention和encoder-decoder attention之间的关系
- 最小二乘法的推导公式,最小二乘究竟是什么,和极大似然的关系
- 在词向量中很稀疏和出现未登录词,如何处理
- 线性和非线性存在什么关系之间的关系
- logistic和svm之间的区别---svm自带正则化
- 依存句法如何实现---涉及crf-序列标注
二轮面试
- 未通过,面试过程中沟通不顺利,面试官表现出不感兴趣
美团
一面二面同时:
主要针对项目细节进行询问
快手
nlp和风控工程师
- 一面:问项目,着重问了第一个项目
- 然后两道算法题,bugfree
- 问了batch-normalization和layer-normalization的区别,然后问在inference线上模型如何处理
- FNN-中有没有隐层
- inference-batch-nor---针对一条输入
- 二面:
- position位置,信息
- transformer为什么用+不用concat
- Drop-- 实现方式上是否会有差别----train 和test上有什么区别
- train会有一定概率抛弃,test会保留全部,train会除以概率
- dropout 和L1 和l2是什么关系,有什么异同
- 做题--两种方法实现
paypal
数据科学家岗位
- 一面二面同时:
- 项目+场景题
- 如何防止过拟合,dropout为什么可以防止过拟合
- sql的题目
- 具体问项目,问具体的实现策略
- 三面
- 变量与target相关性的描述
- 特征组合
- 特征重要性判断
- 模型好坏的评估
- acc recall f1
- 分数映射是否符合正态分布
微软
全程刷题
- 一面:
- 刷题,两题,都是动态规划
- 二面:
- 外国人(英文面)
- 半个小时聊项目
- 半个小时刷题
后记
因为我比较菜,所以很早就开始准备实习招聘,从2月份开始陆陆续续刷题,准备知识点,到三月4月开始面试。三月份前期面试屡战屡败,腾讯,头条都挂了,一度自闭,觉得实习找不到了。不过还是咬着牙准备,一边准备一边投。逐渐的开始找到了面试的状态,3月底的时候通过了微软的面试,后面就比较顺利的都通过了。现在回想起来,还是早准备早做打算,越早投hc越多,也能给自己更多的缓冲时间。实习招聘暂时就告一段落了,这就是我的全部经验分享,能给大家带来一些些帮助就再好不过了。咱们秋招再见~
全部评论
(3) 回帖