首页 > 2021年春招nlp算法岗及相关面经记录
头像
刘六牛
编辑于 2021-05-28 11:29
+ 关注

2021年春招nlp算法岗及相关面经记录

本人背景:本科国内普通211 软件工程// 研究生 国外计算机院系

人工智能专业nlp方向,GPA 9.4,  有加拿大政府部门的nlp实习经验

以下是我从四月中旬到目前的面试记录,(因为国外课程和期末考试的原因,开始投递简历的时候已经是四月十号左右了,但是春招已经接近尾声了,所以还是很沮丧的,前后投了十家互联网公司的nlp岗)

由于跟国内时差12小时,但是卑微的打工人只能半夜爬起来做笔试😭😭😭


5.27更新

360 搜索部算法岗oc

5.25更新

美团语音搜索部 二面

1. 自我介绍
3. 实习介绍和项目介绍
4. bert模型结构的具体介绍以及实现
5. 常用的伪标签方法
6. 项目中学到的东西和困难
7. 编程:连续子数组的最大和 返回数组区间
8. 反问
中间的不太记得了,但是项目没有问的很深,主要考察逻辑思路

5.20更新

美团语音搜索部 一面 过

1. 面试官先给我仔细介绍了部门的情况
2. 自我介绍
3. 实习介绍 (bert为主)有哪些不足和学到的东西
4. bert模型结构的具体介绍以及实现
5. 3个embedding介绍
6. 除了bert以外的其他的提升的模型
7. GPT了解吗
8. Batch norm 公式, 与layer norm的区别
9. dropout原理
10. autoencoder原理
11. 自我评价
12. 对实习项目的反思
13. 编程:最长递增子序列
14. 反问 (面试官很耐心的给我介绍了部门的主要业务和常用的技术和框架)

5.19 更新

360 nlp算法工程师 三面(Hr面) (许愿!!!)

1. 自我介绍
2. 项目介绍
3. 项目背景
4. 数据的收集和处理
5. tokenize的原理
6. 学习情况
7. 工作地点的选择
8. offer情况
9. 反问
10. hr姐姐说具体回复会在一周到两周之间给

5.17 更新

搜狗网页搜索nlp二面:

1.自我介绍
2. ml相关模型介绍,原理,项目结果对比, 回归模型数据做归一化的必要性。
3. dl传统模型,cnn,rnn。lstm介绍原理
4. 项目简介:bert原理, 项目细扣(从数据的收集,到预处理,模型调优)
5. 职业规划和方向
6. 过拟合的表现和处理方法
7.  dropout原理
8. QA项目原理
9. word2vec和glove的原理和使用场景,差别
10. bert自带的词向量库与glove的对比
11. 编程题:二叉树根节点到叶子结点的所有路径和(牛客原题)

5.14更新

搜狗网页搜索nlp一面(过):

1. 自我介绍
2. 项目介绍
3. 数据增强的实现
4. 项目的优化和提升
5. 过拟合处理方法
6. bert中qkv三个向量是否共享,意义
7. word2vec 结构中向量提取的位置
8. bert的参数规模,以及大部分参数所处的位置
9. transformer中的参数共享
10. dropout在训练过程和测试过程中参数的设置
11. bert三个embedding的使用方法
12. roberta和bert的区别
13. bert结构/ 与训练任务
14. layer norm和 batch norm的区别,bert用的是哪个, bert中的norm是对那些输入进行的归一化
15. COPA任务的复现原理
16. 文本相似度的对比
17. 编程:判断二叉搜索树// 链表反转
18. 反问

05.13 更新

百度部门C二面:

1. 自我介绍
2. 项目介绍
3. 对数据不平衡的处理方法
4. 情感预测项目细讲
5. 文本相似度的项目细讲
6. word2vec的原理,负采样原理
7. 反问
无编程

05.10 更新

百度部门A 三面 挂。。。。。
主动问了hr进度,被告知没有后续了,心塞了很久😭😭😭

网易二面挂

05.10

之前觉得360答得不是很好,以为凉了

360 二面:

1. 编程题: 百万级文件中,对目标值的检索,输出对应的标签
2. 自我介绍
3. 项目介绍
4. bert与其他nlp模型的对比和使用情况
5. 项目过程中遇到的问题和改进方法系统总结
6. 反问

百度和 网易那个意难平,而且让人摸不着头脑,这两个部门自我感觉不错结果都挂了,但是只能向前看了。希望后面有不错的结果吧

    • 04.11 2.0am 好未来笔试 :笔试一共六道编程题AC了四道多,具体的题目记不太清楚了。。。 但是因为好未来是补招,所以通知面试的顺序从高到低,到我的时候 已经招满了😭, 所以被加入人才库了。。。

    • 04.17 晚10点 美团笔试

    • 04.16 360 笔试

    • 04.18 凌晨作业帮一面 (挂) 可能是今年的第一个面试,加上昼夜颠倒了近一个月 一点也不在状态,上来先手撕代码

      1. 编程1:逆时针九十度旋转矩阵//第二道忘记了 (但是太紧张了 答得不是很好)
      2. 后面随便问了几句项目就 结束了 (凉透了)😢

结束了以后认真的找了自己的原因,也把之前刷过的leetcode又复习了几遍

    • 04.21 中午十二点前 雪球笔试 (在boss直聘上投递的)题目与nlp强相关,有选择问答和编程,但是不是很难。

    • 04.23 四点雪球一面过:

      1. 自我介绍
      2. 项目介绍
      3. bert模型结构
      4. transformer
      5. 对golve word2vec 的理解
      6. 场景题:如何对网络上的文章进行质量筛选
      7. 编程: 类似回文串的匹配问题

    • 04.23 百度一面过 (部门A):(百度在官网上投递过简历,也在boss直聘上联系过hr,后来有三个同时联系我,有点懵,但是不是很清楚具体的部门,只知道是算法nlp相关)所以不太清楚是哪边来的,但是都接下了,下面称为部门A,B,C。

      1. 自我介绍
      2. 项目介绍
      3. bert模型结构
      4. transformer
      5. 过拟合的表现,原因和如何防止
      6. 对激活函数的了解对比,为什么使用激活函数
      7. dropout的原理,在项目中的设置
      8. 模型的评估指标
      9. roc坐标含义,auc
      10. python基本原理
      11. 编程: 数组的子集// 寻找只出现一次的数字(异或操作)
      12. 反问

    • 04.25 雪球二面过

      1. 自我介绍
      2. 了解那些ml模型以及原理和公式
      3. 介绍bert
      4. 对自己工程能力的评价
      5. 如何看待高强度工作
      6. 确认毕业时间
      7. 随机森林的介绍
      8. 反问
      9. 无手撕

    • 04.27 晚上10.30 百度一面过 (部门B)

      1. 自我介绍
      2. 项目介绍
      3. 项目用了什么loss (我用的是交叉熵)
      4. 对交叉熵的介绍和公式
      5. embedding 的原理和在项目中的具体使用步骤
      6. word2vec的原理
      7. word2vec与bert 的区别
      8. one-hot与bert embedding 的区别
      9. 编程:链表反转// 最长不重复的子字符串

    • 04.29 360 一面过

      1. 自我介绍
      2. 项目介绍
      3. 对项目中的各部分细问
      4. 编程:  从许多url中提取日期//  字符串的全排列

    • 04.29 网易一面过

      1. 自我介绍
      2. 编程: 二叉树每一层的最大值// 最长不重复的子字符串
      3. bert与roberta的不同
      4. transformer结构细讲, (感觉把犄角旮旯里都扣了个遍)
      5. 什么是过拟合和欠拟合,如何防止
      6. 激活函数的对比
      7. F-alpha的公式
      8. 对残差网络的理解
      9. micro和macro的区别
      10. 数据增强的方法
      11. warm up 的作用
      12. dropuot的原理
      13. 集成学习
      14. batch norm与layer norm的区别
      15. 导致梯度消失的原因
      16. bert中feed forward中参数的传导
      17. attention公式
      18. 编程: 用pytorch随机生成一个 tensor

总体来说网易一面的体验感极好,面试官很有耐心,也一起探讨了很多问题,问的问题都是与项目还有nlp十分相关的!

    • 04.29 雪球三面(过):

      1. 对公司的发展看法
      2. 对面试官的建议
      3. offer情况
      4. 爱好
      5. 自我评价
      6. 反问

    • 04.30 百度二面过 (部门A)

      1. 高斯模型细讲
      2. GMM
      3. 什么是核函数并举例
      4. 凸函数和拟凸函数
      5. ELMO和LSTM
      6. 二叉搜索树讲解
      7. 项目相关:遇到的困难,优化的方法
      8. 对深度学习模型的理解
      9. 编程: 输出一个栈对数组所有可能的输出 如: a=【1,2,3】 输出所有从栈中可能的输出排列

接下来就是五一长假,继续刷题和总结项目

    • 05.06 百度三面(部门A)

      1. 自我介绍
      2. 项目介绍,难点和优化方法
      3. 系我评价
      4. 职业规划
      5. 优缺点介绍
      6. 反问

    • 05.07 凌晨2.00 网易二面 挂。。。

      1. 自我介绍
      2. 项目介绍
      3. bert结构
      4. embedding中参数的传递和计算
      5. attention的公式, 为什么除根号dk
      6. feed forward参数传导
      7. warm up 的原理和作用
      8. python语言探讨
      9. multi-head attention的作用与attention的区别
      10. 编程: 给定字符串找abc, 如给只含有a,b,c三个字符的随机字符串,找到所有abc的子串(感觉有点绕,还是在引导下写出来了)

    • 05.07 凌晨四点 百度二面(部门B)

      1. 自我介绍
      2. 项目介绍
      3. attention mask的作用
      4. bert的局限性
      5. 项目过程和优化操作
      6. 场景题:对百万级别的搜索数据如何根据用户的喜好进行排序展示// 如何使用用户的历史数据
      7. 编程题:  合并两个有序数组// 第二题感觉是考官自己diy的
      8. 反问

    • 05.07 早上9.00 百度一面(部门C)

      1. 自我介绍
      2. 项目介绍
      3. 如何处理数据不平衡
      4. 简历上有参加唱歌比赛的经历,询问相关
      5. attention mask 的作用
      6. 编程:数组排序(不断优化)// 股票购买(一次)
      7. 反问

    • 05.07 晚11.00 雪球OC

许愿!!!!

更多模拟面试

全部评论

(2) 回帖
加载中...
话题 回帖

推荐话题

相关热帖

近期热帖

历年真题 真题热练榜 24小时
技术(软件)/信息技术类
查看全部

近期精华帖

热门推荐