B站信仰充值哈哈!接到onsite面试邀约果断冲过去面试了。线下面试的好处就是可以主动手撕公式,很多东西推导一遍胜过很多解释。
这星期弄完腾讯和华为的秋招以后有心情补拼多多的面经吧。其他公司估计就不想面试了,毕竟面试身心俱疲。
捞我的是推荐组,所有面试我投的都是nlp结果面的全是推荐,幸好之前拜读过王喆的书还做过一个小项目。
一面 40min
1、自我介绍
2、详细介绍论文(穿插了attention机制推导)
3、介绍实习项目
4、知道有哪些经典的推荐系统模型?(聊了一下FM和Deep & Cross)
5、手撕LR
6、做题:数组最大的K个数(真正的手撕,C++纸上写的那种)
7、介绍一下CNN的原理,以及batchnorm的作用+原理
8、average pooling和max pooling各自的优缺点
9、反问
二面 1h
1、面试官自我介绍+自我介绍
2、详细的实习项目介绍(motivation+解决方法+模型原理推导+优化方案+优化的动机与原理),这个聊了有半小时。
3、bert做分类任务时相对textcnn和传统lstm/rnn分别有什么优势?除了长时记忆遗忘,bert相对于lstm和rnn还有什么优点?
4、gelu的表达式和优点。
5、手撕gru
6、知不知道除了bert现在还有一些超大型模型可以做多任务预训练和文本生成?介绍一下吧。(说了gpt系列)
7、介绍新闻推荐的小项目(面试官正好了解这一块,和他聊了十分钟左右)
8、transformer位置编码+bert位置编码,为什么transformer位置编码选用sin/cos的形式?有什么好处?
9、算法题:(1) n个数分为m个连续子数组并分别求和,求这m组和中最大值的最小值 (2)无序数组中有两个重复数字,其余元素均只出现一次,求这两个数字(面试官给了提示才做出来,还是一开始脑子转不过来)
10、SVM和LR各自适用的使用场景(SVM详细展开+手撕推导)
11、场景题:B站推荐视频列表中有一些视频因为位于推荐列表末尾导致click rate太低,用朴素CTR模型可能无法让这些视频有很大的权重,有什么方法能解决这个问题?
(我先说了汤普森采样+UCB,然后要求大致手撕了一下原理,后面再引导了一下从特征设计角度给了大致的方案)
12、场景题2:我们项目组以前想用bert对视频标题提取特征,后面用KNN进行聚类,但是发现效果还没有传统机器学习方法效果好,你觉得是什么原因?(一开始说了bert模型本身的特性,后面面试官突然有了兴趣还follow up了一下,貌似我给的方案他们尝试过,效果有提升但还是没到预期,后面就随便扯了点别的原因,也不知道对不对)
13、为什么投了B站?(当然是信仰加持啦)
14、反问(面试官还聊了聊自己校招进来的经历,以前也是做nlp的哈哈)
三面 1.5h 主管面聊了一个半小时,没说题目,但是主管面需要把你自己的想法很有逻辑地表达出来。个人认为主管特别特别厉害,有点被吸引到哈哈哈。
主管面大概就是聊项目,聊了他们的项目,聊人生聊理想。可能因为她也是留学生回国发展的,聊的东西会更多一些。
走之前hr说她这几天会打电话做个hr面,因为今天结束得太晚了他们正好有会议安排。
希望有个oc!毕竟对B站的偏爱是发自内心的。
全部评论
(6) 回帖