腾讯WXG 已offer,岗位是技术研究-自然语言处理方向,有时间再整理一下面经
- 腾讯一面初试(3/15)约30min
- 介绍一下比赛
- 介绍multi sample dropout
- 比赛还用到什么预训练模型
- bert、roberta、xlnet异同点
- 如何处理文本长度大于512
- bert参数如何计算
- bert mask策略,作用分别是什么
2. 腾讯面委会复试(3/23)约30min
问一下自己认为做的比较好的,有亮点的比赛或项目,
介绍了下比赛,最后介绍了模型融合的方式,为什么选择加权融合,当时还尝试了stacking融合,只不过stacking融合的结果不如加权融合的好,这个解释有点牵强,没有从理论上进行解释。
介绍了下项目,落地的场景
论文什么时候出结果。
3. HR面试(3/30)约30min
自我介绍
为什么选择做NLP,为什么读硕士,还读博么
爱好?工作地点?缺点?
从小到大,一个人计划,组织,实行,成功的事
为什么不投其它事业群
4. 总结
一定要投提前批!一定要投提前批!一定要投提前批!刚回学校的时候在改论文,没有时间复习刷题(主要也是因为寒假太堕落了,没能静下心来学习T T),浪费了很多提前批的机会。提前批阶段简历不进系统,私下面试,就算挂了也不影响内推和正式批。
回到学校也开始慢慢刷题复习,有针对性地投了几家公司,腾讯相对来说是较晚投的,但却是第一个发起面试邀请的,不得不说腾讯的工作效率很高。面试过程也很愉快,HR小姐姐说话很温柔,贼好听。
面试完需要复盘,总结哪里不足。面试官提到的一点让我印象很深刻,就是不仅要做到知其然,还要知其所以然。确实有些方法,我只了解他是怎么做的,却不明白为何这样做。这个坏习惯算是打比赛“培养”出来的吧。参加了很多比赛,尝试了很多方法去刷榜,只知道这些方法怎么用,却不了解其原理,比赛结束后也没花时间去看论文。复习的时候也是如此,尽量去看论文原文,博客笔记只是辅助。我记得复习BERT的时候就发现有些博客讲得不一样,然后回过头去看BERT论文才更加深入。
先写这么多吧~
全部评论
(4) 回帖