首页 > OFFER ++| 50w年薪的NLP算法岗面经
头像
SurMasss
编辑于 2021-07-16 16:43
+ 关注

OFFER ++| 50w年薪的NLP算法岗面经

https://mp.weixin.qq.com/s/5OJxhq6VZsB3w8e_ABOvmg


01

从NLP岗位看大厂面试

# 面试心得

“大厂校招攻略”停更一期,今天来给大家分享下,我亲身经历的NLP算法岗高频的考点,以及如何从零开始学习NLP,和一点心得。

现在大厂的算法岗真是越来越卷了,在2016年左右,只要你能跑通CNN模型,基本就能通过算法岗的面试(base 20k 一个月),而现在的算法岗基本都要985硕士起步,有论文或者相关项目的经历。即使应届生达到了入行的门槛,但由于不懂面试套路,也是分分钟被刷的节奏。

众所周知,大厂的开发岗面试喜欢考一些“八股文”,也就是老三样——计算机操作系统、计算机网络、数据库。这些底层的原理在大部分的工作中都不太会用到,但是仍然需要面试者在招聘之前好好准备一下,强化下记忆点。

02

面试八股文

# 面试均有套路,一文掌握

开发岗有“八股文”,算法岗也有算法岗的“八股文”,我在面试的时候就遇到一些关于机器学习、深度学习原理的问题,比如

  • 正则化为什么等价于最大后验估计?

  • L2的参数服从高斯分布还是拉布拉斯分布?

  • SVM为什么要引入核函数,如果直接优化损失函数会产生什么样的问题?

  • Batch Normalization为什么能抑制过拟合?又为什么能加速训练?

  • BERT的优化函数为什么要采用AdamW?BERT的激活函数是什么?

  • Word2Vec 的优化方式为什么越来越倾向于负采样而不是原文中的另一种方法?

  • 非零对称的激活函数如Relu, 有什么优缺点?

  • CRF为什么是判别模型?与隐马模型HMM的区别?

  • Why Deep not Wide? 为什么增加模型的层数而不是增加每层的神经元个数?

这些我都遇到过并且总结了自己的一些想法,如果有需要交流答案的可以加OFFER++ 小助手微信或者进群交流。

回到正题,想要回答出这些问题,不是靠临场反应,靠得是平时的积累以及数学基础,接下来梳理下NLP算法岗常见的高频考点,其中机器学习和深度学习的基础部分是所有算法岗都通用的。


03

干货分享



# 高频考点汇总:

01、Python基础:GIL锁、进程阻塞与非阻塞方法、列表表达式、装饰器、最小堆

02、统计机器学习基础:逻辑回归、交叉熵的推导、梯度下降与导数、坐标下降法、岭回归 Ridge与lasso回归、过拟合与欠拟合

03、经典机器学习模型:

3.1 生成模型——朴素贝叶斯NB、隐马尔可夫HMM

3.2 判别模型——SVM(对偶问题)、逻辑回归LR、条件随机场        CRF

04、评价指标:精确率P,召回率R,F1 score(Macro与Micro)、TPR、FPR、混淆矩阵、AUC、ROC

05、损失函数:交叉熵、sigmoid与softmax、折页损失函数Hinge loss

06、深度学习基础:Batch Normalization、RNN、LSTM、Attention

07、激活函数:Sigmoid、tanh、Relu、Gelu等

08、优化器算法:SGD、Monetum、AdaGrad、AdaGrad、AdaDelta、Adam

09、序列模型的解码方法:Beam Search、贪心算法、维特比Viterbi

10、NLP预训练模型:Word2Vec、ELMO、Attention、BERT、XLNet

11、NLP子任务:NER、情感分类、机器翻译、问答机器人

# NLP学习线路总结


这是我在浙大硕士期间总结的NLP学习路线,可以帮助小白从零学习,也可以帮助有基础的同学查漏补缺。我在校招的时候前前后后面试了十几家公司,可以负责任地说按照这个学习路线足以应对各种面试。

OFFER++ 群管理助手微信https://w.url.cn/s/AkWVTd0


推荐阅读:

全部评论

(0) 回帖
加载中...
话题 回帖

相关热帖

近期热帖

近期精华帖

热门推荐