- offer++ 是一个专注于互联网内推的平台,在这里你将得到最热门的内推资讯。
- 2022届秋招群链接 https://w.url.cn/s/AclrlDM
- OFFER++ 群管理助手微信: https://w.url.cn/s/AkWVTd0
01
从NLP岗位看大厂面试
# 面试心得
“大厂校招攻略”停更一期,今天来给大家分享下,我亲身经历的NLP算法岗高频的考点,以及如何从零开始学习NLP,和一点心得。
现在大厂的算法岗真是越来越卷了,在2016年左右,只要你能跑通CNN模型,基本就能通过算法岗的面试(base 20k 一个月),而现在的算法岗基本都要985硕士起步,有论文或者相关项目的经历。即使应届生达到了入行的门槛,但由于不懂面试套路,也是分分钟被刷的节奏。
众所周知,大厂的开发岗面试喜欢考一些“八股文”,也就是老三样——计算机操作系统、计算机网络、数据库。这些底层的原理在大部分的工作中都不太会用到,但是仍然需要面试者在招聘之前好好准备一下,强化下记忆点。
02
面试八股文
# 面试均有套路,一文掌握
开发岗有“八股文”,算法岗也有算法岗的“八股文”,我在面试的时候就遇到一些关于机器学习、深度学习原理的问题,比如
-
正则化为什么等价于最大后验估计?
-
L2的参数服从高斯分布还是拉布拉斯分布?
-
SVM为什么要引入核函数,如果直接优化损失函数会产生什么样的问题?
-
Batch Normalization为什么能抑制过拟合?又为什么能加速训练?
-
BERT的优化函数为什么要采用AdamW?BERT的激活函数是什么?
-
Word2Vec 的优化方式为什么越来越倾向于负采样而不是原文中的另一种方法?
-
非零对称的激活函数如Relu, 有什么优缺点?
-
CRF为什么是判别模型?与隐马模型HMM的区别?
-
Why Deep not Wide? 为什么增加模型的层数而不是增加每层的神经元个数?
这些我都遇到过并且总结了自己的一些想法,如果有需要交流答案的可以加OFFER++ 小助手微信或者进群交流。
回到正题,想要回答出这些问题,不是靠临场反应,靠得是平时的积累以及数学基础,接下来梳理下NLP算法岗常见的高频考点,其中机器学习和深度学习的基础部分是所有算法岗都通用的。
03
干货分享
# 高频考点汇总:
01、Python基础:GIL锁、进程阻塞与非阻塞方法、列表表达式、装饰器、最小堆
02、统计机器学习基础:逻辑回归、交叉熵的推导、梯度下降与导数、坐标下降法、岭回归 Ridge与lasso回归、过拟合与欠拟合
03、经典机器学习模型:
3.1 生成模型——朴素贝叶斯NB、隐马尔可夫HMM
3.2 判别模型——SVM(对偶问题)、逻辑回归LR、条件随机场 CRF
04、评价指标:精确率P,召回率R,F1 score(Macro与Micro)、TPR、FPR、混淆矩阵、AUC、ROC
05、损失函数:交叉熵、sigmoid与softmax、折页损失函数Hinge loss
06、深度学习基础:Batch Normalization、RNN、LSTM、Attention
07、激活函数:Sigmoid、tanh、Relu、Gelu等
08、优化器算法:SGD、Monetum、AdaGrad、AdaGrad、AdaDelta、Adam
09、序列模型的解码方法:Beam Search、贪心算法、维特比Viterbi
10、NLP预训练模型:Word2Vec、ELMO、Attention、BERT、XLNet
11、NLP子任务:NER、情感分类、机器翻译、问答机器人
# NLP学习线路总结
这是我在浙大硕士期间总结的NLP学习路线,可以帮助小白从零学习,也可以帮助有基础的同学查漏补缺。我在校招的时候前前后后面试了十几家公司,可以负责任地说按照这个学习路线足以应对各种面试。
OFFER++ 群管理助手微信: https://w.url.cn/s/AkWVTd0
全部评论
(0) 回帖