首页 > 腾讯PGB,NLP算法二面面经。。。
头像
wwra
编辑于 2021-07-16 10:45
+ 关注

腾讯PGB,NLP算法二面面经。。。

个人太菜了,没有认真钻研,大家引以为戒,好好看看算法的细节都是为什么,遇到所有的东西都要问问为什么,对面试有好处!
1. SVM 的 优化函数公式怎么写,代价函数是什么?
2. 随机森林是怎么回事,为什么树模型好用,为什么要发明随机森林?
3. XGBOOST相对于GDBT最大的优势是什么,XGBOOST求二阶导数的好处都有什么?
4. BERT是怎么分词的?
5. Word2Vec的训练方式有哪两种?(指的是分层softmax和负采样),CBOW和SkipGram各个的优缺点都是什么?(一个计算量小,一个慢但是细致)
6. 评估模型的指标都有什么,AUC和ROC具体是什么,代表了什么属性?

还出了个字符串转换浮点数的编程题,主要是细心吧。

应该就是这些,也有可能漏了东西,不过先写这么多吧。

更多模拟面试

全部评论

(3) 回帖
加载中...
话题 回帖

相关热帖

近期热帖

近期精华帖

热门推荐