首页 > 百度提前批末班车,搜索技术研发部--搜索算法,一二三面经
头像
花里胡哨的小白
编辑于 2021-08-28 12:30
+ 关注

百度提前批末班车,搜索技术研发部--搜索算法,一二三面经

一面1h:(8.17,时间隔得有点久记不太清了,反正感觉面的不好)
女面试官
说说自己用过不同分类模型的区别,我随便说的感觉没有头绪。
介绍过拟合,梯度消失,
transformer的优缺点
LSTM+attention这个模型为什么要在加attention,这个我没答好
(基础知识记得不清了)
模型评估指标知道哪些?
然后是一些场景下的问题:
query短文本长文本的一些处理,短文本不能很好的表达语义怎么解决,
(倒排?向量化召回)
然后问项目,说我做过推荐,简单的介绍了一下项目。
Linux一些小问题
算法题:
两数之和,但是让我考虑输入的类型判断,忘了isinstance()这个函数
反问:
公司做哪一块的搜索业务的,base地在哪里,过往经历是否match。

-------
二面1h:(8.26,隔了9天,1面感觉面的真的很拉,一度觉得自己挂了)
自我介绍
问推荐实习项目,业务背景,一些细节:特征有哪些,怎么处理,加了那些特征,
怎么评估特征有效,nn模型特征怎么改造。
问NLP项目,质疑了我某一个小trick的有效性,我说是别人工作中借鉴来的。
八股文:
好像没咋问八股,记性也太差了。
算法题:
1.n个点(x,y),求每个点的max(|x1-x2|,|y1-y2|),简单题
2. n个10进制的数,求这些数中存在相同的位数的pair对的个数,比如(12,13这2个数,其中1是相同的位数,所以这算1个pair对,12,21也只能算1个)
反问:
希望能换base到上海,然后后来打电话和我说上海没hc了。
-----------
三面40min:(8.27,下午突然发来邮件面试,下午我一共3场面试,累的一批)
自我介绍完后,
怼基础,
LR,SVM,LSTM,CNN,xgboost, LDA。
LR的原理,手写损失,手写反向传播
SVM的原理,核函数的有什么特点
CNN原理,RNN原理,LSTM的公式
LDA主题模型原理,我其实不太懂这个,瞎说了几句什么学习文档-主题分布和主题-词汇的分布,矩阵分解类似。
快排复杂度,堆排复杂度,建堆复杂度。
能不能毕业前来实习,答:导师不放
问职业规划,家乡哪里等等
反问:
先表明一下有些基础挖的很深自己需要再补一补,
然后问了团队做的啥,然后我就舔了一波百度搜索,
问他对应届生求职选择方向的建议。
-----------
27晚上发了测评了,不知道能不能等到oc,
感觉只有二面面的还凑合,二面面试官很和善。

更多模拟面试

全部评论

(6) 回帖
加载中...
话题 回帖