一面 7/27 广告算法 -形式:微信电面
1、介绍自己的项目,项目这个模型具体咋做的,详细的提问
倒不是问扩展的,就是问项目细节,因为我说lstm效果最好,就问lstm具体的模型参数,模型网络是啥样的问最后出来不是一个embedding吗,embedding怎么到一个概率,我说通过dense层,追问,那原理是什么呢
2、Word2vec细节,盘问了很久,复杂度太高怎么优化,我说Negative Sampling,然后忘了这个了,面试官就追问我,softmax的函数,后来想了下把这两个一般般的回答了
3、python的类、构造函数和析构函数名字太高级就懵逼了,后来发现就是个self.
4、数据结构问了,堆,问我堆怎么pop,然后问我,将中间一个节点替换掉怎么换,应该从这个节点到根节点换
5、最短路径求解算法。。。
6、用什么语言编程
7、反问
总体感觉一般,但是当天收到了二面通知
二面 7/30 广告算法 -形式:微信视频面
面试分三个阶段:自我介绍+聊项目+写一道算法题,聊项目聊了很久面试官是那种,你提到什么,就会追问这个东西的性格,我聊东西也容易展开说,导致bb了很久,也给自己挖了一些坑的
1、说自己项目训练gcn的时候只用了这个节点之前的结果,防止数据穿越,聊了数据穿越,有点不知道咋解释,就说像是文本的话,你就得考虑上下文,bert,w2c这些、
2、提到了w2c所以被问了原理,之前查了下霍夫曼树和负采样,面试官追问霍夫曼树,有点没答出来、
3、指标评估说了ROC和P-R,于是被给了三个点算AUC,翻车🙃
4、项目聊了GNN,所以bb了下GNN的原理,顺便又说了可能GNN使得信息消失导致这个项目GNN效果不如lstm
5、lstm好像也是问了下
6、被问了一个ATT+CNN的网络咋搭的,说了一下,然后提到了可以加dropout和bn控制复杂度,然后就被问为啥bn可以控制复杂度,想了想好像bn是防止数据偏移的。不小心说dropout值最好0.6-0.8,好像扯错了,是0.4-0.6 面试官问dropout训练的时候丢了神经元,预测的时候又是用的全量的,不会过拟合啥的吗,我说不会但是不知道为啥
7、特征筛选方式也聊了,我说了封装、过滤和嵌入,面试官是有啥细节问题马上就问,所以我刚说了过滤法的单变量双变量就被问双变量咋做的然后嘴贱说特征筛选的时候你还得注意一下不要有特征组合了之后变成了唯一标识,这样就会产生干扰,结果被问了这种情况怎么去弄,因为之前是根据经验看的
9、问了特征怎么处理的我说one-hot,缺失值也视为一维,他还问有啥别的方法,固定值或者建模型预测然后问我年龄是不是就是个数值类型的,我说我做了分桶处理,感觉更好一点,他具体细问为啥更好。。。。不会,诶
10、算法题问的是根据中序和先序重构二叉树,比较简单,5分钟搞定
总之感觉我遇到的面试官都挺以项目为主的,涉及到的算法细节原理得清楚,也算是有所收获吧。
全部评论
(8) 回帖