腾讯teg
一面:(30min)
腾讯会议面试,面试官的耳机声音听不清,我反馈了一下,所以就先做题了,问了道topk,我用最小堆实现,调了优先队列的库,问优先队列的实现如何,复杂度如何(答得不太好),转移话题,我说可以用快排解决这个问题,又问复杂度。
简历面:
-
我做的项目跟别人的有什么差别
-
为什么用GRU不用LSTM?
-
尝试过多模态吗?
-
介绍一下你做法的创新点?
-
介绍一下你最近看的一篇论文?
-
我看你比赛打得挺多的,他这么说我就开始扯,我很想来腾讯,所以打了极客大赛,拿到了面试绿卡直通车,他说他们有没有邀请你,我说有,但只能用在他们部门。
-
有没有打游戏,我说王者常常打,问我最熟练的英雄是哪个,我说哪吒。有个场景题,哪吒放大招的有监督分类,放还是不放,怎么考虑这个问题?
二面:(1小时左右)
牛客平台面试,上来先写两道题
-
两个字符串a,b,判断a旋转部分后是否为b ?
由于一开始我没发现网页是用了我外接摄像头的麦克风,回声很大,前期写题基本没怎么说过话,不过都还好思路表达出之后他认可,而且一遍过了第一道,第二道写到一半他说可以了,不用写了,开始面试简历。
我提出换平台,使用了腾讯会议,后面语音清晰了很多,然后就跟一面其实相差不多,问问项目。
其他问题有:
-
LSTM怎么解决梯度消失和梯度爆炸?(答:梯度爆炸没有解决,可以通过梯度截取解决。梯度消失从公式的角度出发,提出了类似resnet/高速通路的方法,使得梯度保持下去)
-
LSTM对那种突然转折的数据预测效果不太好,怎么解决?比如跑着跑着突然转向,这种数据他是怎么做的(这里我不清楚答案,我从loss的角度分析,再从样本的角度分析)
-
LR和SVM的区别?谁对数据更敏感?(答:分别解释了LR和SVM的模型)
-
XGBoost的原理说一下
反问:
-
你觉得我面试表现得怎么样,他说 ok的
三面:(15min)
电话面,问我实习时间等,问我现在有没有空,我说现在不太有空
三小时后,再打给我,就随便聊聊项目,聊聊性格籍贯啥的,最有成就感的事情,最沮丧的事情。
不知道是不是HR面还是主管面。有点疑惑
反问:
-
重新解释了一下实习时间,他说ok的
-
你觉得我面试表现得怎么样。他说不带这样问的
(四面五面)合起来2个多小时,之前我以为稳了,然后来电话问我说你是深圳的?现场面试一下。
四面(榨干局)
首先自我介绍,然后针对简历面。
-
我的光流计算详细问了一遍,提出质疑(他光流居然也懂)
-
通道注意力机制详细问了一遍并提出质疑,以及介绍SENet,项目的改进程度指标有多少。
-
RNN/LSTM/GRU的异同,以及如何解决梯度消失梯度爆炸的(其实梯度爆炸没解决,都是给你挖坑的),写出lstm公式。
-
介绍一下transformer(这个我坦白了,我说看过论文但是详细介绍可能说不出,知道是Encoder,Decoder的模式),然后我就说介绍介绍self attention吧,写了attention公式。然后解释了为什么除以根号dk。
-
你这CV有用Transformer吗?介绍一下Vision Transformer。
-
CTR比赛详细介绍一下,特征工程怎么处理,数据量多少,XGBoost和随机森林的区别?偏差和方差的角度。
-
正负样本不均衡的处理方法?Focal loss公式写一下,alpha作用解释一下。多分类focal loss。正负采样方法,权重分配等。
-
过拟合的处理方式?(加数据,简化模型,正则化)L1和L2正则详细说说,从稀疏解的角度,再从拉普拉斯分布和高斯分布的角度去做。
-
SVM的公式写一下,公式忘了(他安慰道没写出没关系,目前为止已经非常优秀了),然后本质就是合页损失函数加正则化,让我介绍介绍核函数(核技巧真的忘了...)
-
你这知乎挺多粉丝的,肯定有些别的东西介绍吧,介绍介绍简历以外你感兴趣的东西?介绍了一下可逆网络,可逆网络他居然也懂,然后分析雅可比行列式那些东西,以及结构设计。
-
问我之前面试官都考了什么题,都重复说了一遍。我这时候已经被榨干了,好累好累。然后触不及防给了道算法题,我已经资源耗尽。因为是现场面,以为不用写代码了。这里一张A4纸已经写得满满当当的,抽出了另一张。
剑指 Offer 53 - I. 在排序数组中查找数字 I统计一个数字在排序数组中出现的次数。
这题我写了二分 upper_bound - lower_bound + 1,然后叫我在他的电脑上写,我二分模板撸了一遍,然后二分的边界一直想不清楚,其实我写过的,这时候有点紧张了。
五面 写完终于换人了,轮到总监面。
-
自我介绍一遍,询问实习时间,问我为什么去年暑期没实习
-
其实就随便聊聊,兴趣爱好,打什么游戏
-
说了一下我的比赛怎么都是前十,没有前三都不叫好名次,有没有复盘过为什么不能第一(有,就说说别的队怎么做的)
-
为什么你的比赛都是用xgboost,为什么不用随机森林有没有想过?bagging和boosting的区别
-
问我看过哪些机器学习的书,我说西瓜书,统计学习方法,他问我有没有看过PRML(其实我看过一点,但是假装没看过,怕被问深),问我知道哪些分类器,我说LR,SVM,决策树,他补充贝叶斯分类器。分类与回归的常见loss写一下,然后本质其实是一样的,为什么,你能分析一下统一一下他们吗?信息熵是什么,公式你知道吗?(我也不知道为什么一致,他后面跟我说实际上都是使两者的分布接近)
-
本来想让我推导LR的,后面说时间有限就不推了。
最后有问我总监面得怎么样啊,前面两位觉得怎么样啊,下楼了还说我等等上去问问总监,他说ok就ok了。我就坐地铁回去了。
HR面(5min)
这个就挺简单的,自我介绍完,随便聊聊个人情况及意愿,三天内会发正式offer。(后面等了大概一周才oc,再等了一周才收到offer邮件)
全部评论
(6) 回帖