先说一下本算法渣渣情况吧,无NLP相关项目,无相关实习,1篇非一作顶会,一个GNN课程项目,学校某top4,应统专业。经历可以说非常拉胯了。
一面 2021/7/17 16:00
40min
一、自我介绍
二、个人项目与实习经历
三、你在拿到一批文本数据时,会做什么? 答:分词、词频统计、词干提取、删除特殊符号等
四、word2vec,具体细节讲一遍
五、你了解bert吗?具体细节讲一遍。
六、你常用的优化算法?有什么特点?为什么? 答: 讲的SGD和ADAM
七、网络优化的方法有哪些? 我愣了一下,一下子没反应过来,想了想可能是和LayerNorm这些有关吧
八、随机森林讲一讲
九、代码题:判断一个链表是否是回文串,比较easy
二面 2021/7/17 17:00
30min 此次面试感觉面试官很偏向数理基础
一、自我介绍
二、讲了讲论文
三、Kmeans 和 EM算法?Kmeans和EM算法很相似,类比一下? 答:(不知道对不对)E步,类似于求各个类的中心 ;M步,将各个点归到距离最近的那一类,思想好像挺像的
四、如何得到正态分布的pdf? 答:逆分布函数,利用(0,1)均匀分布生成cdf再生成pdf; 或者利用中心极限定理从大样本获取
五、transformer?细节讲一讲
六、代码题:二叉树的中序遍历,递归板很快秒了,后来说写一下迭代版,说了一下Morris遍历的思路,但没实现出来
七、看你迭代版遍历没写出来,给你出一个题:
圆上任选一条弦,其长度大于圆内接正三角形边长的概率为? 这题比较阴,当时我在那偷笑,具体细节有兴趣的可以百度下
三面 2021/7/17 18:00
50min
一、自我介绍
二、项目和论文
三、bert了解吗?那来问问你transformer的问题。self-attention的时间复杂度?答:O(T*T*d)为什么? 感觉答得不太好
四、为什么bert要用layer norm 而不是batch norm?
五、用batch norm,在测试时,遇到不是batch形式输入的数据怎么办?
六、word2vec手撕
七、过拟合问题?
八、validation set 和 test set的区别
九、SGD随机性的探讨,是好是坏?
十、代码题:(1)给你一枚均匀硬币,实现【0,2^k-1】的均匀随机数? 答:二进制 (2)实现【0,n】的均匀随机数? 答:二进制+拒绝抽样
以上,许愿秋招的第一个offer!!祝大家顺利上岸
全部评论
(3) 回帖