秋招面经
又来分享面经大礼包了,差不多就面了这些公司。希望能对还在找工作,或者未来找工作的童鞋一些帮助。
个人情况:双非本985硕,“中厂”+外企实习经历,无论文。
深信服
算法“大牛“
一面(7月19日,40 分钟)
- 自我介绍;
- 选一个自己觉得不错的项目谈谈;
- 这个和安全相关的比赛是怎么做的;
- 谈谈 Soft Attention,Attention 中需要先线性变换么?
- 算法题:一个数组,存在一个数只出现一次,其他数出现 k 次,找到只出现一次的数。
半周后显示挂了...
滴滴
国际化算法策略
一面(7月20日,25 分钟)
- 自我介绍;
- 聊下爱奇艺实习做的主要工作;
- 说一下 Transformer 和 BERT 模型;
- 问下竞赛用的 YouTube 模型,为什么是 Listwise,模型的输出是什么;
- 商品 Embedding 怎么做的,有哪些方法?谈了下随机游走 node2vec;
- 说下 word2vec 吧;
- 决策树如何剪枝的;
- 项目有一个自动微分框架是怎么做的,做了什么;
- 算法题:LeetCode 72 hard: 编辑距离。
二面(7月22日,60 分钟)
隔了一天二面,效率还是很高的
- 自我介绍;
- 主要问了研究项目细节,问的非常细节,如何做的,模型是什么,怎么评估指标的;
- 怎么进行单词划分与 Embedding;
- Attention 是什么,怎么做的?知道有哪几种 Attention;
- Transformer、LSTM 和单纯的前馈神经网络比,有哪些提升;
- 为了解决长依赖,有哪些模型,是怎么做的?LSTM 和 GRU 细节;
- 决策树是如何分裂节点的,分裂的增益怎么算的;
- 算法题:LeetCode 124 hard: 二叉树中的最大路径和;
三面(7月23日,40 分钟)
- 自我介绍;
- 爱奇艺实习细节;
- RNN、Transformer、BERT 之间的改进;
- DNN 解决过拟合的方法;
- 词向量技术进化路线;
- Word2vec 实现原理:两种方法,两种负采样;
- Wide&Deep 和 YouTube DNN 为什么可以做商品推荐;商品不是一个,多个怎么推荐;
推荐部分是因为问到了滴滴这边没有太多 NLP 场景提到的,没有做算法题。
顺风车业务线
上一轮不知道为何被挂了,而且主要还没通知,然后又让来一轮
一面(8月4日,20 分钟)
面试管解释了下上轮问题,然后 HR 安排面试的问题。
- 说两个做的项目
然后介绍了下业务就说帮忙尽快安排后面两面;
二面(8月4日,45 分钟)
紧接着上轮。
- 项目简述;
- 写一下交叉熵公式;
- DSSM 架构是什么;
- Transformer Encoder 有什么子层?
- 算法题:求三次方根
三面(8月4日,20 分钟)
紧接着上轮
- 讲一个项目;
- 对项目细节提问;
- 反问;
HR(8月12日,20 分钟)
- 自我介绍;
- 为什么投递选的只接受 SP,如何看待 SP 的;
- 从哪儿了解对比薪资的?
- 有哪些公司在进行中,最心仪哪个;
- 反问环节:滴滴新人培养是怎么样的?
没后续了???
字节跳动
提前批(Data AML)
AI Lab 简历挂了,Data AML 捞了。
一面(7月27日,45 分钟)
- 无序数组 Top K,时间复杂度,给出一个最坏复杂度的样例;
- 项目,假设他不懂这个项目,从头讲到尾;
- 写一个 Softmax 实现,注意上下溢出问题;
二面(7月27日,60 分钟)
一面结束等 10 分钟,连续两面;
- 决策树,熵的公式、如何分裂,如何剪枝,回归树、分类树的做法;
- 手推 LR 的损失函数、损失函数怎么来的、梯度如何计算,写成一个完整的类;
- 给前序中序,求后序;
三面(7月31日,45 分钟)
面试官在美国,选了早上八点钟面试...
- 给出 6 * n 的方块,用 1 * 2 或者 2 * 1 的方块覆盖它。不要求求出具体的个数,证明该方法时多项式级数还是指数级数;
- 说一下 word2vec,为什么通过对单词预测可以学习到单词的 Embedding;
- 说一下 Transformer 中为什么 decoder 比 LSTM 慢;
- 问下能不能提前来实习,反问环节...
HR 面(8月3日,20 分钟)
有些忘了,挺常规的
- 自我介绍
- 平时实习和 mentor 怎么沟通的,频率多少;
- 实习做了什么;
- 自己有什么缺点?
- 如何看待百度的?
- 对北京和杭州有什么看法,女朋友哪里人等等;
腾讯
提前批
技术大咖时间段投的,不确定算哪个,打电话随便聊聊,PCG QQ 部门。
一面(7月22日,50 分钟)
- 编程:cpp 实现链表乘法;
- 问爱奇艺文本生成项目,输入输出,损失函数什么的,这里损失函数我说错了,太久没看了把 mle(标签平滑损失)记成 mse(均方差误差)导致各种卡壳。
- Transformer 相比 RNN 优势;
- GRU 对比 LSTM 优势;
- 问研究项目语义搜索相关的内容:样本构造,模型,损失等;
大概率凉了,主要是损失记错了,正好当复习了;
二面(7月22日,30 分钟)
晚上突然打个电话来问可以现在面试吗?
- 自我介绍;
- 关于微软实习的内容;
- 问研究相关的,问的不多;
- Batch Normalization 怎么做的,有什么用;
- LSTM 三个门是怎么做的,如何解决长依赖;
- 如何解决过拟合的?Dropout 和正则化在改善过拟合上有什么不同?
- 哪里人,对深圳有什么看法吗?看了下 GitHub 问有什么可以看的...
二面完显示 HR 面了...
HR 面(7月28日,30 分钟)
- 觉得前两面感觉怎么样,有什么意见;
- 谈一下自己的经历;
- 说一下自己的实习项目,主要做了什么,解决了什么,如何评估效果;
- 提前批考虑别的公司了吗,如何决定选择哪个公司,如果腾讯发 offer 了会怎么决定;
新浪
牛客 SP 专场批次
新浪新闻,用的全时会议;
一面(55 分钟)
- 无序数组找第 K 大元素;快排有什么改进没;快排写的一塌糊涂,不太行;
- 问实习,从项目初期到最后,怎么做的、如何改进的;
- 手写一下 attention;
- 有什么想问的,或者自身有什么优点还没有谈到的。
二面(20 分钟)
一面结束几分钟后,不确定是不是二面
- 问简历,从头到尾;
- 能否提前实习?
快手
搜索岗
一面(8月14日,60 分钟)
- 基本问简历,每一个细节扣的非常细;
- 模型大致范围包括 Transformer、BERT、GPT2,结构和区别,Mask 都是怎么做的;
- 讲一下 Attention;
- 项目细节包括数据来源、模型怎么做的、正负样本选择等等;
- 知道哪些自然语言处理的 trick,例如 TextCNN?
- 主动谈到了 Word2Vec 聊了下负采样,负采样为什么要这样做?
- 算法题:最大连续子数组和,找连续子数组和为 K。
二面(8月14日,50 分钟)
连续两面
- 写一下归并排序(想着写原地操作没写出来。。)
- 问实习项目怎么做的?
- 简历问的内容和上面的几乎一致。
- 模型训练速度慢,如何加快
- 过拟合问题怎么解决
- Dropout 细节
整体快手面试体验都很好,面试官技术水平在线,对话流畅。就是代码没写出来难受。
三面(8月20日,50 分钟)
突然让我上线面试。
- 问了实习;
- 场景题:如果有很多视频以及他们的相关文本,如何给视频添加检索的 query?
- 算法题:(0, 0) 到 (m, n) 只能向上和向右,有多少种方案,带有障碍物呢?
- 算法题:rand() 产生 0~1 之间的数,如何从 m 种取 n 个数;
- 场景:如果想要生成的文本有一定倾向,怎么去做?
四面(8月27日,15 分钟)
部门老大面试
- 介绍下项目,其中的技术;
- 给我介绍团队,两个主要方向,问对什么感兴趣;
- 还有什么不明白的;
9月6日 显示已结束???
推荐岗
一面(9月24日,45 分钟)
上来先说了下流程:项目面,讲一下项目做两个题,没有自我介绍环节
- 针对实习项目提问,主要涉及其中的一些业务场景一点,没有对某些技术提问。例如
- 如何处理安全回复;
- 新闻时效性和全网时效性如何互补,Bing 不同团队负责内容是否会有冲突;
- 如何做一些弹幕生成;
- 算法题:单词翻转变种;
二面(10月13日,40 分钟)
- 面试官自我介绍(Facebook 大佬...)
- 为什么投快手?
- 数学题:Rand7() 生成 Rand10();RandN() 生成 RandM() ;用的拒绝采样法,说回答的很精彩。
- 编程:旋转数组找数;
- 看你是搜索更感兴趣?求生欲强回答:不不不也对推荐感兴趣。然后问如何设计 A 站搜索。宏观的业务问题。
面试官评价感觉工程能力不是很强,但对校招生而言很好了。然后因为组织架构调整,也还不知道新的业务方向。
网易
网易有道-正式批
一面(8月15日,50 分钟)
- 实习内容;
- BPE 分词,有什么优势;
- 谈谈 Beam-Search,与贪婪做对比,还谈了采样温度和 TopK 采样;
- 深度学习如何做分词;
- 算法题:连续数组找某个数的起点和终点;
二面(8月15日,50 分钟)
- 简历项目内容,BPE 分词怎么做的,对比 WordPiece 呢?
- 如何扩充样本?Sentence 如何变成向量;
- 说下预训练模型,新的模型例如 XLNet、RoBert 知道吗?
- 常用的优化器说下?
- TensorFlow 中如何调试、Variable 和 get_variable 有什么区别?如何共享参数的?没怎么用过 TensorFlow...
- Python 中变量的作用域有哪些?
- 算法题:找二叉树中节点与自身祖先绝对差值最大的值;
- 算法题:含有若干 abc 三个字符串中,有多少个 "abc" 序列。
挂了,结束 10 分钟就知道。
百度
提前批
一面(8月26日,70 分钟)
- 纯项目,问实习问的非常细致(严重怀疑套方案);
- 算法题:找到超过一半的数;
- Linux 查找特定任务
- Python 两个无序数组去重合成一个升序数组
正式批
一面(9月13日,60 分钟)
- 问项目,对其中项目的流程化做出提问。
- 算法题:判断一个点是否在多边形内。
- 场景:判断地图路线绕路了。
- AdaBoost,CART 讲一下。分类器让某一类别精度要求高,某些类别要求低一点?
- EM、GMM 算法知道吗?不太会机器学习。
- 深度学习如何计算神经元权重的?顺便说了下工程上的自动微分算法。
- 数据不均衡问题。
美团
正式批
一面(9月3日,45 分钟)
- 实习项目
- 对知识图谱了解吗?
- Pooling 反向传播方法?
- 给一个词典,判断句子有多少种分词个数?
二面(9月4日,50 分钟)
- 实习项目,对一些技术细节提出疑问(25-30 分钟)
- 做过知识图谱吗,没做过,觉得应该涉及哪些技术?
- DeepWalk 模型了解吗?怎么做的。
- Word2vec 怎么采样负样本,有哪些方法?
- 度量学习了解吗?Triplet loss 知道吗?
- 文本内容理解应该涉及哪些文本技术,需要哪些特征?比如给用户呈现新闻排序?
- 怎么判断文本低质量?
- 怎么判断文本涉及黄恐暴?
阿里巴巴
高德
一面(9月9日,50 分钟)
- 常规讲项目。
- Warmup 和 weight decay 有区别吗?区别是?
- 做过模型优化吗?模型蒸馏和模型裁剪?
- YouTube DNN 论文相关的,频率负采样会造成有偏如何解决?如何进行 pairwise 设计?
小米
正式批
一面(9月14日,30 分钟)
- 选一个项目讲一下,文本生成的那个。问到了一些细节,如何满足多样性?如何解决生成重复?
- Beam Search 源码看过吗?是怎么结束的?开放性问题,没看过也没关系。
- BPE 算法英文全称知道吗?说下原理?能解决什么问题?
- BERT 激活函数、Transformer 激活函数。
- BERT 的变种?聊了下 ALBERT,知道模型蒸馏吗?谈了下原理
- 算法题:两个数组最长连续子串长度。
二面(9月16日,50 分钟)
- 讲实习、项目。主要是 Transformer 、BERT 细节
- 问了下平时怎么学习的,导师实验室相关的
- 问未来打算的方向:NLP 阅读理解还是底层加速等等。
- 看到了个自动微分的项目,问了下,静态图和动态图区别,实现方式。
- 给了个 Beam Search 源码,问其中某一行为什么?(beam_keep = beam_size × 2)
全部评论
(20) 回帖