狂刷450题leetcode,春招乱砍大厂,备战春招我到底做了什么?
铁子们,今天给大家分享一下自己颇有收获的春招之路。
本人秋招极其受挫。秋招面了字节5次,次次仅通过一面;百度面过两次,一次二面挂,一次三面挂。仅收获华为无线算法。惨不忍睹。
10月,秋招结束后,我没有签下任何公司,而是痛定思痛,开始准备春招,虽然风险巨大,但是极度自信的我,深知春招如何突破。
春节过后,我投了 蚂蚁,商汤,腾讯AI Lab,百度,美团,字节,Zoom,携程,斑马网络(阿里造车),依行(依图造车),货拉拉,每个都是算法岗。
除了腾讯AI Lab挂了,蚂蚁,商汤,百度,美团,Zoom,斑马网络(阿里造车),依行(依图造车),货拉拉,都offer了,携程,字节还在流程中。说真的,比自己想象中要好很多很多。
那么从去年10月到今年三月,我到底做了什么呢?话不多说了,且看我的春招之路。
概述:
-
刷题心得
-
oppo实习
-
面试情况
一.刷题心得
秋招完全没有达到自己的预期,我在秋招结束后,做了两件事。- 每天刷leetcode7~10题。一直坚持到刷了450题后,再反复刷面试常考题。
- 在oppo上海研究院做视觉实习生,管理oppo相册。
秋招受挫后,我反复思考,自己究竟哪里没有做好。思考来思考去,其实只有一点——没有刷题。因为放弃读博,仓促回国,说真的,真不清楚国内找工作水有多深,直到掉坑里了,才知道——一定要刷题!一定要成为做题家!
我自己的做是顺着题号,刷到了300题,然后回过头来,反复得刷前150题并每天多刷几道新题。这不是最好的刷题方法和刷题顺序,因为极其痛苦,效率也很低,每天花在刷题上得时间都超过了5个小时,这个时间完全是通过在oppo实习时划水的时间填补的。
那具体怎么刷效率高,以及刷多少题才能顺利找到一份大厂offer呢?这里先给大家看一张图:
这个是一位水友通过爬虫获取牛客上7.28日~10.23日的 389 篇字节跳动面经,共涉及207道leetcode编程题,帮助大家更有针对性地准备面试。我们能惊人的发现,其中考察频度在5次及以上只涉及49道leetcode题,这49道题的“出场率”是59.12%。我们再来看看考察次数在3次及以上的题目,一共有95道,但...但它们的出现频率却高达80.16%!!高频题的重要性不言而喻!
我将这49题和95题做了一个leetcode表单,分享给了很多小伙伴,帮助他们复习。大家在公众号后台输入“高频算法题”,就能得到表单,也分享给想进大厂的你。
二. OPPO实习
秋招后,我去了oppo上海研究院,做视觉实习生,主要是管理oppo的相册。
在实习前半段时间,我主要做的是oppo相册是视频分类和图像分类,说实话,这个项目,我大三就做过,对我而言基本是驾轻就熟。我一边完成业务,一边划水刷题。
实习的后半部分,我意识到,如果要在oppo留任的话,我必须要做出更大的成果。我主动找到带我的两个mentor,要求他们给我一些容易出成果,并且有科研难度的课题。真的超级感谢两位mentor薛致远和张有才,他们给我安排了一手“多标签长尾分布”的课题,长尾分布作为数据科学中古老而又头疼的问题,已经有一些容易出成果的解决方案。我按照他们给我提供的研究路径,广泛阅读相关论文,自己慢慢上手了这个课题,并且有了自己的很多思考与心得,做出了不错的结果。
而就是在oppo做的这三个项目,成为了我后来找工作的关键项目。
三. 面试情况
因为家庭原因,我主要是找上海的算法岗,说实在的上海的算法岗的数量基本只有北京的一半。
因为很多大厂关闭了春招,我应聘很多大厂都是走的社招流程,也没有签字费什么的,血亏。
我还广泛面了各个行业,包括视频理解,自动驾驶感知,联邦学习,推荐算法,风控算法。也让自己对各个行业都有更深的理解。
这里面视频理解是最难的,大厂的推荐岗位特别多,自动驾驶感知和联邦学习是今年资本最看好的方向。以下是自己面试各个公司的情况。
因为面试实在太多,我仅记录自己面试过程中,印象比较深的题目。
商汤
视频理解研究员,校招。四面技术面。已offer,4月入职。商汤一直以来都是自己最仰慕的公司,从2017年第一次进实验室,我做的所有项目的所有结果,都要差于商汤。拿了商汤offer后,我立马拒绝了各种offer,我真的太爱商汤了。
- 普通卷积计算量,深度可分离卷积计算量
- sigmoid怎么来的,MSELoss怎么来的,CELoss怎么来的
- 讲一下 mobileNet系列,ResNet系列
- 讲一下目标检测one stage two stage,讲一下yoloV1
- ArcLoss的原理
- 写一下softmax cross entropy的反向传播
- lc5 最长子串
- lc206 反转链表(递归,递推)
- lc215 第k个最大元素。
蚂蚁
风控算法,社招,技术面全过。
- 写弱监督下的Kmeans。
- 深度和宽度分别对神经网络的影响,相同参数量下,更深更窄的神经网络和更浅更宽的神经网络对模型的影响。
腾讯
- 各种linux命令
- ResNet50 显存大小
- mobileNet系列讲一下
- 传统计算机视觉的图像增强,去噪的方法
百度
- 手写快排
- 推导交叉熵损失函数
- 逻辑回归怎么做分布式训练
美团
- PCA和LDA有什么区别
- GAN为什么不好收敛。
- GAN是什么散度。(这个真的难为我,我基本没做过GAN,对于散度,我基本只知道KL散度。面试完去查才知道是JS散度。虽然没回答出来,面试官还是让我过了)
字节
- BN层求导。(这个是真的难)
- LC4 两个有序数组的中位数。
Zoom
- pytorch怎么实现L2正则化
- 偏差和方差
- 知道哪些损失函数
携程
- 怎么缓解梯度消失
- 为什么要设计残差连接
- AUC是什么
- 会cuda编程不?(答曰不会,还是给过了)
斑马网络
- ArcLoss和CosLoss的区别。相对于Softmax的优点
- 卷积操作后的特征图大小
- 什么是空洞卷积
- 深度可分离卷积和普通卷积在下板子后速度差不多,可能的原因是什么。
- 知道哪些轻量化网络
依行
- 信息熵原理与公式
- LC207 课程表
- LC200 岛屿的个数
货拉拉
- 滴滴司机和用户的匹配问题。
四.小结。
来自伦敦大学国王学院的三位有志青年带你分享各种关于人工智能的知识,喜欢的记得关注公众号鸭~
全部评论
(11) 回帖