首页 > 有赞算法岗面经(长文吐槽KPI面)
头像
牛客579181567号
编辑于 2021-09-05 19:48
+ 关注

有赞算法岗面经(长文吐槽KPI面)

面试历时1小时04分41秒 。
先自我介绍,无项目环节,然后直接八股。
1.讲一下检测算法。
one-stage,two-stage重点讲了yolo:darknet特征提取,金字塔多尺度融合,分类检测一起做的yolo3,双分支解耦头的yolox,输出3个尺度共九个anchor预测。
2.讲一下mobile系列,每个系列怎么改进
v1深度可分离卷积,v2倒残差,v3SE块,NAS自动搜索,dnet针对不同设备如cpu,gpu,dsp设计不同的block进行nas。倒残差在dsp上取不到好的结果。
3.讲一下rcnn系列:
?这是1819年的八股题库给你找出来了?直接说之前有看过,现在只记得fasterrcnn了。然后讲fasterrcnn。
4.有哪些特征提取网络。
这你也问?vgg,desnet,resnet,u-net等,重点讲了后面三个。
5.讲一下rpn:
双分支,anchor的选择,bbox
6.数据增强:
旋转,裁剪 ,缩放;颜色变换如直方图,转灰度;框只变换;mixup,maxup等两图混合,变体remix在特征提取网络加参数引导,显著图策略,用一副图的直方图引导另一幅图,伪模态。
7讲一下卷积:
2d,3d,扩张,空间可分离,深度可分离,可变形,每个稍微介绍了下
8激活函数
sigmoid,tanh,relu,每个讲了一下细节还没讲完,问lstm用哪个激活函数,sigmoid。问,没用tanh?回,这方面了解不多,就用到过sigmoid。
9怎么提高泛化能力:
数据上:增加数据集,上面说的数据增强,
训练上,少epoch,调整学习率,小的随机数初始化(但影响小),调节batchsize
网络上:更好的网络,减少网络复杂度,dropout,dropconnect,池化,正则化损失函数,InfoNCE损失函数,自监督策略。
集成学习决策树等。
问:没有提到bn。
我?bn也行?bn主要是减少参数量,降低梯度爆炸,还会拉伸对比度,减少细节特征,引入人工制品吧?过拟合是因为学习能力过强之类的吧?
问:我们不应该希望学习能力越强越好么?
我:我的大脑大受震撼,无言以对。
10.讲一下池化层:
类似于卷积提取特征,但是会压缩特征图,在二维上操作,不会改变通道值。
11.讲一下11卷积:
替代全连接层,跨通道信息交互,降维升纬,多个feature组合。
12.参加了哪些竞赛,今年的mathorcup,泰迪杯
,这俩是啥?参加的人多吗?我?这我还记人数?
13.用到了哪些图像处理算法?讲了三个毕设论文相关的,又不懂这个问这个干嘛。
14.工程上有用LSTM,gru,强化学习?
我大概懂些,但是没用在工程上,只在nas上用了lstm和强化学习。面试官打断,你本科不是学这个的,懂了。
我?你懂个勾勾,你倒是让我说啊?
15.你都没学过这些,什么bagging都没用过。
我:打断,bagging不是有放回的抽样么?在小样本上要用到啊。
又说:你本科没学这些啊。不是计算机专业的之类的巴拉巴拉
16.现在cv太卷了,深度学习成本低,容易用。机器学习快被淘汰了巴拉巴拉。
我:大脑深受震撼。
17排序算法讲一下:
我:讲什么?原理么。
回:复杂度,这些
我:讲了冒泡排序,归并排序,快排,希尔原理复杂度。
18打断:讲一下动态规划。
我:讲什么?做排序?之后说了动态规划简单的流程?
???电话面让讲动态规划?
19.问了我一两个没听过的名词,直接回答没听过。
ps:还有些问题记不得了,反正问了一个小时,你们细品。
大口喷:
1.全程每提一个问题我就要问一句你想让我讲什么?八股就算了,能不能把问题讲清楚了再八股?
2.八股的题库都不更新的么?rcnn那都什么年代的知识了,还要我从头讲到faster?
3.KPI面就已经很恶心了?你KPI还面我一个多小时?
4.麻烦找个有水平的技术面来面好吗?我奶奶照着本子八股都比你会说,搁我这过拟合和学习能力强没关系呢?给你分类100%正确率好不好?
5.cv卷你还三面+hr面?第三面和hr面还想现场面?麻烦面试前看一下我简历好吗。人在南京啊,跑杭州去给你带毒?
—————————————更新—————————————
1.focal loss 是怎么做的?
答:在1-y’上加上一个调制因子
这题答错了,实际公式比我说的复杂


更多模拟面试

全部评论

(8) 回帖
加载中...
话题 回帖

相关热帖

历年真题 真题热练榜 24小时
技术(软件)/信息技术类
查看全部

近期精华帖

热门推荐