末流985渣硕,非科班,一篇可有可无的水刊论文,没有ccf论文,比赛2个三等奖,1个二等奖,都是小比赛。
1面:
简历深挖,论文深挖(有个没发表的工作,个人感觉还不错,主要介绍了这个工作,反响不错)
检测里面,样本类别不平衡如何处理
iou loss介绍
hrnet介绍
fpn相似的特征融合介绍
算法题很简单,可能前面说的比较好,所以就出的题简单,不记得原题了,不贴了easy难度
反问
2面:
简历深挖,毕设深挖
fpn相似的特征融合介绍
小目标检测如何处理
简介faster rcnn
如何做剪枝
算法题还是很简单,印象中就做个宽搜,感觉起来以为很顺利,没想到三面拉跨了
3面:
先看了眼发表的论文,觉的没的聊,转而问毕设...
比赛用了什么特殊的tricks
然后有个遥感跟踪的比赛,问为什么不用deepsort这种现成的方案
回答那是多目标跟踪,和单目标不同,某些元件可以适用
到这还好吧...就普普通通,也没啥特别的表现,也没啥特别的失误
接下来突然开始开放题,人麻了....可能觉得没啥特别突出的地方就想刁难下吧,hhhh
第一题是目标检测中,有这样一种情况,把一个目标放到一个陌生的背景,检测模型就失效了,问这个怎么解决
回答了数据增强,把背景mask掉,训练时减少对背景的关注,attention加大对目标的注意力,用domain adaptation领域的方案,困难样本挖掘
说了挺多,但是好像都不满意,给我补了2种数据增强的方法,mixup和mosaic,就直接下一个问题了
第二题问10k样本用SGD,batchsize取1,100,10000哪个收敛最快
刚开始回答10000,然后他又说100迭代100次等于10000迭代一次,懵了一下..然后觉得lr相近那迭代100次怎么也还是很有机会超过10000batchsize迭代一次,
毕竟batchsize再大,一次迭代也还是梯度平均后的走一步,而且考虑一个极端情况每个样本都一模一样,那我batchsize1迭代10000次肯定比10000batchsize迭代1次好。
不过他不满意我这个回答,看上去想引导下,但是实在是catch不到他的点?也许是想要我回答10kbatchsize直接退化成GD了?方向都是固定所以一定更快?不懂,不明白。
随口说了个100,看起来他累了不想引导了。
大概知道凉了,算法题也不出了。反问就随便问了下,结束了,hhhh
希望能帮到大家
全部评论
(7) 回帖