今晚终于OC了
base:北京,机器学习算法工程师
8.16连续三面
一面
介绍项目
lr+GBDT用过吗,是怎么进行学习的为什么有效
lr和svm的区别
lr的损失函数
解决梯度消失的算法
batch归一化的训练和测试的区别,那既然用了batch归一化,还需要对数据集归一化吗
batch归一化在训练中为什么要做滑动平均的操作
rbf为了减少方差会有什么操作("随机"提现在哪里)
bagging和boosting的区别
算法题:LCS
反问环节:面向的业务
二面
介绍项目
resnet结构介绍
其余的时间太久忘了
算法题:不用库函数实现str转int,抠了细节,溢出问题和字符串不合法问题
反问环节:用人标准
hr面
因为实习面过了,hr说她看得见前面的评价
所以没有多问什么问题,还说实习的时候面我的hrbp是她的搭档对我印象很深
起码到这里觉得hr稳了哈哈
全部评论
(2) 回帖