一面问得比较广,二面问得比较深
许愿HR面~~
-
逻辑回归和线性回归
-
交叉熵为什么可以做损失函数
-
逻辑回归和SVM的异同
-
SVM如何处理非线性情况(非核方法)软间隔和正则化
-
LR可以处理非线性情况嘛
-
LR的参数可以初始化0嘛
-
深度学习中参数初始化1
-
CNN中[1,1]卷积核的作用
-
BN
-
如何从100个特征中选取30个特征
-
为啥不用L0正则
-
堆
-
一致性哈希
-
Layer Normalization
-
方差的无偏估计推导
-
ROC/AUC
手撕代码:
- 前缀和
- 计数排序
- 递归排序变种
全部评论
(7) 回帖