一面
- 介绍一个最有把握的比赛
- 介绍比赛中itemcf具体做法
- 在itemcf中如何引入时间间隔信息和位置间隔信息
- 基于商品属性embedding的召回这么做的
- Annoy的原理
- 基于w2v的ANN怎么做的
- w2v的原理
- w2v的loss函数
- loss函数还有哪些
- 如何解决冷启动问题
- 如何评价召回的效果
- 如何把召回的信息引入到排序
- GBDT,xgboost,lightgbm改进的过程
- 简单推导xgboost
- 构建一棵树分裂特征怎么选择
- 计算分裂增益的方法有哪些
- LSTM的门机制
- LSTM相较于RNN的优势
- transformer的机制
- 推荐里面深度模型的了解
- NN怎么达到泛化性
- 如何保证的稀疏性
- L1正则为什么可以达到模型的稀疏性
二面
- 比赛分工
- embedding存在之前没有出现过id怎么办
- w2v的样本怎么构造
- 有没有过滤低频id
- cbow 与 skip-gram 的区别和优缺点
- 多任务学习有哪些结构
- 多个召回怎么合并的
- 多个召回分数之间是可比的吗
- 各个召回的权重是怎么选取的
- 推荐系统里面是如何考虑冷门商品
- 新增一路召回,在排序阶段需要做什么改进
- 树模型对离散特征怎么处理的
- 树模型怎么决定一个叶子结点是否要分裂
- xgboost正则化项和什么有关
三面
做了三道算法题:leetcode 53.最大子序和,leetcode 75.颜色分类,leetcode 442.数组中重复的数据
四面
- 介绍项目
- 算法题:剑指 Offer 60.n个骰子的点数
全部评论
(4) 回帖