在互联网大厂算法岗的面试环节中,深度学习相关八股文的重要性早已无需多言。算法岗面试八股文看似是一个大家"背答案,对于记忆力的比拼",但实际上却是互联网大厂面试官考察候选人知识体系完整性和基础知识掌握扎实程度最直接、有效的方式!因此八股文在面试中的重要性不言而喻。
大家在求职过程中会发现,当下很多大厂算法岗面试八股文资料杂乱无章,不成体系,需要花费大量的时间和精力进行整理,耽误求职复习进度。本深度学习算法岗求职八股文专栏将互联网大厂面试中的高频八股知识点进行了汇总和梳理,并且附带参考答案。助力大家在求职面试前打下扎实的基础功底,面试过程中游刃有余!
本文是《深度学习算法岗求职八股文专栏》 中【深度学习】高频考点系列的第四篇文章,整理了面试过程中深度学习的高频考点,并且附带参考答案。
如果我的文章和专栏内容对屏幕前的你求职和实习有帮助的话,欢迎关注我,并对文章点赞、评论、收藏、送花,一键四连~
本专栏将持续更新,订阅我的专栏可以及时查看最新的更新内容!你们的鼓励就是我持续输出的强大动力,非常感谢!
一、谈一谈你对于ResNet模型中残差模块的理解?
残差模块的核心是跳跃连接,其设计初衷是将"直接学习输入到输出的映射"转化为"学习输入到输出的残差",从而降低模型的训练难度。残差模块可以缓解梯度消失或者梯度爆炸、简化模型的优化目标、支持超深网络训练等功能。
二、谈一谈Smooth L1 Loss和L1 Loss的区别是什么?
(1)对于异常值的鲁棒性方面:
- L1 Loss对异常值较为敏感:当预测值与真实值差距很大时,L1 Loss 的数值会随误差线性增长,可能导致模型在训练中过度关注这些离群点,影响对正常样本的拟合
- Smooth L1 Loss对异常值更加鲁棒:当误差超过1时,损失随误差线性增长(同 L1 Loss),但误差小于1时采用平方形式,使得损失增长更缓慢。
(2)梯度方面:
- L1 Loss的梯度恒为1
- Smooth L1 Loss的梯度具有自适应性
三、说一下sigmoid损失和softmax损失的区别?
(1)sigmoid损失函数:常用于二分类任务,将单个输出节点的预测值映射到 (0,1) 区间,代表样本属于某一类别的概率。
(2)softmax损失函数:常用于多分类任务,将多个输出节点的 logit 转换为和为 1 的概率分布,代表样本属于每个类别的概率。
四、介绍几种深度学习中常见的降采样操作?
(1)采用步长大于1的卷积操作:在卷积操作中设置步长大于1,通过增大滑动窗口的步长直接减少输出特征图的尺寸
(2)采用池化层:包括最大池化、平均池化、自适应池化等等
五、介绍几种深度学习中常见的上采样操作?
(1)转置卷积/反卷积:通过在输入特征图中填充零,并使用特定步长的卷积核进行计算,实现特征图尺寸的放大。
(2)采样插值法:插值法是一种无参数的上采样方法,常见的上采样插值方法包括:最近临插值、双线性插值、双三次插值
六、分类任务中为什么交叉熵损失函数比均方误差损失函数更常用?
分类任务模型输出通常是概率分布,其优化的核心目标是对离散类别进行概率估计,所以损失函数的设计需要直接对齐"概率分布差异"这一核心目标
- 交叉熵损失:本质是衡量两个概率分布之间的差异,与分类任务的目标完全一致
- 均方误差损失:本质衡量的是预测数值与目标数值之间的平方差,而不是直接衡量两个概率分布的相似性。这种数值差异的惩罚在概率解释上不如交叉熵直观
全部评论
(7) 回帖