首页 > 机器学习岗阿里-飞猪算法岗社招面经
头像
玟星星星星
发布于 2021-07-29 20:40
+ 关注

机器学习岗阿里-飞猪算法岗社招面经

一面  

项目与自我介绍

o由于作者是某研发了LTP的实验室的,所以有如下两个问题(NLP相关),小看官们可以选择性略过这一趴:

LTP分词怎么做的

UNK怎么处理§

char-emb:英文字符中使用char-embedding编码得到的feature来代替word-embedding;或char-embedding编码得到的feature拼接word-embedding;

词汇表扩展:为不同的UNK编号,进行训练。

copy机制:在NLP生成任务时,例如自动摘要任务,摘要中有很多词都是来自于输入部分,比如机构名、地名、人名。这些词出现很少有的甚至只出现一次,如果靠语言模型来生成是不可能的。而使用拷贝模型,则在很大程度上解决了UNK的问题。

·

还知道什么分词方法

已知前序和后序能不能重构二叉树?·

不能,“根左右”和“左右根”无法判断左右子树。

·

矩阵的特征值和特征向量是什么?

设A是n阶方阵,如果存在数m和非零n维列向量x,使得Ax=λx成立,则称 λ 是矩阵A的一个特征值。

非零向量x称为A的对应于特征值λ的特征向量。

式Ax=λx也可写成( A-λE)X=0。这是n个未知数n个方程的齐次线性方程组,它有非零解的充分必要条件是系数行列式| A-λE|=0。

·

生成模型和判别模型:

生成模型:学习得到联合概率分布P(x,y),即特征x和标记y共同出现的概率,然后(通过贝叶斯公式)求条件概率分布p(y|x),最后选取使得p(y|x)最大的y_i.。能够学习到数据生成的机制。

Eg:朴素贝叶斯/ HMM / LDA·

判别模型:学习得到条件概率分布P(y|x),即在特征x出现的情况下标记y出现的概率。§

Eg: KNN / LR / SVM / Boosting /感知机/决策树/最大熵模型/ CRF

参数模型和非参数模型:

参数模型通常假设总体(随机变量)服从某一个分布,该分布由一些参数确定(比如正态分布由均值和方差确定)

假设可以极大地简化学习过程,但是同样可以限制学习的内容。简化目标函数为已知形式的算法就称为参数机器学习算法。§

Eg: LR /感知机/ SVM / LSTM ·

非参数模型对于总体的分布不做任何假设,只是知道总体是一个随机变量,其分布是存在的(分布中也可能存在参数),但是无法知道其分布的形式,更不知道分布的相关参数,只有在给定一些样本的条件下,能够依据非参数统计的方法进行推断。

通过不做假设,算法可以自由的从训练数据中学习任意形式的函数。

Eg:决策树 / SVM / LSTM

§从上述的区别中可以看出,问题中有没有参数,并不是参数模型和非参数模型的区别。其区别主要在于总体的分布形式是否已知。而为何强调“参数”与“非参数”,主要原因在于参数模型的分布可以有参数直接确定 

二面  

项目与自我介绍

oPython C++怎么调试怎么断点调试

小白都会的print大法

IDE:PyCharm可以在某行代码增加断点

pdb:python自带工具pdb进行调试,

命令行使用:python -m pdb xxx.py进入调试模式,类似于c++的gdb调试

代码使用:代码中添加pdb,在代码指定位置设置上断点pdb.set_trace()

opython解释器是什么/如何工作编译过程和执行原理

用户提交源码后,解释器将源码转化为字节码,在Python中一般为.pyc文件,在Java中则是.class文件,这个字节码机器不能执行,由虚拟机执行(这个虚拟机不是vmware或者virtualbox的虚拟机概念),在Java中同样是由JVM来实现。由于字节码一般是不依赖于操作系统的,所以可以做到跨平台运行。

当python程序第二次运行时,首先程序会在硬盘中寻找pyc文件,如果找到,则直接载入,否则就重复上面的过程。

·

oPython中的几种解释器知道几个:

CPython:CPython是标准Python,也是其他Python编译器的参考实现。通常提到“Python”一词,都是指CPython。CPython由C编写,将Python源码编译成CPython字节码。

·

Jython:Jython在JVM上实现的Python,由Java编写。Jython将Python源码编译成JVM字节码,由JVM执行对应的字节码

IronPython:IronPython与Jython类似,所不同的是IronPython在CLR上实现了Python,即面向.NET平台,由C#编写。

·

PyPy:使用RPython实现

oID3\C4.5等基本树是二叉树还是多叉树

ID3只能处理离散型变量,离散特征(离散数量>2)时是多叉树

C4.5可以处理离散型/连续型变量,离散特征(离散数量>2)时是多叉树,连续特征时是二叉树

·

被切过的特征还会再切吗?

连续可以在切,离散不可以

·

编程题:

01矩阵里找面积最大的全1矩阵

思路:转换成找面积最大的直方图问题

暴力法

单调栈

动态规划

 

三面 

项目与自我介绍

oGBDT和RF的区别:

RF属于bagging方法,并行方法,由分类树/回归树组成,结果由多棵树表决决定

异常值不敏感,目的是减少模型的方差,不需要数据预处理、归一化

GBDT属于boosting方法,串行方法,只由回归树组成,结果为多棵树累加之和

异常值敏感,目的是减少模型的偏差,需要进行特征归一化

oGBDT和RF哪个树比较深?  

单颗树的话是RF深,RF中的树是过拟合的,对样本切对特征切,构造多样性样本集合,每棵树甚至不剪枝。

·

哪些学习器是凸优的?

凸优:局部最优即全局最优

对于凸优化问题,所有的局部极小值都是全局极小值,因此这类问题一般认为是比较容易求解的问题。

逻辑回归、SVM、线性回归凸优。

神经网络不凸优,因为可能收敛到鞍点。

oSVM有几种,都是什么,几种核?

拉格朗日乘子法

是一种寻找变量受一个或多个条件所限制的多元函数的极值的方法。这种方法将一个有n个变量与k个约束条件的最优化问题转换为一个有n + k个变量的方程组的极值问题,其变量不受任何约束。

SVM中涉及相关知识

hessian矩阵

概率题:

两堆水果:其中有橘子和苹果,第一堆中有黄色:绿色为7:3;第二堆中有黄色:绿色为5:5;已知橘子都是黄色,苹果都是绿色;那么现在拿出一个水果是苹果,则苹果是从第一堆拿出来的概率是多少?

解:

P(绿 第一堆)  = 3/10 * 1/2 = 3/20

P(绿) = 8/20

P(第一堆|绿) =  P(绿 第一堆) / P(绿) = 3/8

答:3/8

 


更多模拟面试

全部评论

(2) 回帖
加载中...
话题 回帖

相关热帖

近期热帖

近期精华帖

热门推荐