一面
项目与自我介绍
o由于作者是某研发了LTP的实验室的,所以有如下两个问题(NLP相关),小看官们可以选择性略过这一趴:
LTP分词怎么做的
UNK怎么处理§
char-emb:英文字符中使用char-embedding编码得到的feature来代替word-embedding;或char-embedding编码得到的feature拼接word-embedding;
词汇表扩展:为不同的UNK编号,进行训练。
copy机制:在NLP生成任务时,例如自动摘要任务,摘要中有很多词都是来自于输入部分,比如机构名、地名、人名。这些词出现很少有的甚至只出现一次,如果靠语言模型来生成是不可能的。而使用拷贝模型,则在很大程度上解决了UNK的问题。
·
还知道什么分词方法
已知前序和后序能不能重构二叉树?·
不能,“根左右”和“左右根”无法判断左右子树。
·
矩阵的特征值和特征向量是什么?
设A是n阶方阵,如果存在数m和非零n维列向量x,使得Ax=λx成立,则称 λ 是矩阵A的一个特征值。
非零向量x称为A的对应于特征值λ的特征向量。
式Ax=λx也可写成( A-λE)X=0。这是n个未知数n个方程的齐次线性方程组,它有非零解的充分必要条件是系数行列式| A-λE|=0。
·
生成模型和判别模型:
生成模型:学习得到联合概率分布P(x,y),即特征x和标记y共同出现的概率,然后(通过贝叶斯公式)求条件概率分布p(y|x),最后选取使得p(y|x)最大的y_i.。能够学习到数据生成的机制。
Eg:朴素贝叶斯/ HMM / LDA·
判别模型:学习得到条件概率分布P(y|x),即在特征x出现的情况下标记y出现的概率。§
Eg: KNN / LR / SVM / Boosting /感知机/决策树/最大熵模型/ CRF
参数模型和非参数模型:
参数模型通常假设总体(随机变量)服从某一个分布,该分布由一些参数确定(比如正态分布由均值和方差确定)
假设可以极大地简化学习过程,但是同样可以限制学习的内容。简化目标函数为已知形式的算法就称为参数机器学习算法。§
Eg: LR /感知机/ SVM / LSTM ·
非参数模型对于总体的分布不做任何假设,只是知道总体是一个随机变量,其分布是存在的(分布中也可能存在参数),但是无法知道其分布的形式,更不知道分布的相关参数,只有在给定一些样本的条件下,能够依据非参数统计的方法进行推断。
通过不做假设,算法可以自由的从训练数据中学习任意形式的函数。
Eg:决策树 / SVM / LSTM
§从上述的区别中可以看出,问题中有没有参数,并不是参数模型和非参数模型的区别。其区别主要在于总体的分布形式是否已知。而为何强调“参数”与“非参数”,主要原因在于参数模型的分布可以有参数直接确定
二面
项目与自我介绍
oPython C++怎么调试怎么断点调试
小白都会的print大法
IDE:PyCharm可以在某行代码增加断点
pdb:python自带工具pdb进行调试,
命令行使用:python -m pdb xxx.py进入调试模式,类似于c++的gdb调试
代码使用:代码中添加pdb,在代码指定位置设置上断点pdb.set_trace()
opython解释器是什么/如何工作编译过程和执行原理
用户提交源码后,解释器将源码转化为字节码,在Python中一般为.pyc文件,在Java中则是.class文件,这个字节码机器不能执行,由虚拟机执行(这个虚拟机不是vmware或者virtualbox的虚拟机概念),在Java中同样是由JVM来实现。由于字节码一般是不依赖于操作系统的,所以可以做到跨平台运行。
当python程序第二次运行时,首先程序会在硬盘中寻找pyc文件,如果找到,则直接载入,否则就重复上面的过程。
·
oPython中的几种解释器知道几个:
CPython:CPython是标准Python,也是其他Python编译器的参考实现。通常提到“Python”一词,都是指CPython。CPython由C编写,将Python源码编译成CPython字节码。
·
Jython:Jython在JVM上实现的Python,由Java编写。Jython将Python源码编译成JVM字节码,由JVM执行对应的字节码
IronPython:IronPython与Jython类似,所不同的是IronPython在CLR上实现了Python,即面向.NET平台,由C#编写。
·
PyPy:使用RPython实现
oID3\C4.5等基本树是二叉树还是多叉树
ID3只能处理离散型变量,离散特征(离散数量>2)时是多叉树
C4.5可以处理离散型/连续型变量,离散特征(离散数量>2)时是多叉树,连续特征时是二叉树
·
被切过的特征还会再切吗?
连续可以在切,离散不可以
·
编程题:
01矩阵里找面积最大的全1矩阵
思路:转换成找面积最大的直方图问题
暴力法
单调栈
动态规划
三面
项目与自我介绍
oGBDT和RF的区别:
RF属于bagging方法,并行方法,由分类树/回归树组成,结果由多棵树表决决定
异常值不敏感,目的是减少模型的方差,不需要数据预处理、归一化
GBDT属于boosting方法,串行方法,只由回归树组成,结果为多棵树累加之和
异常值敏感,目的是减少模型的偏差,需要进行特征归一化
oGBDT和RF哪个树比较深?
单颗树的话是RF深,RF中的树是过拟合的,对样本切对特征切,构造多样性样本集合,每棵树甚至不剪枝。
·
哪些学习器是凸优的?
凸优:局部最优即全局最优
对于凸优化问题,所有的局部极小值都是全局极小值,因此这类问题一般认为是比较容易求解的问题。
逻辑回归、SVM、线性回归凸优。
神经网络不凸优,因为可能收敛到鞍点。
oSVM有几种,都是什么,几种核?
拉格朗日乘子法
是一种寻找变量受一个或多个条件所限制的多元函数的极值的方法。这种方法将一个有n个变量与k个约束条件的最优化问题转换为一个有n + k个变量的方程组的极值问题,其变量不受任何约束。
SVM中涉及相关知识
hessian矩阵
概率题:
两堆水果:其中有橘子和苹果,第一堆中有黄色:绿色为7:3;第二堆中有黄色:绿色为5:5;已知橘子都是黄色,苹果都是绿色;那么现在拿出一个水果是苹果,则苹果是从第一堆拿出来的概率是多少?
解:
P(绿 第一堆) = 3/10 * 1/2 = 3/20
P(绿) = 8/20
P(第一堆|绿) = P(绿 第一堆) / P(绿) = 3/8
答:3/8
全部评论
(2) 回帖