误分点到超平面的距离
对偶解法(Gram矩阵)
特征空间,
样本点
三要素:
1、距离度量:曼哈顿和欧氏距离
2、k值选取:(估计误差和近似误差),交叉验证求最优
3、分类决策:多数表决
kd树(构造和搜索,适用于训练实例远大于空间维数)
特征与类别的联合概率布,条件独立解释
生成模型
(学习联合概率,求条件概率)
极大似然估计(参数估计),
概率计算公式,
EM算法
(0-1损失函数)期望风险最小化就是后验概率最大化
概率估计:极大似然估计或贝叶斯估计(拉普拉斯平滑)
特征选择,生成,
剪枝
if-then规则:互斥并且完备
启发式学习,得出次最优
生成:局部最优;剪枝:全局最优
信息增益
信息增益比
分类:基尼系数
回归:平方误差
整体损失函数减少的程度
递归减去最小的g(t)
逻辑斯蒂回归
和最大熵模型
特征条件下类别的条件
概率分布,对数线性模型
极大似然估计,
正则化的极大似然估计
逻辑斯蒂损失
二项:
改进的迭代尺度算法,
梯度下降,
拟牛顿法
线性:
非线性(核):
极小化正则化合页函数
软间隔最大化
凸优化问题是指约束最优化问题,最大分离间隔可化为凸二次规划问题
学习的对偶算法:拉格朗日对偶性
KKT条件:对偶问题和原始问题同最优化解
软间隔就是允许异常值的间隔
感知机的损失函数的右平移是合页函数
常用核:多项式核,高斯核
SMO:启发式算法,第一个变量a1是违反KKT最严重的样本点,
第二个变量a2是使其变化足够大的点
AdaBoost:
系数am:误差越大的分类器,权值am越小
系数wm: 误分类的样本的权值wm 加大,正确分类的wm减少
GBDT:
回归树:平方损失(残差),指数损失,梯度提升(针对一般的损失函数)
不同初值可能得到不同的参数估计
EM算法是不断求下界的极大化逼近求解对数似然函数极大化的算法,不能保证收敛到全局最优
高斯混合模型的EM算法
E步:Q函数-完全数据的期望
M步:极大化Q函数
生成模型
时序模型
极大似然后验概率估计
概率计算公式
EM算法
隐马尔可夫三要素λ=(A,B,∏)
两个假设:齐次马尔可夫和观测独立
概率计算:直接计算和前后向算法
本文地址:http://syank.xrbh.cn/quote/7098.html 迅博思语资讯 http://syank.xrbh.cn/ , 查看更多