SVM 基本型
- 划分超平面:
- 点到超平面的距离:
- 支持向量(support vector):使上式成立取等的样本点
- 间隔(margin):两个异类支持向量到超平面的距离
- SVM 基本型(Support Vector Machine)
- 凸优化求解:复杂度与样本维度(等于权值 的维度)有关
对偶问题
- 复杂度与样本数量(等于拉格朗日算子的数量)有关
- 解的稀疏性:最终模型仅与支持向量有关
- KKT 条件导出
对偶问题的转化
- Step1: 拉格朗日函数:
- Step2: 对 和 求偏导并令为零
- Step3: 回代可得
求解对偶问题
- SMO (Sequential Minimal Optimization)
- 选取一对需要更新的变量 和
- 先选违背 KKT 条件最大者,再选使目标函数增长最快
- 实际中启发式:选取两变量所对应样本之间间隔最大
- 固定其它参数,更新 和
- 选取一对需要更新的变量 和
核函数
- 核函数:
- 为核函数 核矩阵 半正定
- 为核函数,则以下为核函数
| 常用核函数 | |
|---|---|
| 线性核 | |
| 多项式核 | |
| 高斯核 | |
| 拉普拉斯核 | |
| Sigmoid 核 |
- 支持向量展式(利用对偶问题):
软间隔
- 优化目标:
- 松弛变量
- 原问题
- 对偶问题(损失函数为 hinge)
| 损失函数 | Remark | |
|---|---|---|
| 0/1 | 不易求解 | |
| hinge | 保持稀疏性 | |
| exp | ||
| log | 几率回归模型,无稀疏性 |
- 一般形式:
- 结构风险:
- 经验风险:,模型与训练数据契合程度
支持向量回归 SVR
-
- 落入中间 间隔带的样本不计算损失,
核方法
-
表示定理:对于任意的单调递增函数 和任意非负损失函数 ,优化问题
的解总可以写成
-
KLDA
-
KPCA