- 损失函数:交叉熵
- 权重更新的推导。
- 从权重更新的公式中,明白交叉熵相对于MSE损失的优点。
-
MSE Loss
$\frac{\partial(L)}{\partial{W}}=\frac{\partial}{\partial{W}}\sum(y_i-\frac{1}{1+e^{-(Wx+b)}})^2 = \sum(y-\pi(x_i))\pi(x_i)(1-\pi(x_i))x_i$ -
Cross Entroy Loss
$\frac{\partial(L)}{\partial{W}}=\sum{(y-\pi(x_i))x_i}$ 在MSE的权重更新多了一个$\pi'(x)$, 当$\pi(x_i)=0.05, y_i=1$时,$\pi'(x)=0.05*0.95$很小,更新梯度小
- 多个角度解释逻辑回归与SVM的之间的关系。
-
LR和SVM都是分类模型。一般用于处理线性二分类问题
-
两个方法都可以增加不同的正则化项,如l1, l2等。
-
两者都能用来做非线性分类,用核函数
-
LR和SVM都是线性模型
-
都属于判别模型
区别:
-
LR是参数模型,SVM是非参数模型。
-
损失函数:LR用的是logistical loss, SVM用的是hinge loss.
-
SVM不直接依赖数据分布,LR依赖,SVM只与支持向量有关。
-
SVM本身是结构风险最小化的模型,LR是经验风险最小化模型
-
如果特征的数量大到和样本数量差不多,则选用LR或者线性核的SVM;
-
如果特征的数量小,样本的数量正常,则选用SVM+高斯核函数;
-
如果特征的数量小,而样本的数量很大,则需要手工添加一些特征从而变成第一种情况。
-
理解SVM目标函数的由来。
- SVM基本型:
- 拉格朗日函数
- SVM的对偶型
- 求导,得:
- SVM的对偶问题等价于找到一组合适的参数$\alpha$,使得
-
理解SVM中核技巧的使用。
-
将目标函数转化成对偶问题的推导(软间隔,硬间隔)。
-
为什么要转换成对偶问题求解,求解的权重个数。
-
对偶问题将原始问题中的约束转为了对偶问题中的等式约束
-
方便核函数的引入
-
对偶问题更容易求解
-
改变了问题的复杂度。由求特征向量w转化为求比例系数a,在原始问题下,求解的复杂度与样本的维度有关,即w的维度。在对偶问题下,只与样本数量有关。
-
-
SMO(Sequential Minimal Optimization)
- 常见面试题:
- SVM的原理是什么?
- SVM是一种二类分类模型。它的基本模型是在特征空间中寻找间隔最大化的分离超平面的线性分类器。(间隔最大是它有别于感知机)
- 当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机;
- 当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。
- SVM为什么采用间隔最大化
- 当训练数据线性可分时,存在无穷个分离超平面可以将两类数据正确分开。
- 感知机利用误分类最小策略,求得分离超平面,不过此时的解有无穷多个。
- 线性可分支持向量机利用间隔最大化求得最优分离超平面,这时,解是唯一的。另一方面,此时的分隔超平面所产生的分类记过是最鲁棒的,对未知实例的泛化能力最强。
- 为什么将求解SVM的原始问题转换为其对偶问题? 1. 对偶问题往往更容易求解 2. 自然引入核函数,进而推广到非线性分类问题。
- SVM如何处理多分类问题?
- 多个二分类器
- 目标函数修改,将多个分类面的参数求解合并到一个最优化问题里面。
- SVM的原理是什么?









