支持向量机总结

原理

支持向量机(Support Vecor Machine,SVM)是既可以解决线性问题又可以解决非线性问题,既可以用于分类,又可以用于回归的经典算法。它的基本模型是在特征空间中寻找间隔最大化的分离超平面,使距离最近的样本点到该超平面的距离尽可能的远。(间隔最大使它有别于感知机)

SVM为什么采用间隔最大化?

为什么要将求解SVM的原始问题转换为其对偶问题?

SVM算法优缺点总结:

SVM算法的主要优点有:

解决高维特征的分类回归问题很有效,在特征维度大于样本数时依然有很好的效果。
仅仅使用一部分支持向量来做超平面的决策,无需依赖全部数据。
使用核函数可以灵活的来解决各种非线性的分类回归问题。
样本量不是海量数据的时候,分类准确率高,泛化能力强。

SVM算法的主要缺点有:

特征维度远大于样本数时,SVM表现一般。
SVM在样本量非常大,核函数映射维度非常高时,计算量过大,不太适合使用。
非线性问题的核函数的选择没有通用标准,难以选择一个合适的核函数。
SVM对缺失数据敏感。
SVM要进行距离计算,需要对数据进行标准化处理,而决策树不需要。

SVM和LR的异同点

SVM和LR的相同点:

SVM和LR的不同点:

参考文献

支持向量机总结