C-SVM的实质是在原始特征空间或者变换空间寻找一个最优超平面,能把两类样本集很好的分开,这个最优超平面的最优是“最大间隔”+“最少错分样本数目”的折中。 LS-SVM的实质也是寻找一个最优超平面,能把两类样本集很好的分开,但这个最优超平面所在的最优分类间隔的两个超平面是这样确定的:某类样本侧的超平面间隔关于该类样本的距离平方和最小。
因此基于不同的“最优”标准,就得到了不同的目标函数,因此尽管都是在寻找最优超平面,但因标准不一样,所以找到的超平面也不一样。
对于C-SVM来说,最优超平面仅有占据训练样本少数比例的支持向量所决定;而LS-SVM的最优超平面是由所有训练样本共同决定的。
LIBSVM: A Library for Support Vector Machines 这是libsvm官方文档
目标函数###
SVM软间隔原始形式
min21WTW+Ci=1∑nξ(w,xi,yi) 当损失函数 ξ(w,xi,yi)=max(0,(1−yiwxi))时就叫做L1-SVM,
当损失函数 ξ(w,xi,yi)=max(0,(1−yiwxi))2时就叫做L2-SVM。
对偶函数统一形式###
αmin21αTQα−eTαsubjectto0≤αi≤U,∀ieT为单位列向量Q=Q′+D,Qij′=yiyj<xi,xj>,D为对角阵 也可以从对偶形式定义:
对于L1-SVM: Dii=0&&U=C
对于L2-SVM: Dii=1/(2C)&&U=+∞
Coordinate Descent Method###
αik+1=argminf(α1k+1,⋯,αi−1k+1,ε,αi+1k,⋯,αnk) 额,不知道怎么算法排版,后再排
然后对单维度进来牛顿法求解,
ADMM###
f=n1i=1∑n(max{1−yiwTxi,0}+2nλ∣∣w∣∣2)f=n/21i=1∑n/2(max{1−yiw1Txi,0}+2nλ∣∣w1∣∣2)+n/21i=n/2+1∑n(max{1−yiw2Txi,0}+2nλ∣∣w2∣∣2)w1=w2 参考佳文####
SVM学习——Coordinate Desent Method