我刚刚意识到,由于 nice article ,支持向量机可以用于回归,然而,我对超参数C的定义感到相当困惑。
我很清楚与每个数据点相关的松弛变量\xi_i和分类支持向量机中的超参数C。在那里,目标函数是\min_{w,b} \frac{|w|}{2} + C\sum_{i=1}^N \xi_i,使得
y_i (w \cdot x_i + b) \ge 1- \xi_i和\xi_i \ge 0。
在支持向量机中,C越大,惩罚就越大,因此当C变为无穷大时,软支持向量机就会变成硬支持向量机。(对于原始的latex代码,很抱歉,我记得latex是受支持的,但似乎不是这样)
从链接的文章中,目标函数和约束如下
我认为这些方程还意味着C越大,惩罚就越大。然而,这篇文章的作者提出了相反的观点,
我注意到有人在文章末尾问了作者同样的问题,但没有得到回应。
我猜等式中可能有一个拼写错误,所以我从任何参考资料中寻找支持,然后我发现 SVR in Python 使用相同的约定,正则化的强度与C成反比。我试图检查SVR的源代码,但我找不到任何公式。有人能帮我解决这个问题吗?谢谢!
发布于 2021-11-19 09:03:25
C是正则化参数,这意味着它在W的平方之前,而不是在松弛之前,所以C参数可能等于1/C。
https://stackoverflow.com/questions/68411890