sktlearn中逻辑回归的超参数C(Inverse of regularization strength)的作用是什么

分类: machinelearning |
老师您好,麻烦问一下sktlearn种逻辑回归的超参数C(Inverse of regularization
strength)的作用是什么?不同的值对模型会产生什么影响?在sktlearn中的LogisticRegression源码注释里解释这个参数越小则表明越强的正则化,不太明白是什么意思?是用来防止过拟合的么?可是LogisticRegression方法中有penalty参数了,如下:
感觉这个超参数C又好像指的是学习率,因为我记得逻辑回归通常需要指定的超参数就是梯度下降的学习率和惩罚值
这是《机器学习升级版(系列)》中“回归”章节的问题。
这个C即课件中的1/lamda:即正则项系数的倒数——相似的情况可以参考“SVM”章节中的“线性SVM”部分的公式讨论。
同时,可以参考配套代码8.2,也有关于C的相关交叉验证设置。
这个C即课件中的1/lamda:即正则项系数的倒数——相似的情况可以参考“SVM”章节中的“线性SVM”部分的公式讨论。
同时,可以参考配套代码8.2,也有关于C的相关交叉验证设置。
老师,这个C是类似与线性回归中的lamda扰动么?如下:
前一篇:矩阵运算
后一篇:详解numpy的argmax