sklearn中的SGDClassifier

时间:2018-03-29 21:58:42   收藏:0   阅读:232

常用于大规模稀疏机器学习问题上

1.优点:

高效

简单

2.可以选择损失函数

  • loss=”hinge”: (soft-margin)线性SVM.
  • loss=”modified_huber”: 带平滑的hinge loss.
  • loss=”log”: logistic回归

3.通过penalty参数,可以设置对应的惩罚项。SGD支持下面的罚项:

  • penalty=”l2”: 对coef_的L2范数罚项
  • penalty=”l1”: 对coef_的L1范数罚项
  • penalty=”elasticnet”: L2和L1的convex组合; (1 - l1_ratio) * L2 + l1_ratio * L1

详见:http://d0evi1.com/sklearn/sgd/

原文:https://www.cnblogs.com/stAr-1/p/8672551.html

评论(0
© 2014 bubuko.com 版权所有 - 联系我们:wmxa8@hotmail.com
打开技术之扣,分享程序人生!