sklearn中文学习手册.pdf

  1. 1、本文档共329页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
2018/2/25 1.1. 广义线性模型 — scikit-learn 0.19.0 中文文档 - ApacheCN 首页 安装 文档 示例 时光轴 项目相关 贡献者 GitHub 1.1. 广义线性模型 下面是一组用于回归的方法,其中目标值 y 是输入变量 x 的线性组合。 在数学概念中,如果 是预测值。 » 在整个模块中,我们定义向量 作为 coef_ ,定义 作为 intercept_ 。 如果需要使用广义线性模型进行分类,请参阅 logistic 回归 。 1.1.1. 普通最小二乘法¶ LinearRegression 拟合一个带有系数 的线性模型,使得数据集实际观测数据和预测数据 (估计值)之间的残差平方和最小。其数学表达式 为: LinearRegression 会调用 fit 方法来拟合数组 X , y ,并且将线性模型的系数 存储在其成员变量 coef_ 中: from sklearn import linear_model reg linear_model.LinearRegression () reg.fit ([[0, 0], [1, 1], [2, 2]], [0, 1, 2]) LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False) reg.coef_ array([ 0.5, 0.5]) 然而,对于普通最小二乘的系数估计问题,其依赖于模型各项的相互独立性。当各项是相关的,且设计矩阵 的各列近似线性相关,那么,设计矩阵会趋向 于奇异矩阵,这会导致最小二乘估计对于随机误差非常敏感,产生很大的方差。例如,在没有实验设计的情况下收集到的数据,这种多重共线性 (multicollinearity)的情况可能真的会出现。 示例: Linear Regression Example . 普通最小二乘法复杂度 该方法使用 X 的奇异值分解来计算最小二乘解。如果 X 是一个 size 为 (n, p) 的矩阵,设 ,则该方法的复杂度为 1.1.2. 岭回归 Ridge 回归通过对系数的大小施加惩罚来解决 普通最小二乘法 的一些问题。 岭系数最小化的是带罚项的残差平方和, 其中, 是控制系数收缩量的复杂性参数: 的值越大,收缩量越大,这样系数对共线性的鲁棒性也更强。 Previous Next /cn/0.19.0/modules/linear_mod

文档评论(0)

文人教参 + 关注
实名认证
内容提供者

老师教学,学生学习备考课程、成人语言培训课程及教材等为提升学生终身学习竞争力,塑造学生综合能力素质,赋能学生而努力

版权声明书
用户编号:6103150140000005

1亿VIP精品文档

相关文档