avatar
文章
2976
标签
100
分类
63
首页
时间轴
标签
分类
知识库
关于
友链
LogoEstom的博客0SUMMARY 返回首页
搜索
首页
时间轴
标签
分类
知识库
关于
友链

0SUMMARY

发表于2021-03-20|更新于2021-03-25|Sklearn
|总字数:594|阅读时长:2分钟|浏览量:
  • 安装 scikit-learn
  • 用户指南
    • 1. 监督学习
      • 1.1. 广义线性模型
      • 1.2. 线性和二次判别分析
      • 1.3. 内核岭回归
      • 1.4. 支持向量机
      • 1.5. 随机梯度下降
      • 1.6. 最近邻
      • 1.7. 高斯过程
      • 1.8. 交叉分解
      • 1.9. 朴素贝叶斯
      • 1.10. 决策树
      • 1.11. 集成方法
      • 1.12. 多类和多标签算法
      • 1.13. 特征选择
      • 1.14. 半监督学习
      • 1.15. 等式回归
      • 1.16. 概率校准
      • 1.17. 神经网络模型(有监督)
    • 2. 无监督学习
      • 2.1. 高斯混合模型
      • 2.2. 流形学习
      • 2.3. 聚类
      • 2.4. 双聚类
      • 2.5. 特征分解降维(矩阵分解问题)
      • 2.6. 协方差估计
      • 2.7. 新奇和异常值检测
      • 2.8. 密度估计
      • 2.9. 神经网络模型(无监督)
    • 3. 模型选择和评估
      • 3.1. 交叉验证:评估估算器的表现
      • 3.2. 调整估计器的超参数
      • 3.3. 模型评估: 量化预测的质量
      • 3.4. 模型持久化
      • 3.5. 验证曲线: 绘制分数以评估模型
    • 4. 检验
      • 4.1. 部分依赖图
    • 5. 数据集转换
      • 5.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器
      • 5.2. 特征提取
      • 5.3 预处理数据
      • 5.4 缺失值插补
      • 5.5. 无监督降维
      • 5.6. 随机投影
      • 5.7. 内核近似
      • 5.8. 成对的矩阵, 类别和核函数
      • 5.9. 预测目标 (y) 的转换
    • 6. 数据集加载工具
      • 6.1. 通用数据集 API
      • 6.2. 玩具数据集
      • 6.3 真实世界中的数据集
      • 6.4. 样本生成器
      • 6.5. 加载其他数据集
    • 7. 使用scikit-learn计算
      • 7.1. 大规模计算的策略: 更大量的数据
      • 7.2. 计算性能
      • 7.3. 并行性、资源管理和配置
  • 教程
    • 使用 scikit-learn 介绍机器学习
    • 关于科学数据处理的统计学习教程
      • 机器学习: scikit-learn 中的设置以及预估对象
      • 监督学习:从高维观察预测输出变量
      • 模型选择:选择估计量及其参数
      • 无监督学习: 寻求数据表示
      • 把它们放在一起
      • 寻求帮助
    • 处理文本数据
    • 选择正确的评估器(estimator.md)
    • 外部资源,视频和谈话
  • API 参考
  • 常见问题
  • 时光轴
文章作者: Estom
文章链接: https://estom.github.io/2021/03/19/Sklearn/sklearn-doc-zh/master/0SUMMARY/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Estom的博客!
cover of previous post
上一篇
17
1.16. 概率校准校验者:        @曲晓峰        @小瑶翻译者:        @那伊抹微笑 执行分类时, 您经常希望不仅可以预测类标签, 还要获得相应标签的概率. 这个概率给你一些预测的信心. 一些模型可以给你贫乏的概率估计, 有些甚至不支持概率预测. 校准模块可以让您更好地校准给定模型的概率, 或添加对概率预测的支持. 精确校准的分类器是概率分类器, 其可以将 predict_proba 方法的输出直接解释为 confidence level(置信度级别). 例如,一个经过良好校准的(二元的)分类器应该对样本进行分类, 使得在给出一个接近 0.8 的 prediction_proba 值的样本中, 大约 80% 实际上属于正类. 以下图表比较了校准不同分类器的概率预测的良好程度: LogisticRegression 默认情况下返回良好的校准预测, 因为它直接优化了 log-loss(对数损失)情况. 相反,其他方法返回 biased probabilities(偏倚概率); 每种方法有不同的偏差: GaussianNB 往往将概率推到 0 或 1(注意...
cover of next post
下一篇
16
1.15. 等式回归校验者:        @STAN,废柴0.1翻译者:        @Damon IsotonicRegression 类对数据进行非降函数拟合. 它解决了如下的问题: 最小化 服从于 其中每一个 是 strictly 正数而且每个 是任意实 数. 它生成一个由平方误差接近的不减元素组成的向量.实际上这一些元素形成 一个分段线性的函数.
avatar
Estom
也许那年在绿色的麦浪中奔跑的时候,就注定了我此生的繁华与悲叹
文章
2976
标签
100
分类
63
关注
公告
欢迎参观Estom的小屋
最新文章
自引用泛型概述
自引用泛型概述2025-12-21
02 集合底层结构
02 集合底层结构2025-12-18
11 Arrays和Collections
11 Arrays和Collections2025-12-18
06 JUC并发容器
06 JUC并发容器2025-12-18
30 问题排查和性能优化指南
30 问题排查和性能优化指南2025-09-14
© 2025 - 2026 By Estom框架 Hexo 8.1.1|主题 Butterfly 5.5.3
搜索
数据加载中