欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 集成学习入门与实战(原理算法与应用)
      • 作者:(印度)阿洛克·库马尔//马扬克·贾因|责编:雷桐辉|译者:吴健鹏
      • 出版社:化学工业
      • ISBN:9787122401670
      • 出版日期:2022/02/01
      • 页数:122
    • 售价:27.92
  • 内容大纲

        《集成学习入门与实战:原理、算法与应用》通过6章内容全面地解读了集成学习的基础知识、集成学习技术、集成学习库和实践应用。其中集成学习技术包括采样、Bagging、投票集成、Boosting、AdaBoost、梯度提升、XGBoost、Stacking、随机森林、决策树等,从混合训练数据到混合模型,再到混合组合,逻辑严谨、逐步讲解;同时也对ML-集成学习、Dask、LightGBM、AdaNet等集成学习库相关技术进行了详细解读;最后通过相关实践对集成学习进行综合性应用。本书配有逻辑框图、关键代码及代码分析,使读者在阅读中能够及时掌握算法含义和对应代码。
        本书适合集成学习的初学者和机器学习方向的从业者和技术人员阅读学习,也适合开设机器学习等算法课程的高等院校师生使用。
  • 作者介绍

  • 目录

    第1章  为什么需要集成学习
      1.1  混合训练数据
      1.2  混合模型
      1.3  混合组合
      1.4  本章小结
    第2章  混合训练数据
      2.1  决策树
      2.2  数据集采样
        2.2.1  不替换采样(WOR)
        2.2.2  替换采样(WR)
      2.3  Bagging(装袋算法)
        2.3.1  k重交叉验证
        2.3.2  分层的k重交叉验证
      2.4  本章小结
    第3章  混合模型
      3.1  投票集成
      3.2  硬投票
      3.3  均值法/软投票
      3.4  超参数调试集成
      3.5  水平投票集成
      3.6  快照集成
      3.7  本章小结
    第4章  混合组合
      4.1  Boosting(提升算法)
        4.1.1  AdaBoost(自适应提升算法)
        4.1.2  Gradient Boosting(梯度提升算法)
        4.1.3  XGBoost(极端梯度提升算法)
      4.2  Stacking(堆叠算法)
      4.3  本章小结
    第5章  集成学习库
      5.1  ML-集成学习
        5.1.1  多层集成
        5.1.2  集成模型的选择
      5.2  通过Dask扩展XGBoost
        5.2.1  Dask数组与数据结构
        5.2.2  Dask-ML
        5.2.3  扩展XGBoost
        5.2.4  微软LightGBM
        5.2.5  AdaNet
      5.3  本章小结
    第6章  实践指南
      6.1  基于随机森林的特征选择
      6.2  基于集成树的特征转换
      6.3  构建随机森林分类器预处理程序
      6.4  孤立森林进行异常点检测
      6.5  使用Dask库进行集成学习处理
        6.5.1  预处理
        6.5.2  超参数搜索
      6.6  本章小结
    致谢