欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 机器学习(工程师和科学家的第一本书)/智能科学与技术丛书
      • 作者:(瑞典)安德里亚斯·林霍尔姆//尼克拉斯·瓦尔斯特伦//弗雷德里克·林斯滕//托马斯·B.舍恩|责编:曲熠|译者:汤善江//于策//孙超
      • 出版社:机械工业
      • ISBN:9787111753698
      • 出版日期:2024/06/01
      • 页数:265
    • 售价:43.6
  • 内容大纲

        在连贯的统计框架中,本书涵盖了一系列有监督的机器学习方法,包括基础方法(k-NN、决策树、线性和逻辑回归等)和高级方法(深度神经网络、支持向量机、高斯过程、随机森林和提升等),以及常用的无监督方法(生成模型、k-均值聚类、自动编码器、主成分分析和生成对抗网络等)。所有方法都包含详细的解释和伪代码。通过在方法之间建立联系,讨论一般概念(例如损失函数、zuida似然、偏差-方差分解、核和贝叶斯方法),同时介绍常规的实用工具(例如正则化、交叉验证、评估指标和优化方法),本书始终将关注点放在基础知识上。最后两章为解决现实世界中有监督的机器学习问题和现代机器学习的伦理问题提供了实用建议。
  • 作者介绍

  • 目录

    译者序
    致谢
    符号表
    第1章  引言
      1.1  机器学习的示例
      1.2  关于本书
      1.3  拓展阅读
    第2章  有监督学习:第一个方法
      2.1  有监督机器学习
        2.1.1  从有标记的数据中学习
        2.1.2  数值型和分类型变量
        2.1.3  分类和回归
        2.1.4  在训练数据之外进行泛化
      2.2  一个基于距离的方法:k-NN
        2.2.1  k-NN算法
        2.2.2  分类器的决策边界
        2.2.3  k的选择
        2.2.4  输入标准化
      2.3  一种基于规则的方法:决策树
        2.3.1  学习回归树
        2.3.2  分类树
        2.3.3  决策树应该多深?
      2.4  拓展阅读
    第3章  基本参数模型和统计
    视角上的学习
      3.1  线性回归
        3.1.1  线性回归模型
        3.1.2  用训练数据训练线性回归模型
        3.1.3  损失函数和代价函数
        3.1.4  最小二乘法和正规方程
        3.1.5  最大似然视角
        3.1.6  分类型输入变量
      3.2  分类和逻辑回归
        3.2.1  从统计角度看分类问题
        3.2.2  二元分类的逻辑回归模型
        3.2.3  通过最大似然法训练逻辑回归模型
        3.2.4  预测和决策边界
        3.2.5  两类以上的逻辑回归
      3.3  多项式回归和正则化
      3.4  广义线性模型
      3.5  拓展阅读
      3.A 正规方程的推导
        3.A.1 微积分方法
        3.A.2 线性代数方法
    第4章  理解、评估和提高性能
      4.1  预期的新数据错误:实际生产环境中的性能
      4.2  估计
        4.2.1  我们无法从训练数据中估计
        4.2.2  我们可以从保留的验证数据中估计
        4.2.3  k-fold 交叉验证无须设置保留验证数据

        4.2.4  使用测试数据集
      4.3  的训练误差:泛化差距分解
        4.3.1  什么影响泛化差距?
        4.3.2  在实际应用中降低
        4.3.3  模型复杂度的缺陷
      4.4  的偏差-方差分解
        4.4.1  什么影响偏差和方差?
        4.4.2  偏差、方差和泛化差距之间的联系
      4.5  用于评估二元分类器的其他工具
        4.5.1  混淆矩阵和ROC曲线
        4.5.2  分数和精确率-召回率曲线
      4.6  拓展阅读
    第5章  学习参数模型
      5.1  参数化建模原则
        5.1.1  非线性参数函数
        5.1.2  损失最小化作为泛化替代
      5.2  损失函数和基于似然的模型
        5.2.1  回归中的损失函数
        5.2.2  二元分类中的损失函数
        5.2.3  多类分类
        5.2.4  基于似然的模型和最大似然方法
        5.2.5  严格正确的损失函数和渐近最小化器
      5.3  正则化
        5.3.1  正则化
        5.3.2  正则化
        5.3.3  一般显式正则化
        5.3.4  隐式正则化
      5.4  参数优化
        5.4.1  闭式解优化
        5.4.2  梯度下降
        5.4.3  二阶梯度法
      5.5  大型数据集优化
        5.5.1  随机梯度下降
        5.5.2  随机梯度下降的学习率和收敛度
        5.5.3  随机二阶梯度法
        5.5.4  自适应方法
      5.6  超参数优化
      5.7  拓展阅读
    第6章  神经网络和深度学习
      6.1  神经网络模型
        6.1.1  广义线性回归
        6.1.2  双层神经网络
        6.1.3  单元向量化
        6.1.4  深度神经网络
        6.1.5  数据点向量化
        6.1.6  用于分类的神经网络
      6.2  训练神经网络
        6.2.1  反向传播
        6.2.2  初始化
      6.3  卷积神经网络

        6.3.1  图像的数据表示
        6.3.2  卷积层
        6.3.3  稀疏相互作用
        6.3.4  参数共享
        6.3.5  卷积层和步幅
        6.3.6  池化层
        6.3.7  多通道
        6.3.8  完整的CNN架构
      6.4  dropout
        6.4.1  子网络集成
        6.4.2  通过dropout训练
        6.4.3  测试时的预测
        6.4.4  dropout和bagging
        6.4.5  将dropout作为正则化方法
      6.5  拓展阅读
      6.A 反向传播方程的推导
    ……
    第7章  集成方法:bagging和提升方法
    第8章  非线性输入变换和核
    第9章  贝叶斯方法和高斯过程
    第10章  生成模型和无标记学习
    第11章  机器学习的用户视角
    第12章  机器学习中的伦理学
    参考文献