欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 机器学习的数学基础/智能系统与技术丛书
      • 作者:(英)马克·彼得·戴森罗特//A.阿尔多·费萨尔//(马来)翁承顺|责编:刘锋//章承林|译者:郝珊锋//黄定江
      • 出版社:机械工业
      • ISBN:9787111763222
      • 出版日期:2024/11/01
      • 页数:372
    • 售价:55.6
  • 内容大纲

        理解机器学习所需的基本数学工具包括线性代数、解析几何、矩阵分解、向量微积分、优化、概率和统计。传统上,这些主题是在不同的课程中介绍的,这使得数据科学或计算机科学专业的学生或者专业人士很难有效地学习数学基础。本书弥补了纯数学书籍和机器学习书籍存在的单一性问题,介绍了理解机器学习必备的数学概念,并使用这些概念推导出了四种核心机器学习方法:线性回归、主成分分析、高斯混合模型和支持向量机。对于学生和其他具有数学背景的人来说,这些推导可以作为理解机器学习的一个起点。对于首次学习数学的人来说,这些方法有助于建立应用数学概念的直觉和实践经验。本书每一章都包括一些例子,大部分章还配有习题,以便读者检验和巩固所学知识。
  • 作者介绍

  • 目录

    译者序
    前言
    符号表
    缩略语和首字母缩略词表
    第一部分  数学基础
      第1章  引言与动机
        1.1  寻找直观的词语
        1.2  阅读本书的两种方法
        习题和反馈
      第2章  线性代数
        2.1  线性方程组
        2.2  矩阵
          2.2.1  矩阵加法与乘法
          2.2.2  逆和转置
          2.2.3  标量乘法
          2.2.4  线性方程组的简洁表示
        2.3  解线性方程组
          2.3.1  特解和通解
          2.3.2  初等变换
          2.3.3  -1技巧
          2.3.4  求解线性方程组的算法
        2.4  向量空间
          2.4.1  群
          2.4.2  向量空间
          2.4.3  向量子空间
        2.5  线性无关
        2.6  基与秩
          2.6.1  生成集与基
          2.6.2  秩
        2.7  线性映射
          2.7.1  线性映射的矩阵表示
          2.7.2  基变换
          2.7.3  象与核
        2.8  仿射空间
          2.8.1  仿射子空间
          2.8.2  仿射映射
        2.9  延伸阅读
        习题
      第3章  解析几何
        3.1  范数
        3.2  内积
          3.2.1  点积
          3.2.2  一般内积
          3.2.3  对称正定矩阵
        3.3  长度和距离
        3.4  角度和正交性
        3.5  标准正交基
        3.6  正交补
        3.7  函数内积
        3.8  正交投影

          3.8.1  一维子空间(线)的投影
          3.8.2  投影到一般子空间上
          3.8.3  Gram-Schmidt正交化
          3.8.4  在仿射子空间上的投影
        3.9  旋转
          3.9.1  在R2上旋转
          3.9.2  在R3上旋转
          3.9.3  在Rn上旋转
          3.9.4  旋转的性质
        3.10  延伸阅读
        习题
      第4章  矩阵分解
        4.1  行列式和迹
        4.2  特征值和特征向量
        4.3  Cholesky分解
        4.4  特征分解和对角化
        4.5  奇异值分解
          4.5.1  SVD的几何直观
          4.5.2  SVD的构造
          4.5.3  特征分解与奇异值分解
        4.6  矩阵近似
        4.7  矩阵发展史
        4.8  延伸阅读
        习题
      第5章  向量微积分
        5.1  一元函数的微分
          5.1.1  泰勒级数
          5.1.2  求导法则
        5.2  偏微分和梯度
          5.2.1  偏微分的基本法则
          5.2.2  链式法则
        5.3  向量值函数的梯度
        5.4  矩阵梯度
        5.5  梯度计算中的常用等式
        5.6  反向传播与自动微分
          5.6.1  深度网络中的梯度
          5.6.2  自动微分
        5.7  高阶导数
        5.8  线性化和多元泰勒级数
        5.9  延伸阅读
        习题
      第6章  概率和分布
        6.1  概率空间的构造
          6.1.1  哲学问题
          6.1.2  概率与随机变量
          6.1.3  统计
        6.2  离散概率和连续概率
          6.2.1  离散概率
          6.2.2  连续概率
          6.2.3  离散分布和连续分布的对比

        6.3  加法法则、乘法法则和贝叶斯定理
        6.4  概要统计量和独立性
          6.4.1  均值与方差
          6.4.2  经验均值与协方差
          6.4.3  方差的三种表达
          6.4.4  随机变量的求和与变换
          6.4.5  统计独立性
          6.4.6  随机变量的内积
        6.5  高斯分布
          6.5.1  高斯分布的边缘分布和条件分布是高斯分布
          6.5.2  高斯密度的乘积
          6.5.3  求和与线性变换
          6.5.4  多元高斯分布抽样
        6.6  共轭与指数族
          6.6.1  共轭
          6.6.2  充分统计量
          6.6.3  指数族
        6.7  变量替换/逆变换
          6.7.1  分布函数技巧
          6.7.2  变量替换
        6.8  延伸阅读
        习题
      第7章  连续优化
        7.1  使用梯度下降的优化
          7.1.1  步长
          7.1.2  动量梯度下降法
          7.1.3  随机梯度下降
        7.2  约束优化和拉格朗日乘子
        7.3  凸优化
          7.3.1  线性规划
          7.3.2  二次规划
          7.3.3  Legendre-Fenchel变换和凸共轭
        7.4  延伸阅读
        习题
    第二部分  机器学习的核心问题
      第8章  模型结合数据
        8.1  数据、模型与学习
          8.1.1  用向量表示数据
          8.1.2  模型的函数表示
          8.1.3  模型的概率分布表示
          8.1.4  学习即寻找参数
        8.2  经验风险最小化
          8.2.1  函数的假设类别
          8.2.2  训练数据的损失函数
          8.2.3  正则化以减少过拟合
          8.2.4  用交叉验证评估泛化性能
          8.2.5  延伸阅读
        8.3  参数估计
          8.3.1  最大似然估计
          8.3.2  最大后验估计

          8.3.3  模型拟合
          8.3.4  延伸阅读
        8.4  概率建模与推理
          8.4.1  概率模型
          8.4.2  贝叶斯推理
          8.4.3  隐变量模型
          8.4.4  延伸阅读
        8.5  有向图模型
          8.5.1  图语义
          8.5.2  条件独立和d分离
          8.5.3  延伸阅读
        8.6  模型选择
          8.6.1  嵌套交叉验证
          8.6.2  贝叶斯模型选择
          8.6.3  模型比较的贝叶斯因子
          8.6.4  延伸阅读
      第9章  线性回归
        9.1  界定问题
        9.2  参数估计
          9.2.1  最大似然估计
          9.2.2  线性回归中的过拟合
          9.2.3  最大后验估计
          9.2.4  作为正则化的MAP估计
        9.3  贝叶斯线性回归
          9.3.1  模型
          9.3.2  先验预测
          9.3.3  后验分布
          9.3.4  后验预测
          9.3.5  边缘似然的计算
        9.4  最大似然作为正交投影
        9.5  延伸阅读
      第10章  用主成分分析进行降维
        10.1  提出问题
        10.2  最大化方差
          10.2.1  具有最大方差的方向
          10.2.2  具有最大方差的M维子空间
        10.3  投影视角
          10.3.1  背景和目标
          10.3.2  寻找最优坐标
          10.3.3  寻找主子空间的基
        10.4  特征向量计算和低秩逼近
          10.4.1  PCA使用低秩矩阵近似
          10.4.2  实践方面
        10.5  高维中的主成分分析
        10.6  主成分分析实践中的关键步骤
        10.7  隐变量视角
          10.7.1  生成过程和概率模型
          10.7.2  似然函数和联合分布
          10.7.3  后验分布
        10.8  延伸阅读

      第11章  高斯混合模型的密度估计
        11.1  高斯混合模型
        11.2  通过最大似然进行参数学习
          11.2.1  响应度
          11.2.2  更新均值
          11.2.3  更新协方差
          11.2.4  更新混合权重
        11.3  EM算法
        11.4  隐变量视角
          11.4.1  生成过程与概率模型
          11.4.2  似然
          11.4.3  后验分布
          11.4.4  扩展到完整数据集
          11.4.5  再探EM算法
        11.5  延伸阅读
      第12章  用支持向量机进行分类
        12.1  分离超平面
        12.2  原始支持向量机
          12.2.1  间隔的概念
          12.2.2  间隔的传统推导
          12.2.3  为什么可以设定间隔的长度为
          12.2.4  软间隔SVM几何观点
          12.2.5  软间隔SVM:损失函数观点
        12.3  对偶支持向量机
          12.3.1  由拉格朗日乘子导出凸对偶
          12.3.2  对偶SVM:凸包观点
        12.4  核
        12.5  数值解
        12.6  延伸阅读
    参考文献

同类热销排行榜