欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 模式识别和机器学习基础/智能科学与技术丛书
      • 作者:(美)乌利塞斯·布拉加-内托|责编:曲熠|译者:潘巍//欧阳建权//刘莹//赵地//苏统华
      • 出版社:机械工业
      • ISBN:9787111735267
      • 出版日期:2023/10/01
      • 页数:246
    • 售价:47.6
  • 内容大纲

        模式识别和机器学习是人工智能应用的基础。本书将模式识别任务按照监督学习和无监督学习两种方式进行组织。第1章讨论模式识别和机器学习的内在关系,介绍了两者的基础知识和模式识别的设计过程。第2章和第3章介绍了最优化的和常规的基于实例的分类问题。第4~6章检验了参数的、非参数的和函数逼近的分类规则。之后在第7章和第8章就分类的误差估计和模型选择对分类模型的性能进行讨论。第9章介绍了能够提高分类模型的性能并减少存储空间的降维技术。第10章和第11章分别介绍了聚类分析技术和回归模型。本书适合相关专业高年级本科生和研究生,以及该领域的从业人员阅读。
  • 作者介绍

  • 目录

    译者序
    前言
    第1章  概述
      1.1  模式识别与机器学习
      1.2  数学基础设置
      1.3  预测
      1.4  预测误差
      1.5  监督学习与无监督学习
      1.6  复杂性权衡
      1.7  设计周期
      1.8  应用实例
        1.8.1  生物信息学
        1.8.2  材料信息学
      1.9  文献注释
    第2章  优分类
      2.1  无特征分类
      2.2  有特征分类
      2.3  贝叶斯分类器
      2.4  贝叶斯误差
      2.5  高斯模型
        2.5.1  同方差情况
        2.5.2  异方差情况
      2.6  其他主题
        2.6.1  极小极大分类
        2.6.2  F-误差
        2.6.3  贝叶斯决策理论
        *2.6.4  分类问题的严格表达
      2.7  文献注释
      2.8  练习
      2.9  Python作业
    第3章  基于实例的分类
      3.1  分类规则
      3.2  分类错误率
      *3.3  一致性
      3.4  没有免费午餐定理
      3.5  其他主题
        3.5.1  集成分类
        3.5.2  混合抽样与独立抽样
      3.6  文献注释
      3.7  练习
      3.8  Python作业
    第4章  参数分类
      4.1  参数替换规则
      4.2  高斯判别分析
        4.2.1  线性判别分析
        4.2.2  二次判别分析
      4.3  逻辑斯谛分类
      4.4  其他主题
        4.4.1  正则化判别分析
        *4.4.2  参数规则的一致性

        4.4.3  贝叶斯参数规则
      4.5  文献注释
      4.6  练习
      4.7  Python作业
    第5章  非参数分类
      5.1  非参数替换规则
      5.2  直方图分类
      5.3  最近邻分类
      5.4  核分类
      5.5  Cover-Hart定理
      *5.6  Stone定理
      5.7  文献注释
      5.8  练习
      5.9  Python作业
    第6章  函数逼近分类
      6.1  支持向量机
        6.1.1  可分数据的线性支持向量机
        6.1.2  一般线性支持向量机
        6.1.3  非线性支持向量机
      6.2  神经网络
        6.2.1  反向传播训练
        6.2.2  卷积神经网络
        *6.2.3  神经网络的普遍逼近性质
        6.2.4  普遍一致性定理
      6.3  决策树
      6.4  有序分类器
      6.5  文献注释
      6.6  练习
      6.7  Python作业
    第7章  分类误差估计
      7.1  误差估计规则
      7.2  误差估计性能
        7.2.1  偏差分布
        7.2.2  偏差、方差、均方根和尾概率
        *7.2.3  一致性
      7.3  测试集误差估计
      7.4  再代入误差估计
      7.5  交叉验证
      7.6  自助方法
      7.7  增强误差估计
      7.8  其他主题
        7.8.1  凸误差估计器
        7.8.2  平滑误差估计器
        7.8.3  贝叶斯误差估计
      7.9  文献注释
      7.10  练习
      7.11  Python作业
    第8章  分类模型选择
      8.1  分类复杂性
      8.2  Vapnik-Chervonenkis理论

        *8.2.1  有限模型选择
        8.2.2  打散系数与VC维度
        8.2.3  几种分类规则中的VC参数
        8.2.4  Vapnik-Chervonenkis定理
        8.2.5  没有免费午餐定理
      8.3  模型选择方法
        8.3.1  验证误差最小化
        8.3.2  训练集误差最小化
        8.3.3  结构性风险最小化
      8.4  文献注释
      8.5  练习
    第9章  降维
      9.1  面向分类任务的特征提取
      9.2  特征选择
        9.2.1  穷举搜索
        9.2.2  单变量贪婪搜索
        9.2.3  多变量贪婪搜索
        9.2.4  特征选择与分类复杂性
        9.2.5  特征选择与误差估计
      9.3  主成分分析
      9.4  多维缩放
      9.5  因子分析
      9.6  文献注释
      9.7  练习
      9.8  Python作业
    第10章  聚类
      10.1  K-Means算法
      10.2  高斯混合模型
        10.2.1  期望大化方法
        10.2.2  与K-Means的关系
      10.3  层次聚类
      10.4  自组织映射
      10.5  文献注释
      10.6  练习
      10.7  Python作业
    第11章  回归
      11.1  优回归
      11.2  基于样本的回归
      11.3  参数回归
        11.3.1  线性回归
        11.3.2  高斯马尔可夫定理
        11.3.3  补偿最小二乘法
      11.4  非参数回归
        11.4.1  核回归
        11.4.2  高斯过程回归
      11.5  函数近似回归
      11.6  误差估计
      11.7  变量选择
        11.7.1  Wrapper搜索
        11.7.2  统计检验

        11.7.3  LASSO和ElasticNet
      11.8  模型选择
      11.9  文献注释
      11.10  练习
      11.11  Python作业
    附录
    参考文献