欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 机器学习技术与应用教程(普通高等院校新工科人工智能+系列教材)
      • 作者:编者:史巧硕//毕晓博//李林昊|责编:戴薇//杨昕
      • 出版社:科学
      • ISBN:9787030709943
      • 出版日期:2022/02/01
      • 页数:195
    • 售价:20.8
  • 内容大纲

        本书内容涵盖机器学习基础知识的各个方面。全书分为10章。第1~3章介绍机器学习的基础知识和数学基础;第4~8章介绍常用的有监督学习算法;第9章介绍常见的无监督学习算法,讨论聚类算法和PCA降维算法的相关知识;第10章介绍关联算法,并对Apriori算法、FP-growth算法的原理进行详细阐述。
        本书适合普通高等院校非计算机专业开设人工智能基础应用相关课程的教师和学生使用,也适合准备成为数据挖掘工程师的相关人员参考。
  • 作者介绍

  • 目录

    第1章  绪论
      1.1  机器学习与人工智能概述
        1.1.1  人工智能的发展历程
        1.1.2  人工智能的四个要素
        1.1.3  人工智能与机器学习
      1.2  我国人工智能行业发展现状
      1.3  机器学习的发展历程
      1.4  机器学习的应用
    第2章  机器学习基本概念
      2.1  机器学习的定义
      2.2  机器学习的任务
        2.2.1  有监督学习
        2.2.2  无监督学习
        2.2.3  半监督学习
        2.2.4  强化学习
      2.3  机器学习中的常用术语
      2.4  偏差与方差
      2.5  机器学习的工作流程
      2.6  Scikit-Learn
        2.6.1  Scikit-Learn简介
        2.6.2  Scikit-Learn的安装
        2.6.3  Scikit-Learn的使用
    第3章  机器学习的数学基础
      3.1  线性代数
        3.1.1  标量、向量、矩阵和张量
        3.1.2  矩阵和向量相乘
        3.1.3  向量内积
        3.1.4  向量外积
        3.1.5  行列式和迹
      3.2  概率论
        3.2.1  离散随机变量
        3.2.2  数学期望
        3.2.3  二维离散随机变量和统计独立性
        3.2.4  二维随机变量函数的数学期望
        3.2.5  条件概率
        3.2.6  全概率公式和贝叶斯公式
        3.2.7  随机向量
        3.2.8  期望值、均值向量和协方差矩阵
        3.2.9  连续型随机变量
      3.3  基尼指数和熵
        3.3.1  基尼指数
        3.3.2  熵
    第4章  线性回归
      4.1  线性回归模型
        4.1.1  回归问题
        4.1.2  线性回归模型实例
      4.2  最小二乘法
        4.2.1  最小二乘法的求解过程
        4.2.2  线性回归算法的实现
        4.2.3  用Scikit-Learn实现线性回归

        4.2.4  最小二乘法的局限性
      4.3  梯度下降法
        4.3.1  梯度下降的基本概念
        4.3.2  梯度下降
      4.4  正则化
      4.5  其他回归模型
      4.6  回归模型评价指标
    第5章  分类算法
      5.1  逻辑回归
        5.1.1  分类问题
        5.1.2  逻辑回归模型
        5.1.3  决策边界
        5.1.4  逻辑回归的代价函数
        5.1.5  分类模型性能指标
        5.1.6  逻辑回归实例
        5.1.7  逻辑回归的优缺点
      5.2  朴素贝叶斯分类
        5.2.1  贝叶斯定理
        5.2.2  朴素贝叶斯分类算法
        5.2.3  朴素贝叶斯实例
        5.2.4  朴素贝叶斯分类算法的优缺点
      5.3  生成模型与判别模型
      5.4  KNN模型
        5.4.1  KNN算法原理
        5.4.2  KNN算法的基本过程
        5.4.3  KNN算法的实现
        5.4.4  使用Scikit-Learn实现KNN分类
        5.4.5  KNN算法的优缺点
      5.5  惰性学习模型和非参数模型
    第6章  决策树
      6.1  决策树的概念
      6.2  特征选择
        6.2.1  特征选择问题
        6.2.2  信息增益
        6.2.3  信息增益比
        6.2.4  基尼指数的选择
      6.3  剪枝处理
      6.4  常见决策树算法
        6.4.1  ID3决策树算法
        6.4.2  C4.5决策树算法
        6.4.3  CART决策树算法
      6.5  使用Scikit-Learn类库创建决策树
        6.5.1  创建决策树
        6.5.2  决策树分类算法的优缺点
    第7章  从感知机到支持向量机与人工神经网络
      7.1  感知机
        7.1.1  感知机模型
        7.1.2  感知机模型的损失函数
        7.1.3  感知机模型的优化方法
        7.1.4  感知机学习算法

        7.1.5  感知机的局限性
      7.2  支持向量机
        7.2.1  线性可分的支持向量机
        7.2.2  线性支持向量机以及软间隔最大化
        7.2.3  非线性支持向量机
        7.2.4  使用Scikit-Learn实现支持向量机分类算法
        7.2.5  支持向量机分类算法的优缺点
      7.3  人工神经网络
        7.3.1  神经网络结构
        7.3.2  人工神经网络的训练
    第8章  集成学习
      8.1  Bagging
        8.1.1  Bagging算法的过程和优点
        8.1.2  Bagging的偏差和方差
      8.2  Bagging框架的代表算法——随机森林
        8.2.1  随机森林随机性的体现
        8.2.2  随机森林的构建过程
      8.3  Boosting
        8.3.1  Boosting模型的工作机制
        8.3.2  Boosting模型的两个核心问题
        8.3.3  Boosting的偏差和方差
      8.4  Boosting框架的代表算法——AdaBoost算法
        8.4.1  算法原理
        8.4.2  算法步骤
        8.4.3  AdaBoost算法的Python实现
      8.5  GBDT
      8.6  XGBoost
        8.6.1  XGBoost简介
        8.6.2  XGBoost的优点
    第9章  聚类算法
      9.1  k-means聚类算法
        9.1.1  经典k-means聚类算法
        9.1.2  x-means聚类算法
      9.2  分层聚类算法
        9.2.1  簇之间的距离定义
        9.2.2  层次聚类算法的原理及过程举例
        9.2.3  分层聚类算法的Python实现
      9.3  降维算法
        9.3.1  主成分分析
        9.3.2  因子分析
        9.3.3  线性判别分析
      9.4  PCA降维算法的实现
        9.4.1  基于特征值分解协方差矩阵实现PCA算法
        9.4.2  基于SVD协方差矩阵实现PCA算法
    第10章  关联算法
      10.1  基本概念
      10.2  Apriori算法
        10.2.1  Apriori算法思想
        10.2.2  Apriori算法流程
      10.3  FP-growth算法

        10.3.1  FP-growth数据结构
        10.3.2  FP-growth算法的建立过程
        10.3.3  FP Tree的挖掘
        10.3.4  FP-growth算法归纳
    参考文献