欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 机器学习与深度学习算法基础
      • 作者:编者:贾壮|责编:张云静
      • 出版社:北京大学
      • ISBN:9787301313473
      • 出版日期:2020/09/01
      • 页数:391
    • 售价:35.6
  • 内容大纲

        本书从机器学习的概念与基本原理开始,介绍了机器学习及近年来流行的深度学习领域的经典模型。阅读本书可以让读者系统地了解机器学习和深度学习领域的基本知识,领会模型算法的思路与策略。
        本书分为两篇,共18章。第一篇为经典机器学习模型,主要介绍常用的机器学习经典模型,包括线性回归、支持向量机模型、逻辑斯蒂回归、决策树模型、k近邻、朴素贝叶斯、线性判别分析和主成分分析、流形学习、聚类算法、稀疏编码、直推式支持向量机、集成算法。第二篇为深度学习模型与方法,剖析神经网络的基本要素,并介绍常用的深度学习模型,包括感知机、卷积神经网络、循环神经网络、生成对抗网络。
        本书试图从初学者的角度对机器学习和深度学习的经典算法进行详细阐述。本书插图丰富,语言通俗易懂,适合初入机器学习领域的“萌新”,也适合希望将机器学习算法应用到日常工作中的其他专业从业者,还可供对人工智能领域感兴趣的读者参考阅读。
  • 作者介绍

        贾壮,毕业于清华大学自动化系,专业为模式识别与智能系统方向。主要从事于机器学习与深度学习在图像处理以及地球物理领域内的相关应用研究,对机器学习相关算法有较深的理解。参与过多项机器学习相关工程项目,发表SCI期刊论文及会议论文数篇。曾获得国家奖学金、数学建模一等奖、优秀毕业生等奖项和荣誉称号。
  • 目录

    第一篇  经典机器学习模型
      第1章  引言:从线性回归说起
        1.1  什么是机器学习
        1.1.1  传统算法与机器学习算法
        1.1.2  线性回归
        1.2  过拟合与正则化
        1.2.1  样本量与过拟合
        1.2.2  正则化方法
        1.3  岭回归和lasso回归
        1.3.1  岭回归
        1.3.2  lasso回归
        1.3.3  l1正则化和l2正则化
        1.4  本章小结与代码实现
        1.5  本章话题:机器学习的一般原理
      第2章  阴阳剖分:支持向量机模型
        2.1  支持向量机模型的基本思路
        2.1.1  支持向量机模型的基本思路
        2.1.2  支持向量机算法的基本流程
        2.2  数学形式与求解方法
        2.2.1  数学知识补充
        2.2.2  数学模型与理论推导
        2.3  核方法与维度问题
        2.3.1  核方法的含义
        2.3.2  核函数SVM
        2.4  软间隔支持向量机
        2.4.1  软间隔的含义
        2.4.2  软间隔SVM的损失函数
        2.5  本章小结与代码实现
        2.6  本章话题:高维度,是灾难还是契机?
      第3章  化直为曲:逻辑斯蒂回归
        3.1  逻辑斯蒂回归的基本原理
        3.1.1  分类问题与回归问题
        3.1.2  逻辑斯蒂回归算法思路
        3.2  逻辑斯蒂函数
        3.2.1  逻辑斯蒂函数的由来
        3.2.2  逻辑斯蒂函数的优势
        3.3  逻辑斯蒂回归的数学原理
        3.3.1  逻辑斯蒂回归的数学形式
        3.3.2  准确率和召回率
        3.4  参数确定的方法
        3.4.1  似然函数简介
        3.4.2  逻辑斯蒂回归的损失函数
        3.5  多项逻辑斯蒂回归
        3.5.1  多分类问题的逻辑斯蒂回归
        3.5.2  softmax函数
        3.6  本章小结与代码实现
        3.7  本章话题:广义线性模型
      第4章  层层拷问:决策树模型
        4.1  模型思路与算法流程
        4.1.1  决策树的思路——以读心术游戏为例

        4.1.2  决策树模型的基本流程
        4.1.3  决策树模型的关键问题
        4.2  特征选择原则
        4.2.1  信息增益原则
        4.2.2  信息增益比原则
        4.2.3  基尼系数原则
        4.3  剪枝策略
        4.4  常用决策树模型:ID3与C4.5算法
        4.4.1  ID3算法
        4.4.2  C4.5算法
        4.5  多变量决策树简介
        4.6  本章小结与代码实现
        4.7  本章话题:信息论与特征选择
      第5章  近朱者赤:k近邻模型
        5.1  模型的思路和特点
        5.1.1  模型思路
        5.1.2  懒惰学习与迫切学习
        5.2  模型的相关性质
        5.2.1  数学形式
        5.2.2  损失函数与误差
        5.2.3  k近邻模型的改进
        5.3  距离函数与参数选择
        5.3.1  距离函数
        5.3.2  参数选择的影响
        5.4  本章小结与代码实现
        5.5  本章话题:相似性度量
      第6章  执果索因:朴素贝叶斯模型
        6.1  贝叶斯方法的基本概念
        6.1.1  贝叶斯学派与频率学派
        6.1.2  全概率公式与贝叶斯公式
        6.2  朴素贝叶斯的原理和方法
        6.2.1  朴素贝叶斯的“朴素”假设
        6.2.2  拉普拉斯平滑
        6.3  朴素贝叶斯算法的步骤与流程
        6.4  生成式模型与判别式模型
        6.5  本章小结与代码实现
        6.6  本章话题:贝叶斯思维与先验概念
      第7章  提纲挈领:线性判别分析与主成分分析
        7.1  线性降维的基本思路
        7.2  LDA
        7.2.1  投影的技巧
        7.2.2  类内距离和类间距离
        7.2.3  LDA的求解
        7.3  PCA
        7.3.1  基变换与特征降维
        7.3.2  方差最大化与PCA原理推导
        7.3.3  PCA的实现步骤
        7.4  LDA与PCA:区别与联系
        7.5  本章小结与代码实现
        7.5.1  LDA实验:鸢尾花数据集降维分类

        7.5.2  PCA实验:手写数字数据集降维
        7.6  本章话题:矩阵的直观解释与应用
      第8章  曲面平铺:流形学习
        8.1  流形与流形学习
        8.2  Isomap的基本思路与实现方法
        8.2.1  测地距离的概念
        8.2.2  计算测地距离:图论中的Floyd算法
        8.2.3  由距离到坐标:多维尺度变换方法
        8.3  Isomap算法步骤
        8.4  LLE的基本思路与实现方法
        8.4.1  LLE的基本思想
        8.4.2  局部线性重构
        8.5  LLE算法步骤
        8.6  本章小结与代码实现
        8.7  本章话题:黎曼、非欧几何与流形感知
      第9章  物以类聚:聚类算法
        9.1  无监督方法概述
        9.2  聚类的基本目标和评价标准
        9.2.1  聚类的基本目标
        9.2.2  聚类的评价标准
        9.3  基于中心的k-means算法
        9.3.1  k-means算法的基本思路
        9.3.2  k-means算法步骤
        9.3.3  k-means算法的局限性
        9.4  层次聚类算法
        9.4.1  层次聚类的基本原理
        9.4.2  层次聚类的AGNES算法
        9.5  密度聚类算法:DBSCAN
        9.5.1  DBSCAN算法的基本思路
        9.5.2  DBSCAN算法步骤
        9.6  本章小结与代码实现
        9.7  本章话题:Science上的一种巧妙聚类算法
      第10章  字典重构:稀疏编码
        10.1  稀疏编码的思路
        10.1.1  神经生物学的发现
        10.1.2  过完备性与稀疏性
        10.2  稀疏编码的数学形式
        10.3  字典学习中的“字典”
        10.3.1  传统算法中的“字典”
        10.3.2  “字典”学习的意义
        10.4  本章小结与代码实现
        10.5  本章话题:压缩感知理论简介
      第11章  教学相长:直推式支持向量机
        11.1  半监督学习简介
        11.2  T-SVM模型
        11.2.1  T-SVM的基本思路
        11.2.2  T-SVM算法步骤
        11.3  本章小结与代码实现
        11.4  本章话题:不同样本集场景下的问题处理策略
      第12章  群策群力:集成学习

        12.1  自举汇聚和提升
        12.1.1  Bagging算法和Boosting算法的基本思路
        12.1.2  Bagging算法和Boosting算法的区别与联系
        12.2  Bagging算法的基本步骤
        12.3  Boosting算法的基本步骤
        12.4  Bagging算法:以随机森林算法为例
        12.4.1  随机森林算法
        12.4.2  随机森林算法中的随机性
        12.5  Boosting算法:以Adaboost算法为例
        12.5.1  Adaboost算法的实现步骤
        12.5.2  Adaboost算法过程分析
        12.6  本章小结与代码实现
        12.7  本章话题:Adaboost算法中的分步策略
    ……
    第二篇  深度学习模型与方法