欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 高级机器学习算法实战
      • 作者:(印度)V.基肖尔·艾亚德瓦拉|责编:林桢|译者:姜峰//庞登峰//张振华
      • 出版社:机械工业
      • ISBN:9787111711445
      • 出版日期:2022/10/01
      • 页数:241
    • 售价:39.6
  • 内容大纲

        本书在理解算法如何工作和如何更好地调整模型之间架起一座桥梁。本书将帮助你掌握开发主要机器学习模型的技能,包括监督和无监督学习(其中包括线性/对率回归)、决策树、随机森林、梯度提升机(GBM)、神经网络、k均值聚类、主成分分析和推荐系统。
        你将通过应用于文本挖掘的CNN、RNN和Word2vec接触到最新的深度学习,并学习相关理论和案例研究,如情感分类、欺诈检测、推荐系统和图像识别等,以便获得工业中使用的绝大多数机器学习算法的最佳理论和实践。除了学习算法,你还将接触到在所有主要云服务提供商上运行的机器学习模型。
        本书适合从事AI行业的工程师,以及希望从事数据科学工作的IT人员阅读,并可以供数据科学家工作时参考使用。
  • 作者介绍

        V.基肖尔·艾亚德瓦拉(V Kishore Ayyadevara)对任何有关数据的东西都充满热情。十多年来,他一直致力于技术、数据和机器学习的交叉领域,以便能够识别、沟通和解决业务问题。     他曾在美国运通(American Express)公司的风险管理部门和亚马逊公司的供应链分析团队中工作,目前正在领导一家初创公司的数据产品开发工作,负责实施各种分析解决方案并建立强大的数据科学团队。     Kishore是一个积极的学习者,他的兴趣包括识别可以使用数据解决的业务问题,简化数据科学中的复杂性,以及跨领域转移技术以实现可量化的业务结果。
  • 目录

    译者序
    原书前言
    作者简介
    技术评审员简介
    第1章  机器学习基础
      1.1  回归和分类
        1.1.1  训练数据和测试数据
        1.1.2  对于验证数据集的需求
        1.1.3  精度测量
        1.1.4  AUC值和ROC曲线
      1.2  无监督学习
      1.3  建立模型的典型方法
        1.3.1  数据从哪里获取
        1.3.2  需要获取哪些数据
        1.3.3  数据预处理
        1.3.4  特征交互
        1.3.5  特征生成
        1.3.6  建立模型
        1.3.7  模型生产化
        1.3.8  构建、部署、测试和迭代
      1.4  总结
    第2章  线性回归
      2.1  线性回归介绍
        2.1.1  变量:自变量和因变量
        2.1.2  相关性
        2.1.3  因果关系
      2.2  简单线性回归与多元线性回归
      2.3  形式化简单线性回归
        2.3.1  偏差项
        2.3.2  斜率
      2.4  求解一个简单线性回归
      2.5  求解简单线性回归更通用的方法
        2.5.1  平方差总和小化
        2.5.2  求解公式
      2.6  简单线性回归的工作细节
        2.6.1  让简单线性回归复杂化一点
        2.6.2  达到优系数值
        2.6.3  方均根误差介绍
      2.7  在R中运行简单线性回归
        2.7.1  残差
        2.7.2  系数
        2.7.3  残差(残余偏差)的SSE
        2.7.4  零偏差
        2.7.5  R平方
        2.7.6  F统计量
      2.8  在Python中运行简单线性回归
      2.9  简单线性回归的常见缺陷
      2.10  多元线性回归
        2.10.1  多元线性回归的工作细节
        2.10.2  R中的多元线性回归

        2.10.3  Python中的多元线性回归
        2.10.4  模型中的非重要变量问题
        2.10.5  多重共线性问题
        2.10.6  多重共线性的数学直觉
        2.10.7  有关多元线性回归的其他注意事项
      2.11  线性回归的假设
      2.12  总结
    第3章  对数几率回归
      3.1  为什么线性回归对离散结果无效
      3.2  一个更普遍的解决方案:Sigmoid曲线
        3.2.1  形式化Sigmoid曲线(Sigmoid激活)
        3.2.2  从Sigmoid曲线到对率回归
        3.2.3  对率回归的解释
        3.2.4  对率回归的工作细节
        3.2.5  估算误差
        3.2.6  小二乘法与线性假设
      3.3  在R中运行对率回归
      3.4  在Python中运行对率回归
      3.5  确定兴趣的度量
      3.6  常见陷阱
        3.6.1  预测和事件发生之间的时间
        3.6.2  自变量中的异常值
      3.7  总结
    第4章  决策树
      4.1  决策树的构成部分
      4.2  存在多个离散自变量的分类决策树
        4.2.1  信息增益
        4.2.2  计算不确定性:熵
        4.2.3  计算信息增益
        4.2.4  原始数据集中的不确定性
        4.2.5  衡量不确定性的改善
        4.2.6  哪些特定值进入左侧或右侧节点
        4.2.7  分裂过程何时停止
      4.3  连续自变量的分类决策树
      4.4  有多个自变量时的分类决策树
      4.5  存在连续自变量和离散自变量时的分类决策树
      4.6  如果响应变量是连续的怎么办
        4.6.1  连续因变量与多个连续自变量
        4.6.2  连续因变量与离散自变量
        4.6.3  连续因变量与离散、连续自变量
      4.7  在R中实现决策树
      4.8  在Python中实现决策树
      4.9  创建树的常见技术
      4.10  可视化树的构建
      4.11  异常值对决策树的影响
      4.12  总结
    第5章  随机森林
      5.1  一个随机森林的场景
        5.1.1  Bagging
        5.1.2  随机森林的工作细节

      5.2  在R中实现随机森林
        5.2.1  随机森林中的参数调整
        5.2.2  树的深度对AUC的影响
      5.3  在Python中实现随机森林
      5.4  总结
    第6章  梯度提升机
      6.1  梯度提升机介绍
      6.2  GBM的工作细节
      6.3  收缩率
      6.4  AdaBoost
        6.4.1  AdaBoost理论
        6.4.2  AdaBoost的工作细节
      6.5  GBM的附加功能
      6.6  在Python中实现GBM
      6.7  在R中实现GBM
      6.8  总结
    第7章  人工神经网络
      7.1  神经网络的结构
      7.2  训练神经网络的工作细节
        7.2.1  前向传播
        7.2.2  应用激活函数
        7.2.3  反向传播
        7.2.4  计算反向传播
        7.2.5  随机梯度下降
        7.2.6  深入了解梯度下降
        7.2.7  为什么要有学习率
      7.3  批量训练
        7.3.1  Softmax的概念
      7.4  不同的损耗优化函数
        7.4.1  缩放数据集
      7.5  在Python中实现神经网络
      7.6  利用正则化避免过拟合
      7.7  将权重分配给正则化项
      7.8  在R中实现神经网络
      7.9  总结
    第8章  Word2vec
      8.1  手工构建词向量
      8.2  构建词向量的方法
      8.3  Word2vec模型中需要注意的问题
        8.3.1  常用词
        8.3.2  负采样
      8.4  在Python中实现Word2vec
      8.5  总结
    第9章  卷积神经网络
      9.1  传统神经网络的问题
        9.1.1  场景
        9.1.2  场景
        9.1.3  场景
        9.1.4  场景
      9.2  了解CNN中的卷积

        9.2.1  从卷积到激活
        9.2.2  从卷积激活到池化
        9.2.3  卷积和池化有什么帮助
      9.3  使用代码创建CNN
      9.4  CNN的工作细节
      9.5  深入研究卷积/内核
      9.6  从卷积和池化到扁平化:完全连接层
        9.6.1  从一个完全连接层到另一个完全连接层
        9.6.2  从完全连接层到输出层
      9.7  连接点:前馈网络
      9.8  CNN的其他细节
      9.9  CNN中的反向传播
      9.10  将各层放在一起
      9.11  数据增强
      9.12  在R中实现CNN
      9.13  总结
    第10章  递归神经网络
      10.1  理解架构
      10.2  RNN的解释
      10.3  RNN的工作细节
        10.3.1  时间步骤
        10.3.2  时间步骤
        10.3.3  时间步骤
      10.4  实现RNN:SimpleRNN
        10.4.1  编译模型
        10.4.2  验证RNN的输出
      10.5  实现RNN:生成文本
      10.6  RNN中的嵌入层
      10.7  传统RNN的问题
        10.7.1  梯度消失问题
        10.7.2  梯度爆炸问题
      10.8  LSTM
      10.9  在keras中实现基本LSTM
      10.10  实现LSTM进行情感分类
      10.11  在R中实现RNN
      10.12  总结
    第11章  聚类
      11.1  聚类介绍
        11.1.1  构建用于性能比较的商店簇
        11.1.2  理想聚类
        11.1.3  在没有聚类和过多聚类之间取得平衡:k均值聚类
      11.2  聚类过程
      11.3  k均值聚类算法的工作细节
        11.3.1  k均值算法在数据集上的应用
        11.3.2  k均值聚类算法的性质
      11.4  在R中实现k均值聚类
      11.5  在Python中实现k均值聚类
      11.6  主要指标的意义
      11.7  确定优的k
      11.8  自上向下与自下向上的聚类

        11.8.1  层次聚类
        11.8.2  层次聚类的主要缺点
      11.9  k均值聚类的行业使用案例
      11.10  总结
    第12章  主成分分析
      12.1  PCA的直观理解
      12.2  PCA的工作细节
      12.3  在PCA中缩放数据
      12.4  将PCA扩展到多变量
      12.5  在R中实现PCA
      12.6  在Python中实现PCA
      12.7  将PCA应用于MNIST
      12.8  总结
    第13章  推荐系统
      13.1  了解k近邻
      13.2  基于用户的协同过滤的工作细节
        13.2.1  欧氏距离
        13.2.2  余弦相似度
      13.3  基于项目的协同过滤
      13.4  在R中实现协同过滤
      13.5  在Python中实现协同过滤
      13.6  矩阵分解的工作细节
      13.7  在Python中实现矩阵分解
      13.8  在R中实现矩阵分解
      13.9  总结
    第14章  在云中实现算法
      14.1  谷歌云平台
      14.2  微软Azure
      14.3  亚马逊网络服务
      14.4  将文件传输到云实例
      14.5  从本地计算机运行实例Jupyter Notebook
      14.6  在实例上安装R
      14.7  总结
    附录  Excel、R和Python基础
      A.1  Excel基础
      A.2  R语言基础
      A.3  Python基础