欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 可解释AI实战(PyTorch版)
      • 作者:(英)阿杰伊·塔姆佩|责编:王军|译者:叶伟民//朱明超//刘华//叶孟良//袁敏
      • 出版社:清华大学
      • ISBN:9787302654865
      • 出版日期:2024/03/01
      • 页数:269
    • 售价:39.2
  • 内容大纲

        对于深度学习模型,常常很难解释其工作方式,即使是创建这些模型的数据科学家也不例外。提高机器学习模型的透明度和可解释性可以最大限度地减少错误,减少意想不到的偏见,增加用户对结果的信任。本书讲述了探索“黑盒”模型内部机制的技术,提供了设计可靠算法的方法,并揭示了导致结果偏差的各种关键因素。
        本书将教会你识别模型所学习到的模式,并解释为何会产生这样的结果。通过阅读本书,你将掌握一些用于解释白盒模型(如线性回归和广义可加模型)的方法,以及一些用于解释复杂深度学习模型的方法。可解释AI是一个快速发展的领域,本书将该领域的前沿研究简化为你可以在Python中实现的实际方法。
  • 作者介绍

  • 目录

    第Ⅰ部分  可解释基础知识
      第1章  导论
        1.1  Diagnostics+AI——AI系统示例
        1.2  机器学习系统的类型
          1.2.1  数据的表示
          1.2.2  监督学习
          1.2.3  无监督学习
          1.2.4  强化学习
          1.2.5  最适合Diagnosticst AI的机器学习系统
        1.3  构建Diagnostics+AI
        1.4  Diagnostics+的主要问题
          1.4.1  数据泄露
          1.4.2  偏见
          1.4.3  监管不合规
          1.4.4  概念漂移
        1.5  如何解决这些主要问题
        1.6  Interpretability与Explainability
        1.7  你将在本书学到什么
          1.7.1  本书使用的工具
          1.7.2  阅读本书所需的基础知识
        1.8  本章小结
      第2章  白盒模型
        2.1  白盒模型概述
        2.2  Diagnostics+AI示例:预测糖尿病进展情况
        2.3  线性回归
          2.3.1  解释线性回归
          2.3.2  线性回归的局限性
        2.4  决策树
          2.4.1  解释决策树
          2.4.2  决策树的局限性
        2.5  广义可加模型(GAM)
          2.5.1  回归样条
          2.5.2  GAM用于Diagnostics+AI预测糖尿病进展
          2.5.3  解释GAM
          2.5.4  GAM的局限性
        2.6  展望黑盒模型
        2.7  本章小结
    第Ⅱ部分  解释模型处理
      第3章  全局与模型无关可解释技术
        3.1  高中生成绩预测器
        3.2  集成树
        3.3  解释随机森林
        3.4  模型无关方法:全局可解释
          3.4.1  部分依赖图
          3.4.2  特征的相互作用
        3.5  本章小结
      第4章  局部与模型无关可解释技术
        4.1  Diagnostics+AI示例:乳腺癌诊断
        4.2  探索性数据分析
        4.3  深度神经网络

          4.3.1  数据准备
          4.3.2  训练和评估DNN
        4.4  解释DNN
        4.5  LIME
        4.6  SHAP
        4.7  锚定
        4.8  本章小结
      第5章  显著图
        5.1  Diagnostics+AI示例:浸润性导管癌检测
        5.2  探索性数据分析
        5.3  卷积神经网络
          5.3.1  数据准备
          5.3.2  训练和评估CNN
        5.4  解释CNN
          5.4.1  概率分布图
          5.4.2  LIME
          5.4.3  视觉归因法
        5.5  标准反向传播
        5.6  导向反向传播
        5.7  其他基于梯度的方法
        5.8  Grad-CAM和导向Grad-CAM
        5.9  我应该使用哪种归因法
        5.10  本章小结
    第Ⅲ部分  解释模型表示
      第6章  理解层和单元
        6.1  视觉理解
        6.2  国顾卷积神经网络
        6.3  神经网络剖析框架
          6.3.1  概念定义
          6.3.2  网络探测
          6.3.3  量化对齐
        6.4  解释层和单元
          6.4.1  运行网络剖析
          6.4.2  概念检测器
          6.4.3  训练任务的概念检测器
          6.4.4  可视化概念检测器
          6.4.5  网络剖析的局限性
        6.5  本章小结
      第7章  理解语义相似性
        7.1  情感分析
        7.2  探索性数据分析
        7.3  神经网络词嵌入
          7.3.1  独热编码
          7.3.2  Word2Vec
          7.3.3  GloVe嵌入
          7.3.4  情感分析模型
        7.4  解释语义相似性
          7.4.1  度量相似性
          7.4.2  主成分分析(PCA)
          7.4.3  t分布随机近邻嵌入(t-SNE)

          7.4.4  验证语义相似性的可视化
        7.5  本章小结
    第Ⅳ部分  公平和偏见
      第8章  公平和减少偏见
        8.1  成年人收入预测
          8.1.1  探索性数据分析
          8.1.2  预测模型
        8.2  公平性概念
          8.2.1  人口平等
          8.2.2  机会和概率平等
          8.2.3  其他公平性概念
        8.3  可解释和公平性
          8.3.1  源自输入特征的歧视
          8.3.2  源自表示的歧视
        8.4  减少偏见
          8.4.1  无意识公平
          8.4.2  通过重新加权纠正标注
        8.5  数据集的数据表
        8.6  本章小结
      第9章  XAI
        9.1  XAI概述
        9.2  反事实说明
        9.3  本章小结
    附录A  设置环境
      A.1  Python代码
      A.2  Git代码库
      A.3  Conda环境
      A.4  Jupyter notebooks
      A.5  Docker
    附录B  PyTorch
      B.1  什么是PyTorch
      B.2  安装PyTorch
      B.3  张量
        B.3.1  数据类型
        B.3.2  CPU和GPU张量
        B.3.3  运算
      B.4  Dataset和DataLoader
      B.5  建模
        B.5.1  自动微分法
        B.5.2  模型定义
        B.5.3  训练