欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • AI安全(技术与实战全彩印刷)
      • 作者:编者:腾讯安全朱雀实验室|责编:滕亚帆
      • 出版社:电子工业
      • ISBN:9787121439261
      • 出版日期:2022/10/01
      • 页数:301
    • 售价:59.2
  • 内容大纲

        本书首先介绍AI与AI安全的发展起源、世界主要经济体的AI发展战略规划,给出AI安全技术发展脉络和框架,并从AI安全实战出发,重点围绕对抗样本、数据投毒、模型后门等攻击技术进行案例剖析和技术讲解;然后对预训练模型中的风险和防御、AI数据隐私窃取攻击技术、AI应用失控的风险和防御进行详细分析,并佐以实战案例和数据;最后对AI安全的未来发展进行展望,探讨AI安全的风险、机遇、发展理念和产业构想。
        本书适合AI和AI安全领域的研究人员、管理人员,以及需要实战案例辅助学习的广大爱好者阅读。
  • 作者介绍

        腾讯安全朱雀实验室专注于AI安全技术研究及应用,在对抗机器学习、AI模型安全、深伪检测等方面取得了一系列研究成果;议题入选CVPR、ICLR、CanSecWest、HITB、POC、XCon等国内外顶级会议;面向行业发布了业内首个AI安全威胁风险矩阵;持续聚焦AI在产业应用的安全问题,助力AI安全技术创新。
  • 目录

    第1章  AI安全发展概述
      1.1  AI与安全衍生
        1.1.1  AI发展图谱
        1.1.2  各国AI发展战略
        1.1.3  AI行业标准
        1.1.4  AI安全的衍生本质——科林格里奇困境
      1.2  AI安全技术发展脉络
    第2章  对抗样本攻击技术揭秘
      2.1  对抗样本攻击的基本原理
        2.1.1  形式化定义与理解
        2.1.2  对抗样本攻击的分类
        2.1.3  对抗样本攻击的常见衡量指标
      2.2  对抗样本攻击技巧与攻击思路
        2.2.1  白盒攻击算法
        2.2.2  黑盒攻击算法
      2.3  实战案例:语音、图像、文本识别引擎绕过
        2.3.1  语音识别引擎绕过
        2.3.2  图像识别引擎绕过
        2.3.3  文本识别引擎绕过
      2.4  实战案例:物理世界中的对抗样本攻击
        2.4.1  目标检测原理
        2.4.2  目标检测攻击原理
        2.4.3  目标检测攻击实现
        2.4.4  攻击效果展示
      2.5  案例总结
    第3章  数据投毒攻击技术揭秘
      3.1  数据投毒攻击概念
      3.2  数据投毒攻击的基本原理
        3.2.1  形式化定义与理解
        3.2.2  数据投毒攻击的范围与思路
      3.3  数据投毒攻击技术发展
        3.3.1  传统数据投毒攻击介绍
        3.3.2  数据投毒攻击约束
        3.3.3  数据投毒攻击效率优化
        3.3.4  数据投毒攻击迁移能力提升
      3.4  实战案例:利用数据投毒攻击图像分类模型
        3.4.1  案例背景
        3.4.2  深度图像分类模型
        3.4.3  数据投毒攻击图像分类模型
        3.4.4  实验结果
      3.5  实战案例:利用投毒日志躲避异常检测系统
        3.5.1  案例背景
        3.5.2  RNN异常检测系统
        3.5.3  投毒方法介绍
        3.5.4  实验结果
      3.6  案例总结
    第4章  模型后门攻击技术揭秘
      4.1  模型后门概念
      4.2  后门攻击种类与原理
        4.2.1  投毒式后门攻击

        4.2.2  非投毒式后门攻击
        4.2.3  其他数据类型的后门攻击
      4.3  实战案例:基于数据投毒的模型后门攻击
        4.3.1  案例背景
        4.3.2  后门攻击案例
      4.4  实战案例:供应链攻击
        4.4.1  案例背景
        4.4.2  解析APK
        4.4.3  后门模型训练
      4.5  实战案例:基于模型文件神经元修改的模型后门攻击
        4.5.1  案例背景
        4.5.2  模型文件神经元修改
        4.5.3  触发器优化
      4.6  案例总结
    第5章  预训练模型中的风险和防御
      5.1  预训练范式介绍
        5.1.1  预训练模型的发展历程
        5.1.2  预训练模型的基本原理
      5.2  典型风险分析和防御措施
        5.2.1  数据风险
        5.2.2  敏感内容生成风险
        5.2.3  供应链风险
        5.2.4  防御策略
      5.3  实战案例:隐私数据泄露
        5.3.1  实验概况
        5.3.2  实验细节
        5.3.3  结果分析
      5.4  实战案例:敏感内容生成
        5.4.1  实验概况
        5.4.2  实验细节
        5.4.3  结果分析
      5.5  实战案例:基于自诊断和自去偏的防御
        5.5.1  实验概况
        5.5.2  实验细节
        5.5.3  结果分析
      5.6  案例总结
    第6章  AI数据隐私窃取攻击技术揭秘
      6.1  数据隐私窃取的基本原理
        6.1.1  模型训练中数据隐私窃取
        6.1.2  模型使用中数据隐私窃取
      6.2  数据隐私窃取的种类与攻击思路
        6.2.1  数据窃取攻击
        6.2.2  成员推理攻击
        6.2.3  属性推理攻击
      6.3  实战案例:联邦学习中的梯度数据窃取攻击
        6.3.1  案例背景
        6.3.2  窃取原理介绍
        6.3.3  窃取案例
        6.3.4  结果分析
      6.4  实战案例:利用AI水印对抗隐私泄露

        6.4.1  案例背景
        6.4.2  AI保护数据隐私案例
        6.4.3  AI水印介绍
        6.4.4  结果分析
      6.5  案例总结
    第7章  AI应用失控的风险和防御
      7.1  AI应用失控风险
        7.1.1  深度伪造技术
        7.1.2  深度伪造安全风险
      7.2  AI应用失控防御方法
        7.2.1  数据集
        7.2.2  技术防御
        7.2.3  内容溯源
        7.2.4  行业实践
        7.2.5  面临挑战
        7.2.6  未来工作
      7.3  实战案例:VoIP电话劫持+语音克隆攻击
        7.3.1  案例背景
        7.3.2  实验细节
      7.4  实战案例:深度伪造鉴别
        7.4.1  案例背景
        7.4.2  实验细节
        7.4.3  结果分析
      7.5  案例总结
    后记  AI安全发展展望