欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 人工智能边缘计算芯片与系统设计(集成电路新兴领域十四五高等教育教材)
      • 作者:编者:钟世达//黄磊|责编:张小乐
      • 出版社:电子工业
      • ISBN:9787121506130
      • 出版日期:2025/07/01
      • 页数:247
    • 售价:28.8
  • 内容大纲

        本书系统阐述了人工智能边缘计算在边缘端场景下的数字芯片设计与SoC系统集成设计。全书以“算法-芯片-系统”协同优化为主线,重点解析了轻量化深度神经网络的设计方法及其在硬件架构中的映射实现,内容涵盖卷积神经网络专用电路模块的设计原理、面向AI计算特征的数据存储架构优化策略,以及基于SoC的神经网络加速器集成技术。此外,基于软硬件协同设计方法论,本书深入探讨了如何通过量化实现算法轻量化,并保持硬件计算的准确性。在应用层面,结合人脸口罩识别和农作物病虫害识别的典型场景,解析了人工智能边缘计算芯片在功耗约束下的性能优化方案。本书融合了深度学习算法轻量化、卷积神经网络加速器设计、加速器SoC系统集成等前沿技术,构建了从理论算法到数字芯片设计的完整知识体系,为人工智能边缘计算芯片与系统的设计提供了重要参考。
        本书适合作为高等院校电子信息、集成电路、计算机、自动化等专业的高年级本科生及研究生教材或实践项目指导书,也可为相关行业工程技术人员的入门参考书。
  • 作者介绍

  • 目录

    第1章  边缘计算与人工智能
      1.1  边缘计算
        1.1.1  边缘计算简介
        1.1.2  边缘计算的发展趋势
        1.1.3  智能边缘与边缘智能
      1.2  人工智能与深度学习
        1.2.1  人工智能分类
        1.2.2  人工智能应用
        1.2.3  深度学习发展历史
      1.3  深度神经网络
        1.3.1  多层感知机
        1.3.2  卷积神经网络
        1.3.3  循环神经网络
        1.3.4  生成对抗网络
        1.3.5  迁移学习
      1.4  任务及习题
    第2章  人工智能芯片与系统
      2.1  AI芯片发展现状介绍
        2.1.1  发展历程
        2.1.2  国内外发展现状
        2.1.3  发展趋势与展望
      2.2  GPU架构
        2.2.1  概述
        2.2.2  具体架构
        2.2.3  软件支持
      2.3  TPU架构
        2.3.1  概述
        2.3.2  具体架构
        2.3.3  软件支持
      2.4  适用于边缘计算的人工智能芯片架构
        2.4.1  Jetson GPU
        2.4.2  Edge TPU
      2.5  其他芯片类型
        2.5.1  高能效ASIC加速器
        2.5.2  内存计算加速器
        2.5.3  神经形态加速器
      2.6  任务及习题
    第3章  轻量化深度神经网络
      3.1  轻量化神经网络的背景
      3.2  深度可分离卷积
        3.2.1  深度可分离卷积的概念
        3.2.2  深度可分离卷积的发展过程
        3.2.3  性能分析
        3.2.4  应用举例
      3.3  剪枝
        3.3.1  剪枝的概念
        3.3.2  稀疏方式
      3.4  量化
        3.4.1  量化的概念
        3.4.2  量化分类

        3.4.3  校准方法
      3.5  知识蒸馏
        3.5.1  知识蒸馏的概念
        3.5.2  知识蒸馏分类
        3.5.3  学习模式
      3.6  任务及习题
    第4章  卷积神经网络电路模块设计
      4.1  卷积层设计
        4.1.1  卷积层的概念
        4.1.2  卷积过程
        4.1.3  卷积层硬件设计
      4.2  池化层设计
        4.2.1  池化层的概念
        4.2.2  池化层硬件设计
      4.3  全连接层设计
        4.3.1  全连接层的概念
        4.3.2  全连接层硬件设计
      4.4  加速器主体架构设计
        4.4.1  输入层
        4.4.2  激活函数
        4.4.3  卷积层
        4.4.4  池化层
        4.4.5  全连接层
        4.4.6  总体结构
      4.5  任务及习题
    第5章  数据存储设计
      5.1  内存模块
        5.1.1  内存介绍
        5.1.2  内存分类
      5.2  内存存取
        5.2.1  内存存取介绍
        5.2.2  单口RAM
        5.2.3  双口RAM
        5.2.4  FIFO介绍
      5.3  权重的格式与存取
        5.3.1  权重的概念和训练
        5.3.2  权重的格式
        5.3.3  权重的存取
      5.4  任务及习题
    第6章  神经网络加速器与SoC系统集成
      6.1  微处理器与系统芯片介绍
        6.1.1  微处理器介绍
        6.1.2  系统芯片介绍
      6.2  AMBA系统总线
        6.2.1  总线的概念
        6.2.2  总线的作用
        6.2.3  总线的组成和类型
        6.2.4  AMBA总线简介
      6.3  AHB总线
        6.3.1  AHB简介

        6.3.2  AHB信号
      6.4  APB总线
        6.4.1  APB总线简介
        6.4.2  AHB-to-APB转接桥
      6.5  AXI总线
        6.5.1  AXI总线简介
        6.5.2  AXI-to-APB转接桥
      6.6  常用SoC外设介绍
        6.6.1  GPIO
        6.6.2  UART
        6.6.3  RAM
        6.6.4  ROM
      6.7  加速器与SoC系统集成
        6.7.1  通过APB总线挂载UART
        6.7.2  挂载神经网络加速器
      6.8  任务及习题
    第7章  人工智能芯片的软硬件协同设计
      7.1  算法与硬件的数据交互
        7.1.1  算法的实现方式
        7.1.2  深度学习算法的软硬件协同设计
      7.2  模型训练与权重生成
        7.2.1  模型训练
        7.2.2  权重生成
      7.3  算法量化
        7.3.1  算法量化的原理
        7.3.2  算法量化方式
        7.3.3  算法量化实例
      7.4  任务及习题
    第8章  人工智能边缘计算芯片应用
      8.1  人脸识别
        8.1.1  人脸口罩识别SoC系统介绍
        8.1.2  加速器算法
        8.1.3  人脸口罩识别加速器系统硬件实现
        8.1.4  FPGA运行人脸口罩识别SoC系统
      8.2  农作物病虫害识别
        8.2.1  农作物病虫害识别SoC系统介绍
        8.2.2  参数训练
        8.2.3  病虫害识别SoC系统硬件架构
        8.2.4  基于HLS的MobileNetV2硬件化
      8.3  任务及习题
    参考文献