欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 仓颉TensorBoost学习之旅(人工智能与深度学习实战)/开发者成长丛书
      • 作者:董昱|责编:赵佳霓
      • 出版社:清华大学
      • ISBN:9787302642312
      • 出版日期:2024/09/01
      • 页数:349
    • 售价:35.6
  • 内容大纲

        本书以基础知识和实例相结合的方式,详细介绍仓颉TenserBoost的基本使用方法和常见技术,从最基本的神经元开始,讲述神经网络的发展历程,以及深度神经网络、卷积神经网络和循环神经网络的基本用法。
        全书共分为11章,第1~4章介绍了仓颉TenserBoost的底层逻辑,探寻神经网络的原理;第5~9章介绍了常用的算子,以及如何通过仓颉TenserBoost构建深度神经网络;第10章和第11章分别介绍卷积神经网络和循环神经网络,并实现图像识别和序列预测。
        本书面向仓颉语言初学者,以及神经网络、深度学习的初学者,无论您是否有仓颉语言的编程基础,也无论您是否对深度学习是否了解都可以打开本书,一览究竟。
  • 作者介绍

        董昱,华为官方认证的HarmonyOS系统课程开发者,多次参与51CTO鸿蒙社区等组织的课程直播、录播和技术研讨。毕业于中国科学院地理科学与资源研究所,已发表论文10余篇,SCI收录2篇,申请国家专利1项,软件著作权10余项,著有《大疆无人机二次开发教程》《QGIS软件及其应用教程》等图书。
  • 目录

    第1章  初探深度学习
      1.1  人工智能的基本概念
      1.2  神经网络的3次浪潮
        1.2.1  第1次浪潮:感知机的诞生和应用
        1.2.2  第2次浪潮:神经网络的大发展
        1.2.3  第3次浪潮:深度学习
      1.3  深度学习框架
        1.3.1  主流深度学习框架的对比
        1.3.2  昇思(MindSpore)
      1.4  本章小结
      1.5  习题
    第2章  仓颉语言快速入门
      2.1  仓颉语言的开发环境搭建
        2.1.1  安装和配置仓颉语言编译器
        2.1.2  第1个仓颉程序
      2.2  仓颉语言的基本语法
        2.2.1  变量和数据类型
        2.2.2  字符和字符串
        2.2.3  操作符和表达式
        2.2.4  条件结构和循环结构
        2.2.5  函数的定义和调用
      2.3  类和结构体
        2.3.1  类与对象
        2.3.2  继承和多态
        2.3.3  接口
        2.3.4  结构体及其构造函数
      2.4  泛型和集合类型
        2.4.1  泛型类型
        2.4.2  泛型函数
        2.4.3  集合类型
      2.5  包管理工具
        2.5.1  包
        2.5.2  模块
        2.5.3  库
      2.6  本章小结
      2.7  习题
    第3章  自制多层感知机
      3.1  准备工作:实现矩阵运算和读取MNIST数据集
        3.1.1  矩阵和矩阵运算
        3.1.2  MNIST数据集
      3.2  自制多层感知机的实现
        3.2.1  多层感知机的构建
        3.2.2  多层感知机的训练
        3.2.3  多层感知机的核心:反向传播算法
        3.2.4  随机梯度下降和超参数的设置
        3.2.5  让代码运行起来
      3.3  本章小结
      3.4  习题
    第4章  自动微分
      4.1  自动微分的原理和实现

        4.1.1  微分类型
        4.1.2  自动微分的原理
        4.1.3  自动微分的实现
      4.2  仓颉的可微编程
        4.2.1  初探可微编程
        4.2.2  可微类型
        4.2.3  可微函数
        4.2.4  伴随函数
        4.2.5  高阶微分
      4.3  本章小结
      4.4  习题
    第5章  仓颉TensorBoost的环境搭建
      5.1  准备工作
      5.2  搭建MindSpore编译环境
        5.2.1  显卡驱动与CUDA的安装
        5.2.2  编译工具的安装
        5.2.3  编译依赖的安装
      5.3  编译并安装MindSpore
      5.4  仓颉TensorBoost的环境配置
        5.4.1  仓颉TensorBoost的安装
        5.4.2  检查仓颉TensorBoost是否安装成功
      5.5  环境配置中的常见问题
        5.5.1  更新Python版本后终端无法正常打开
        5.5.2  编译MindSpore时出现OpenMPI编译错误
        5.5.3  eigen包下载失败
        5.5.4  通过SSH和Samba服务在Windows环境中开发仓颉TensorBoost程序
      5.6  本章小结
      5.7  习题
    第6章  张量的基本用法
      6.1  张量
        6.1.1  张量的定义
        6.1.2  张量和数组的转换
        6.1.3  张量的属性
        6.1.4  张量的复制
      6.2  张量的基本运算
        6.2.1  加、减、乘、除、取余
        6.2.2  无穷与非数
        6.2.3  矩阵运算
        6.2.4  张量的维度交换和矩阵转置
      6.3  张量是可微类型
        6.3.1  动态图和静态图
        6.3.2  张量的自动微分
      6.4  张量元组与参数
        6.4.1  张量元组
        6.4.2  参数
      6.5  本章小结
      6.6  习题
    第7章  构建神经网络
      7.1  单层感知机实现线性回归
        7.1.1  MindRecord数据集的读取

        7.1.2  定义感知机
        7.1.3  计算代价函数并反向传播求解梯度
        7.1.4  应用随机梯度下降优化器更新感知机参数
        7.1.5  训练感知机
      7.2  多层感知机实现数字识别
        7.2.1  MNIST数据集的读取
        7.2.2  定义多层感知机
        7.2.3  计算代价函数并反向传播求解梯度
        7.2.4  创建随机梯度下降优化器更新网络参数
        7.2.5  训练多层感知机
      7.3  神经网络的持久化
        7.3.1  运行环境管理和静态图的保存
        7.3.2  张量的持久化
        7.3.3  神经网络模型的持久化
      7.4  本章小结
      7.5  习题
    第8章  张量的高级用法
      8.1  数学运算算子
        8.1.1  基础数学运算算子
        8.1.2  统计运算
        8.1.3  稀疏算法
        8.1.4  逻辑运算
        8.1.5  张量的内存设置
      8.2  张量比较
        8.2.1  维度内的比较
        8.2.2  元素级的比较
        8.2.3  广播机制
      8.3  张量的维度操作
        8.3.1  基本维度变换
        8.3.2  张量的切片和取值
        8.3.3  张量的合并与分割
        8.3.4  反转元素
      8.4  本章小结
      8.5  习题
    第9章  深度神经网络
      9.1  选择合适的损失函数
        9.1.1  L1、L2范数损失函数
        9.1.2  熵和交叉熵
        9.1.3  交叉熵损失函数
        9.1.4  Softmax激活函数
      9.2  选择合适的激活函数
        9.2.1  梯度消失和梯度爆炸
        9.2.2  Sigmoid及其衍生激活函数
        9.2.3  线性整流函数(ReLU)
        9.2.4  常用的激活函数
      9.3  选择合适的优化器
        9.3.1  动量梯度下降
        9.3.2  自适应学习率
        9.3.3  Adam算法
      9.4  正则化与过拟合问题

        9.4.1  过拟合和欠拟合
        9.4.2  L1和L2正则化
        9.4.3  DropOut
      9.5  改进深度神经网络
        9.5.1  采样器、训练数据集和验证数据集的加载
        9.5.2  改进激活函数和损失函数
        9.5.3  改进优化器
      9.6  本章小结
      9.7  习题
    第10章  卷积神经网络
      10.1  卷积神经网络与图像识别
        10.1.1  卷积和图像卷积
        10.1.2  初识卷积神经网络
      10.2  LeNet神经网络
        10.2.1  LeNet-5神经网络结构
        10.2.2  手写数字识别的实现
      10.3  VGG神经网络
        10.3.1  CIFAR10数据集
        10.3.2  批标准化
        10.3.3  VGG-16神经网络结构
        10.3.4  图片分类的实现
      10.4  本章小结
      10.5  习题
    第11章  循环神经网络
      11.1  循环神经网络基本原理
        11.1.1  初识循环神经网络
        11.1.2  长短期记忆网络
      11.2  用LSTM解决序列问题
        11.2.1  堆叠LSTM
        11.2.2  序列数据的表示方法
        11.2.3  预测航班载客量的实现
      11.3  本章小结
      11.4  习题
    附录A  张量的操作符重载