-
-
- 全解深度学习(九大核心算法)/跟我一起学人工智能
-
- 作者:编者:于浩文|责编:赵佳霓
- 出版社:清华大学
- ISBN:9787302679103
-
售价:31.6
-
内容大纲
本书专注于介绍基于深度学习的算法。从探索深度学习的数学基础和理论架构,到九大经典的深度学习算法,旨在为读者提供一个从基础到高级的全方位指导。截至2024年,书中介绍的9个算法几乎涵盖了整个深度学习领域的经典和前沿算法。
本书在第1章和第2章介绍了深度学习的基础:数学基础与神经网络算法。从第3章开始,书籍逐步引领读者进入深度学习的核心领域,即一些基于神经网络的变体算法:卷积神经网络、循环神经网络、编码器-解码器模型,以及目前火热的变形金刚算法、生成对抗网络和扩散模型。这些章节不仅讲解了各个模型的基础理论和关键技术,还详细介绍了这些模型在自然语言处理、计算机视觉等领域的应用案例。书籍的后半部分聚焦于图神经网络和强化学习这些前沿算法,深入浅出地讲解了它们的基础知识、算法变体及经典模型等高级话题。这些内容为读者理解和应用深度学习技术提供了坚实的理论基础。
本书适合对深度学习领域感兴趣的本科生、研究生及相关行业的从业者阅读。
-
作者介绍
于浩文,南安普顿大学人工智能专业硕士一等学位,曼彻斯特大学生物信息与系统生物硕士一等学位;湖南点头教育科技有限公司联合创始人。在SCI上发表论文三篇,IEEE上发表论文一篇,获国家技术专利一项。
-
目录
配套资源
第1章 深度学习数学基础
1.1 高等数学之微积分
1.1.1 重识微分
1.1.2 微分的解读
1.1.3 微分与函数的单调性和凹凸性
1.1.4 微分的链式法则
1.1.5 偏微分与全微分
1.1.6 梯度与方向导数
1.1.7 泰勒公式与麦克劳林公式
1.1.8 拉格朗日乘子法
1.1.9 重识积分
1.1.10 不定积分和反导数
1.1.11 定积分与牛顿-莱布尼茨公式
1.1.12 微积分的基本定理
1.2 线性代数
1.2.1 线性方程组
1.2.2 线性方程组的矩阵求解法
1.2.3 矩阵乘法
1.2.4 向量的数乘
1.2.5 向量的加法
1.2.6 向量的线性组合
1.2.7 向量空间
1.2.8 向量的线性相关和线性无关
1.2.9 向量乘法
1.2.10 向量的正交
1.2.11 向量与矩阵
1.2.12 特征值和特征向量
1.3 概率论
1.3.1 频数
1.3.2 数据位置
1.3.3 数据散布
1.3.4 随机变量的类型和概率分布
1.3.5 理论概率分布之常见的离散型分布
1.3.6 理论概率分布之常见的连续型分布
1.3.7 经验概率分布
1.4 统计学
1.4.1 大数定律与中心极限定理
1.4.2 参数估计
1.4.3 统计量和抽样分布
1.4.4 假设检验
1.4.5 相关性分析
第2章 神经网络理论基础
2.1 线性模型
2.1.1 线性模型的定义
2.1.2 损失函数
2.1.3 梯度下降算法
2.1.4 广义线性模型
2.2 回归与分类
2.2.1 回归和分类问题的定义与联系
2.2.2 线性模型解决回归和分类问题
2.3 感知机模型
2.3.1 感知机模型定义与理解
2.3.2 神经网络算法与深度学习模型
2.3.3 反向传播算法
2.4 激活函数
2.4.1 激活函数的定义与作用
2.4.2 常用激活函数
2.5 维度诅咒
2.5.1 神经网络的层级结构
2.5.2 维度诅咒与过拟合
2.6 过拟合与欠拟合
2.6.1 过拟合和欠拟合现象的定义
2.6.2 过拟合和欠拟合现象的产生原因
2.7 正则
2.7.1 L1和L2正则
2.7.2 DropOut
2.8 数据增强
2.9 数值不稳定性
第3章 卷积神经网络
3.1 卷积神经网络基础
3.1.1 卷积神经网络的计算
3.1.2 卷积的设计思想
3.1.3 卷积进行特征提取的过程
3.1.4 池化与采样
3.1.5 卷积神经网络的感受野
3.1.6 卷积模型实现图像识别
3.1.7 第1个卷积神经网络模型:LeNet
3.2 卷积的变体算法
3.2.1 逐通道卷积
3.2.2 逐点卷积
3.2.3 深度可分离卷积
3.2.4 组卷积
3.2.5 空间可分离卷积
3.2.6 空洞卷积
3.2.7 转置卷积
3.2.8 稀疏卷积
3.2.9 多维卷积
第4章 循环神经网络
4.1 循环神经网络基础
4.1.1 序列数据
4.1.2 RNN模型
4.1.3 语言模型
4.1.4 文本预处理
4.1.5 建模和预测
4.2 循环神经网络的变体模型
4.2.1 门控循环单元
4.2.2 长短期记忆网络
4.2.3 深度循环神经网络
4.2.4 双向循环神经网络
4.2.5 基于注意力的循环神经网络
第5章 编码器-解码器模型
5.1 编码器-解码器模型基础
5.1.1 编码器-解码器模型的基本结构
5.1.2 编码器-解码器模型在自然语音处理领域的应用
5.1.3 编码器-解码器模型在计算机视觉领域的应用
5.1.4 自编码器模型
5.2 CV中的编码器-解码器:VAE模型
5.2.1 VAE模型简明指导
5.2.2 潜空间
5.2.3 最大似然估计
5.2.4 隐变量模型
5.2.5 蒙特卡洛采样
5.2.6 变分推断
5.3 NLP中的编码器-解码器:Seq2Seq模型
5.3.1 Seq2Seq编码器
5.3.2 Seq2Seq解码器
5.3.3 Seq2Seq的Attention机制
5.3.4 Seq2Seq的Teacher Forcing策略
5.3.5 Seq2Seq评价指标BLEU
5.3.6 Seq2Seq模型小结
第6章 变形金刚算法
6.1 算法基础
6.1.1 算法概况
6.1.2 自注意力层
6.1.3 多头自注意力层
6.1.4 编码器结构
6.1.5 解码器结构
6.1.6 线性顶层和Softmax层
6.1.7 输入数据的向量化
6.2 NLP中的Transformer模型
6.2.1 BERT
6.2.2 GPT
6.3 CV中的Transformer模型
6.3.1 Vision Transformer
6.3.2 Swin Transformer
6.4 Transformer小结
第7章 生成对抗网络
7.1 生成对抗网络基础
7.1.1 GAN的模型结构
7.1.2 GAN模型的训练
7.2 改进的GAN
7.2.1 模式崩溃
7.2.2 模式崩溃的解决方法
7.3 f-GAN
7.3.1 GAN模型损失与散度
7.3.2 GAN损失的通用框架f散度
7.4 WGAN
7.4.1 传统的GAN模型梯度消失的分析
7.4.2 Wasserstein距离
7.4.3 由Wasserstein距离推导WGAN的损失
7.4.4 使用梯度惩罚
7.5 CycleGAN
7.5.1 循环一致性
7.5.2 对抗训练
7.5.3 损失函数
7.5.4 训练流程
7.5.5 小结
第8章 扩散模型
8.1 扩散模型基础
8.1.1 扩散模型的基本原理
8.1.2 DDPM扩散模型与变分自编码器的比较
8.2 去噪扩散概率模型(DDPM)
8.2.1 DDPM前向扩散简明指导
8.2.2 DDPM反向去噪过程
8.2.3 DDPM扩散模型的损失函数
8.2.4 DDPM扩散模型的使用
第9章 图神经网络
9.1 图神经网络算法基础
9.1.1 图的表示
9.1.2 图数据的任务类型
9.1.3 图数据的嵌入
9.2 图神经网络模型
9.2.1 消息传递神经网络
9.2.2 图神经网络的层结构与连接性
9.2.3 图神经网络模型的训练
9.3 图神经网络算法基础的变体
9.3.1 GCN
9.3.2 GraphSAGE
9.3.3 GAT
第10章 强化学习
10.1 强化学习基础概念
10.1.1 概述
10.1.2 强化学习基本概念
10.1.3 理解强化学习中的随机性
10.2 基于价值的深度强化学习(DQN)
10.2.1 DQN介绍
10.2.2 贝尔曼方程与时序差分学习
10.2.3 训练神经网络
10.2.4 估计网络与目标网络
10.3 基于策略的深度强化学习
10.3.1 算法介绍:基于策略的强化学习
10.3.2 策略优化
10.3.3 对比梯度上升和时序差分
10.4 演员-评论家模型
10.4.1 算法介绍:演员-评论家模型
10.4.2 演员-评论家模型算法训练
10.4.3 演员-评论家模型算法的优缺点
10.4.4 对比生成对抗网络和演员-评论家模型算法