欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 深度学习全景--技术与应用解析(微视频版)
      • 作者:编者:迟殿委//贾泽豪|责编:张玥//常建丽
      • 出版社:清华大学
      • ISBN:9787302703563
      • 出版日期:2025/10/01
      • 页数:287
    • 售价:27.92
  • 内容大纲

        本书基于Python语言和PyTorch框架,阐述深度学习技术与应用,内容包括深度学习基础模型与深度学习应用技术两部分。深度学习基础模型部分(第1~4章),介绍深度学习基础、卷积神经网络、循环神经网络、Transformer;深度学习应用技术部分(第5~8章),介绍计算机视觉技术、时间序列预测技术、自然语言处理技术、多模态技术。
        本书从基础理论到前沿模型,全方位覆盖深度学习技术,通过可视化技术直观展示深度学习算法及其应用效果,结合作者的科研成果和实际项目案例,提供具体应用实例,增强读者的实践能力,涵盖最新的大模型技术和研究前沿,帮助读者紧跟技术发展潮流。本书适合对深度学习感兴趣的广大学习者和研究者,包括初学者、计算机科学及相关专业的学生、数据科学家、人工智能工程师以及希望在深度学习领域深入探索的专业人士。通过本书,读者可以系统地学习深度学习技术,并能将所学知识有效应用于实际项目中。
  • 作者介绍

        迟殿委,南昌大学计算机软件与理论专业硕士,系统架构设计师。有多年企业软件研发经验和丰富的JavaEE、大数据技术培训经验,熟练掌握JavaEE与大数据全栈技术框架,擅长JavaEE系统架构设计、大数据分析与挖掘。著有图书《Hadoop大数据分析技术》《Hadoop+Spark大数据分析实战》《Spring Boot企业级开发实战(视频教学版)》《深入浅出Java编程》《Spring Boot+Spring Cloud微服务开发》。
  • 目录

    第1章  深度学习基础
      1.1  深度学习概述
      1.2  神经网络原理
        1.2.1  神经网络
        1.2.2  激活函数
      1.3  优化算法
        1.3.1  前向传播与损失函数
        1.3.2  反向传播
        1.3.3  梯度下降
        1.3.4  学习率衰减
        1.3.5  模型的训练流程
      1.4  过拟合的抑制
        1.4.1  过拟合
        1.4.2  Dropout
        1.4.3  批标准化
        1.4.4  权重衰减
        1.4.5  早停机制
    第2章  卷积神经网络
      2.1  卷积神经网络概述
      2.2  卷积
        2.2.1  卷积操作
        2.2.2  尺寸、填充与步长
        2.2.3  常见卷积
      2.3  池化
        2.3.1  平均池化
        2.3.2  最大池化
        2.3.3  自适应池化
      2.4  分类器
        2.4.1  全连接分类器
        2.4.2  全卷积分类器
      2.5  卷积神经网络设计
        2.5.1  AlexNet
        2.5.2  VGGNet
        2.5.3  ResNet
      2.6  卷积神经网络的训练与分析
        2.6.1  训练流程
        2.6.2  可解释性分析
    第3章  循环神经网络
      3.1  RNN
        3.1.1  序列数据
        3.1.2  递归特性
      3.2  LSTM
        3.2.1  记忆
        3.2.2  遗忘门
        3.2.3  选择记忆门
        3.2.4  输出门
        3.2.5  LSTM的可视化
      3.3  GRU
        3.3.1  重置门
        3.3.2  更新门

        3.3.3  GRU的代码实现
      3.4  应用模式
        3.4.1  双向RNN
        3.4.2  多对一
        3.4.3  一对多
        3.4.4  多对多
    第4章  Transformer
      4.1  自注意力机制
        4.1.1  自注意力机制
        4.1.2  注意力机制中的QKV
        4.1.3  多头自注意力机制
        4.1.4  掩码多头自注意力机制
      4.2  Transformer的基本结构
        4.2.1  位置编码
        4.2.2  编码器
        4.2.3  解码器
        4.2.4  交叉自注意力机制的应用
      4.3  大模型的定义与应用
        4.3.1  大模型的定义
        4.3.2  大模型的应用
        4.3.3  Hugging Face与大模型
      4.4  机器翻译任务中Transformer的训练
        4.4.1  数据集的构建
        4.4.2  模型的构建
        4.4.3  损失计算与优化
        4.4.4  自回归预测
    第5章  计算机视觉技术
      5.1  视觉模型
        5.1.1  CNN模型
        5.1.2  ViT模型
      5.2  分类任务
        5.2.1  单标签分类
        5.2.2  多标签分类
        5.2.3  分类任务的评估指标
        5.2.4  类别不均衡问题
      5.3  目标检测任务
        5.3.1  R-CNN模型
        5.3.2  YOLO模型
        5.3.3  DETR模型
      5.4  图像分割任务
        5.4.1  语义分割
        5.4.2  实例分割
        5.4.3  视觉分割大模型SAM
      5.5  视觉自监督预训练
        5.5.1  迁移学习与有监督预训练
        5.5.2  SimCLR算法
        5.5.3  MAE算法
      5.6  视觉实战探索:基于辅助训练的车牌识别研究
        5.6.1  引言
        5.6.2  相关工作

        5.6.3  研究方法
        5.6.4  实验与讨论
    第6章  时间序列预测技术
      6.1  时间序列
        6.1.1  时间序列的特性
        6.1.2  时间序列特征分解
        6.1.3  时间序列的降噪
      6.2  时间序列预测任务
        6.2.1  短期时间序列预测
        6.2.2  长期时间序列预测
        6.2.3  异常检测
        6.2.4  时间序列分类
        6.2.5  缺失值填补
      6.3  时序模型
        6.3.1  循环神经网络模型
        6.3.2  时域卷积神经网络模型
        6.3.3  Transformer模型
      6.4  时间序列预测任务的评估指标
      6.5  时间序列预测实战探索:基于PCA降噪特征选择与LSTM的湖泊溶解氧含量预测模型研究
        6.5.1  引言
        6.5.2  基于MIC特征选取方法
        6.5.3  湖泊水质溶解氧预测模型构建
        6.5.4  实验
    第7章  自然语言处理技术
      7.1  自然语言处理任务
        7.1.1  文本分类
        7.1.2  命名实体识别
        7.1.3  机器翻译
        7.1.4  自然语言生成
      7.2  文本数据预处理
        7.2.1  分词
        7.2.2  去停用词
        7.2.3  文本可视化展示
      7.3  文本向量化
        7.3.1  TF-IDF
        7.3.2  独热编码
        7.3.3  词嵌入
      7.4  自然语言处理模型
        7.4.1  数据填充
        7.4.2  循环神经网络
        7.4.3  Transformer
      7.5  BERT
        7.5.1  模型结构
        7.5.2  预训练-微调模式
        7.5.3  预训练方式
        7.5.4  模型调用
        7.5.5  优势与意义
      7.6  GPT
        7.6.1  模型结构
        7.6.2  预训练方式

        7.6.3  模型调用
        7.6.4  优势与意义
      7.7  NLP实战探索:基于BERT的模型的酒店评论文本情感分析研究
        7.7.1  引言
        7.7.2  数据集
        7.7.3  BERT模型的构建
        7.7.4  实验
    第8章  多模态技术
      8.1  多模态概述
      8.2  多模态特征对齐
      8.3  多模态输入融合
        8.3.1  拼接或相加
        8.3.2  自注意力机制
        8.3.3  交叉注意力机制
      8.4  跨模态输出
        8.4.1  Seq2Seq
        8.4.2  Transformer Encoder-Decoder
      8.5  CLIP视觉文本多模态
        8.5.1  图像文本特征
        8.5.2  损失函数
        8.5.3  零样本分类
      8.6  多模态常见任务
        8.6.1  图文检索
        8.6.2  视觉问答
        8.6.3  文本-图像生成
        8.6.4  多模态目标检测
      8.7  多模态技术实战探索:基于CLIP的文本图像检索实现
    参考文献