欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 深度学习与大模型(十五五普通高等教育人工智能专业系列教材)
      • 作者:编者:张永忠|责编:闫钇汛
      • 出版社:中国铁道
      • ISBN:9787113323073
      • 出版日期:2025/08/01
      • 页数:230
    • 售价:20
  • 内容大纲

        本书是“‘十五五’普通高等教育人工智能专业系列教材”之一,系统性地讲解了深度学习与大规模预训练模型的核心理论与工程实践,内容涵盖机器学习基础、人工神经网络、卷积网络、循环网络、生成对抗网络、强化学习等经典架构,并深入探讨大模型的微调优化与部署应用。通过PyTorch框架,结合Windows环境下的GPU加速配置,详细解析从算法原理到工业落地的全流程。在理论层面,重点剖析网络结构设计、训练优化方法及模型压缩技术;在实践层面,提供10余个典型实战案例,包括图像分类、文本分析、大模型本地部署,以及API服务部署等工程化内容。本书适合高等院校计算机科学与技术、人工智能、软件工程、数据科学与大数据技术等专业的本科生与研究生使用,也适合相关行业工程师和自学者使用。
  • 作者介绍

  • 目录

    第1章  机器学习与人工智能基础
      1.1  机器学习与人工智能的基本概念
        1.1.1  机器学习概述
        1.1.2  人工智能的演进
        1.1.3  机器学习与人工智能的关系
      1.2  机器学习的分类
        1.2.1  监督学习
        1.2.2  无监督学习
        1.2.3  强化学习
      1.3  机器学习的常见算法
        1.3.1  线性回归与逻辑回归
        1.3.2  k近邻、决策树与随机森林
      1.4  机器学习的基本流程
      1.5  项目实践——实现线性回归模型
      本章小结
      思考与练习
    第2章  人工神经网络与深度学习基础
      2.1  神经网络的基本概念
        2.1.1  感知机与多层感知机
        2.1.2  神经元与激活函数
      2.2  前向传播与反向传播
        2.2.1  前向传播机制
        2.2.2  反向传播机制
      2.3  激活函数及其选择
        2.3.1  常见的激活函数
        2.3.2  激活函数的作用与选择策略
      2.4  深度学习与传统机器学习的对比
        2.4.1  特征工程与自动特征提取
        2.4.2  模型复杂度与训练需求对比
        2.4.3  处理不同类型数据的能力
      2.5  深度学习的应用场景
        2.5.1  图像识别与分类
        2.5.2  自然语言处理与文本生成
        2.5.3  强化学习与自动决策
      2.6  项目实践——实现简单的多层感知机
      本章小结
      思考与练习
    第3章  深度学习环境配置
      3.1  深度学习环境概述
        3.1.1  深度学习环境的基本要求
        3.1.2  常用深度学习框架
      3.2  安装CUDA与驱动程序
        3.2.1  CUDA的安装
        3.2.2  NVIDIA驱动与CUDA兼容性
        3.2.3  cuDNN的安装
      3.3  安装Anaconda与PyTorch
        3.3.1  Anaconda的下载与安装
        3.3.2  创建Python虚拟环境
        3.3.3  安装PyTorch与依赖包
      3.4  配置PyTorch的GPU加速

        3.4.1  检查CUDA支持情况
        3.4.2  启用GPU加速的配置
      3.5  测试与排错
        3.5.1  测试GPU的有效性
        3.5.2  常见安装问题与解决方法
        3.5.3  检查与升级驱动程序
      3.6  项目实践——搭建GPU加速的PyTorch环境并测试运行
      本章小结
      思考与练习
    第4章  卷积神经网络与计算机视觉
      4.1  卷积神经网络的基本概念
        4.1.1  卷积操作
        4.1.2  卷积核与特征提取
        4.1.3  池化层
        4.1.4  全连接层
      4.2  卷积神经网络在图像分类中的应用
        4.2.1  常用数据集
        4.2.2  图像分类的流程
        4.2.3  构建CNN分类模型
      4.3  迁移学习与预训练模型
        4.3.1  迁移学习的基本概念
        4.3.2  常用预训练模型
        4.3.3  微调与冻结层策略
        4.3.4  目标检测与YOLO模型
      4.4  卷积神经网络的优化
        4.4.1  数据增强技术
        4.4.2  正则化方法
        4.4.3  学习率调整与优化器选择
        4.4.4  YOLO模型的改进与优化
      4.5  项目实践——使用YOLO进行目标检测任务
      本章小结
      思考与练习
    第5章  循环神经网络与自然语言处理
      5.1  循环神经网络的原理
        5.1.1  时间序列数据与循环神经网络
        5.1.2  前向传播与反向传播过程
        5.1.3  RNN的局限性与梯度消失问题
      5.2  长短期记忆和门控循环单元
        5.2.1  LSTM的结构与记忆单元
        5.2.2  GRU的简化结构与应用
        5.2.3  LSTM与GRU的性能对比
      5.3  文本生成与情感分析
        5.3.1  基于RNN的文本生成流程
        5.3.2  情感分析任务的输入与预处理
        5.3.3  LSTM和GRU在情感分析中的应用
      5.4  词向量与嵌入层
        5.4.1  词向量概述
        5.4.2  嵌入层的作用与实现
        5.4.3  词向量训练与迁移学习
      5.5  序列到序列模型与机器翻译

        5.5.1  编码器-解码器结构
        5.5.2  注意力机制
        5.5.3  机器翻译任务的训练流程
      5.6  项目实践——构建LSTM模型进行文本情感分析
      本章小结
      思考与练习
    第6章  生成对抗网络与深度生成模型
      6.1  生成对抗网络
        6.1.1  GAN的基本结构
        6.1.2  生成器与判别器的关系
        6.1.3  GAN的训练挑战
      6.2  深度卷积生成对抗网络
        6.2.1  DCGAN架构概述
        6.2.2  实现DCGAN的关键技术
        6.2.3  DCGAN主要应用场景
      6.3  条件生成对抗网络
        6.3.1  CGAN结构概述
        6.3.2  条件输入与生成的关系
        6.3.3  CGAN在文本生成中的应用
      6.4  深度生成模型应用
        6.4.1  深度生成模型介绍
        6.4.2  常见深度生成模型对比
      6.5  项目实践——基于DCGAN生成手写数字图像
      本章小结
      思考与练习
    第7章  大模型概述
      7.1  Transformer模型的基本结构
        7.1.1  Transformer的组成
        7.1.2  自注意力机制
        7.1.3  多头注意力机制
      7.2  编码器-解码器结构与模型应用
        7.2.1  编码器的设计与输入处理
        7.2.2  解码器的生成与输出机制
        7.2.3  编码器-解码器在自然语言处理中的应用
      7.3  自监督学习与预训练任务
        7.3.1  自监督学习
        7.3.2  预训练任务的设计与目标
        7.3.3  自监督学习对模型性能的提升
      7.4  大模型的构建与参数规模的影响
        7.4.1  大规模参数模型的定义与特点
        7.4.2  参数规模对模型效果的影响
        7.4.3  计算资源需求与性能权衡
      7.5  常见大模型实例:BERT与GPT
        7.5.1  BERT的结构与双向预训练策略
        7.5.2  GPT的自回归生成机制
        7.5.3  BERT与GPT在任务中的对比与选择
      7.6  大模型的应用场景与优势分析
        7.6.1  自然语言处理、计算机视觉与跨模态任务
        7.6.2  大模型在实际业务中的应用
        7.6.3  大模型的局限与挑战

      7.7  项目实践——基于BERT进行文本分类
      本章小结
      思考与练习
    第8章  大模型微调
      8.1  大模型微调基础
        8.1.1  基本概念及意义
        8.1.2  核心应用流程
      8.2  大模型微调分类
        8.2.1  全参数微调
        8.2.2  参数高效微调
        8.2.3  提示微调与上下文学习
        8.2.4  大模型微调分类对比
        8.2.5  应用中的常见问题与解决方法
      8.3  微调实践案例
        8.3.1  文本处理微调案例
        8.3.2  图像处理微调案例
      8.4  项目实践——通过微调BERT模型进行文本分类
      本章小结
      思考与练习
    第9章  大模型的部署与应用
      9.1  大模型的部署
        9.1.1  大模型部署方式
        9.1.2  大模型的部署与开发
        9.1.3  在线推理与离线推理
        9.1.4  部署过程中的常见问题
      9.2  部署中的大模型调优方法
        9.2.1  部署中的量化与剪枝技术应用
        9.2.2  知识蒸馏在推理中的应用
        9.2.3  自动超参数调节与性能优化
      9.3  数据集构建方法
        9.3.1  数据收集与清洗
        9.3.2  数据标注与增强
        9.3.3  数据集切分策略
      9.4  ONNX与TensorRT优化
        9.4.1  ONNX格式及其转换流程
        9.4.2  TensorRT在推理中的优化作用
        9.4.3  ONNX与TensorRT结合的应用案例
      9.5  RAG与本地知识库部署
        9.5.1  RAG概述
        9.5.2  RAG的工作原理
        9.5.3  构建与维护本地知识库
        9.5.4  大模型与本地知识库结合的应用案例
      9.6  项目实践——将训练好的模型通过ONNX格式部署至Web服务
      本章小结
      思考与练习