欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • TensorFlow自然语言处理及应用/人工智能科学与技术丛书
      • 作者:编者:李炳银|责编:李锦
      • 出版社:清华大学
      • ISBN:9787302673743
      • 出版日期:2024/10/01
      • 页数:280
    • 售价:27.6
  • 内容大纲

        本书以TensorFlow为平台,讲述TensorFlow与自然语言的技术及开发。书中每章都以理论开始,以TensorFlow应用及自然语言分析结束,将理论与实践相结合,让读者可以快速掌握TensorFlow与自然语言分析。本书共9章,主要内容为TensorFlow与编程、自然语言处理与深度学习基础、神经网络算法基础、词嵌入、卷积神经网络分析与文本分类、几种经典的卷积神经网络、循环神经网络及语言模型、长短期记忆及自动生成文本、其他网络的经典分析与应用。
        本书注重应用,实例丰富,可作为高等院校人工智能相关专业的教材,也可作为研究TensorFlow与自然语言分析的广大科研人员、学者、工程技术人员的参考书籍。
  • 作者介绍

  • 目录

    第1章  TensorFlow与编程
      1.1  语言与系统的支持
      1.2  TensFlow的特点
      1.3  TensorFlow的环境搭建
        1.3.1  安装环境介绍
        1.3.2  安装TensorFlow
        1.3.3  安装测试
      1.4  张量
        1.4.1  张量的概念
        1.4.2  张量的使用
        1.4.3  NumPy库
        1.4.4  张量的阶
        1.4.5  张量的形状
      1.5  认识变量
        1.5.1  变量的创建
        1.5.2  变量的初始化
      1.6  矩阵的操作
        1.6.1  矩阵的生成
        1.6.2  矩阵的变换
      1.7  图的实现
      1.8  会话的实现
      1.9  读取数据方式
        1.9.1  列表格式
        1.9.2  读取图像数据
    第2章  自然语言处理与深度学习基础
      2.1  自然语言概述
        2.1.1  自然语言处理面临的困难
        2.1.2  自然语言处理的发展趋势
        2.1.3  自然语言处理的特点
      2.2  NLP技术前沿与未来趋势
        2.2.1  挑战与突破
        2.2.2  人机交互的未来
        2.2.3  未来发展趋势与展望
        2.2.4  技术挑战与解决路径
      2.3  深度学习
        2.3.1  深度学习背景
        2.3.2  深度学习的核心思想
        2.3.3  深度学习的应用
      2.4  深度学习的优势与劣势
    第3章  神经网络算法基础
      3.1  激活函数及实现
        3.1.1  激活函数的用途
        3.1.2  几种激活函数
        3.1.3  几种激活函数的绘图
      3.2  门函数及实现
      3.3  单个神经元的扩展及实现
      3.4  构建多层神经网络
    第4章  词嵌入
      4.1  词嵌入概述
      4.2  分布式表示

        4.2.1  分布式假设
        4.2.2  共现矩阵
        4.2.3  存在的问题
      4.3  jieba分词处理
        4.3.1  jieba库的三种模式和常用函数
        4.3.2  jieba库分词的其他操作
        4.3.3  中文词频统计实例
      4.4  离散表示
        4.4.1  one-hot编码
        4.4.2  词袋模型
        4.4.3  TF-IDF算法
        4.4.4  n-gram模型
      4.5  word2vec模型
        4.5.1  word2vec模型介绍
        4.5.2  word2vec模型结构
        4.5.3  Skip-gram算法
        4.5.4  CBOW算法
        4.5.5  CBOW算法与Skip-gram算法的对比
        4.5.6  算法改进
        4.5.7  训练概率
        4.5.8  word2vec实现
    第5章  卷积神经网络分析与文本分类
      5.1  全连接网络的局限性
      5.2  卷积神经网络的结构
        5.2.1  卷积层
        5.2.2  池化层
        5.2.3  全连接层
      5.3  卷积神经网络的训练
        5.3.1  池化层反向传播
        5.3.2  卷积层反向传播
      5.4  卷积神经网络的实现
        5.4.1  识别0和1数字
        5.4.2  预测MNIST数字
      5.5  NLP的卷积
        5.5.1  NLP卷积概述
        5.5.2  用于文本分类的CNN
    第6章  几种经典的卷积神经网络
      6.1  AlexNet
        6.1.1  AlexNet的结构
        6.1.2  AlexNet的亮点
        6.1.3  AlexNet的实现
      6.2  DeepID网络
      6.3  VGGNet
        6.3.1  VGGNet的特点
        6.3.2  VGGNet的结构
        6.3.3  VGGNet的实现
      6.4  Inception Net
        6.4.1  Inception Net的原理
        6.4.2  Inception Net的经典应用
      6.5  ResNet

        6.5.1  ResNet的结构
        6.5.2  ResNet的实现
    第7章  循环神经网络及语言模型
      7.1  循环神经网络概述
        7.1.1  循环神经网络的原理
        7.1.2  循环神经网络的简单应用
      7.2  损失函数
      7.3  梯度求解
        7.3.1  E3关于参数V的偏导数
        7.3.2  E3关于参数W的偏导数
        7.3.3  E3关于参数U的偏导数
        7.3.4  梯度消失问题
      7.4  循环神经网络的经典应用
        7.4.1  实现二进制数加法运算
        7.4.2  实现拟合回声信号序列
        7.4.3  基于字符级循环神经网络的语言模型
        7.4.4  使用PyTorch实现基于字符级循环神经网络的语言模型
    第8章  长短期记忆及自动生成文本
      8.1  长短期记忆网络
        8.1.1  LSTM核心思想
        8.1.2  LSTM详解与实现
      8.2  窥视孔连接
      8.3  GRU网络对MNIST数据集分类
      8.4  双向循环神经网络对MNIST数据集分类
      8.5  CTC实现端到端训练的语音识别模型
      8.6  LSTM生成文本预测
        8.6.1  模型训练
        8.6.2  预测文本
    第9章  其他网络的经典分析与应用
      9.1  自编码网络及实现
        9.1.1  自编码网络的结构
        9.1.2  自编码网络的代码实现
      9.2  栈式自编码器及实现
        9.2.1  栈式自编码概述
        9.2.2  栈式自编码训练
        9.2.3  栈式自编码实现MNIST手写数字分类
        9.2.4  栈式自编码器的应用场合与实现
      9.3  变分自编码及实现
        9.3.1  变分自编码原理
        9.3.2  变分自编码模拟生成MNIST数据
      9.4  条件变分自编码及实现
        9.4.1  条件变分自编码概述
        9.4.2  条件变分自编码网络生成MNIST数据
    参考文献