欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 会话式AI(自然语言处理与人机交互)/智能系统与技术丛书
      • 作者:杜振东//涂铭|责编:韩蕊
      • 出版社:机械工业
      • ISBN:9787111664192
      • 出版日期:2020/09/01
      • 页数:273
    • 售价:31.6
  • 内容大纲

        这是一部讲解如何基于NLP技术和人机交互技术实现聊天机器人的著作。
        两位作者聊天机器人领域均有多年大型项目的实战经验,这本书不仅讲解了NLP和人机交互的核心技术,而且从技术、算法、实战3个维度讲解聊天机器人的原理、实现与工程实践。
        本书有3个特点:
        前瞻性强,专注于NLP和人机交互的前沿技术,以及会话式AI技术在热门场景中的工程实践。
        实战性强,每章都提供实战代码,大部分代码简单修改后便可在实际场景中使用;数据集并非简单构造,而是具有真实性。
        对比性强,结合应用场景,对比不同技术的优劣,既能指导读者进行技术选型,又能加深读者对不同技术的理解。
        本书一共12章,分为三大部分:
        第一部分  基础篇(第1-2章)
        首先系统介绍了人机交互技术和聊天机器人技术的必备基础,然后讲解了深度学习工具的使用以及NLP开发环境的搭建
        第二部分  算法篇(第3-8章)
        这部分是核心内容,主要讲解中文自然语言处理的各种算法,包括分词技术、数据预处理、词向量技术、序列标注与中文NER、文本深度学习、循环神经网络等。
        第三部分  实战篇(第9-12章)
        主要讲解了语言模型与对话生成、知识图谱问答、自然语言推理、实体语义理解这4种人机交互方面的高阶技术,涵盖信息抽取、槽位填充、语义理解、聊天机器人、问答系统、多轮对话技术等知识点。
  • 作者介绍

  • 目录

    前言
    第1章  人机交互导论
      1.1  图灵测试
        1.1.1  图灵测试相关背景
        1.1.2  图灵测试的定义
        1.1.3  图灵测试引发的思考
      1.2  专家系统
        1.2.1  专家系统的定义
        1.2.2  专家系统的框架
        1.2.3  专家系统的发展
      1.3  人机交互
        1.3.1  人机交互简介
        1.3.2  人机交互模块的发展
        1.3.3  自然语言理解
        1.3.4  对话管理
        1.3.5  自然语言生成
      1.4  机器人形态
        1.4.1  聊天机器人
        1.4.2  任务型机器人
        1.4.3  面向FAQ的问答机器人
        1.4.4  面向KB的问答机器人
      1.5  本章小结
    第2章  人机对话前置技术
      2.1  深度学习框架
        2.1.1  Theano
        2.1.2  TensorFlow
        2.1.3  Keras
        2.1.4  PyTorch
      2.2  搭建NLP开发环境
        2.2.1  下载和安装Anaconda
        2.2.2  conda的使用
        2.2.3  中文分词工具——Jieba
        2.2.4  PyTorch的下载与安装
        2.2.5  Jupyter Notebook远程访问
      2.3  TorchText的安装与介绍
      2.4  本章小结
    第3章  中文分词技术
      3.1  分词的概念和分类
      3.2  规则分词
        3.2.1  正向最大匹配
        3.2.2  逆向最大匹配
        3.2.3  双向最大匹配
      3.3  统计分词
      3.4  混合分词
      3.5  Jieba分词
      3.6  准确率评测
        3.6.1  混淆矩阵
        3.6.2  中文分词中的P、R、F1计算
      3.7  本章小结
    第4章  数据预处理

      4.1  数据集介绍
      4.2  数据预处理
      4.3  TorchText预处理
        4.3.1  torchtext.data
        4.3.2  torchtext.datasets
        4.3.3  构建词表
        4.3.4  构建迭代器
      4.4  本章小结
    第5章  词向量实战
      5.1  词向量的由来
        5.1.1  one-hot模型
        5.1.2  神经网络词向量模型
      5.2  word2vec
        5.2.1  初探word2vec
        5.2.2  深入CBOW模型
        5.2.3  Skip-gram模型介绍
        5.2.4  word2vec模型本质
      5.3  glove
        5.3.1  初探glove
        5.3.2  glove模型原理
      5.4  word2vec实战
        5.4.1  预处理模块
        5.4.2  模型框架
        5.4.3  模型训练
        5.4.4  模型评估
      5.5  glove实战
        5.5.1  预处理模块
        5.5.2  模型框架
        5.5.3  模型训练
        5.5.4  模型评估
      5.6  本章小结
    第6章  序列标注与中文NER实战
      6.1  序列标注任务
        6.1.1  任务定义及标签体系
        6.1.2  任务特点及对比
        6.1.3  任务应用场景
      6.2  序列标注的技术方案
        6.2.1  隐马尔可夫模型
        6.2.2  条件随机场
        6.2.3  循环神经网络
        6.2.4  Bert
      6.3  序列标注实战
        6.3.1  中文NER数据集
        6.3.2  数据预处理
        6.3.3  模型训练框架
        6.3.4  模型评估
      6.4  BiLSTM
        6.4.1  参数介绍
        6.4.2  BiLSTM模型框架
        6.4.3  模型效果评估

      6.5  BiLSTM-CRF
        6.5.1  参数介绍
        6.5.2  BiLSTM-CRF模型框架
        6.5.3  模型评价
      6.6  本章小结
    第7章  文本分类技术
      7.1  TFIDF与朴素贝叶斯
        7.1.1  TFIDF
        7.1.2  朴素贝叶斯
        7.1.3  实战案例之新闻分类
      7.2  TextCNN
        7.2.1  TextCNN网络结构解析
        7.2.2  实战案例之新闻分类
      7.3  FastText
        7.3.1  模型架构
        7.3.2  层次softmax
        7.3.3  n-gram子词特征
        7.3.4  安装与实例解析
      7.4  后台运行
      7.5  本章小结
    第8章  循环神经网络
      8.1  RNN
        8.1.1  序列数据
        8.1.2  神经网络需要记忆
        8.1.3  RNN基本概念
        8.1.4  RNN的输入输出类型
        8.1.5  双向循环神经网络
        8.1.6  深层循环神经网络
        8.1.7  RNN的问题
        8.1.8  RNN PyTorch实现
      8.2  LSTM
        8.2.1  LSTM网络结构解析
        8.2.2  LSTM PyTorch实现
      8.3  GRU
        8.3.1  GRU网络结构解析
        8.3.2  GRU PyTorch实现
      8.4  TextRNN
        8.4.1  基本概念
        8.4.2  实战案例之新闻分类
      8.5  TextRCNN
        8.5.1  基本概念
        8.5.2  实战案例之新闻分类
      8.6  实战案例之诗歌生成
        8.6.1  数据预处理
        8.6.2  模型结构
        8.6.3  模型训练
        8.6.4  诗歌生成
      8.7  本章小结
    第9章  语言模型与对话生成
      9.1  自然语言生成介绍

      9.2  序列生成模型
        9.2.1  seq2seq的基本框架
        9.2.2  Encoder-Decoder框架的缺点
      9.3  经典的seq2seq框架
        9.3.1  基于RNN的seq2seq
        9.3.2  基于CNN的seq2seq
      9.4  Attention机制
        9.4.1  序列模型RNN
        9.4.2  Attention机制的原理
        9.4.3  Self-Attention模型
        9.4.4  Transfomer模型介绍
      9.5  Bert——自然语言处理的新范式
        9.5.1  Bert结构
        9.5.2  预训练任务
      9.6  聊天机器人实战
    ……
    第10章  知识图谱问答
    第11章  自然语言推理
    第12章  实体语义理解