欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 自然语言处理/人工智能新型教材系列
      • 作者:编者:袁彩霞//王小捷|总主编:苏森
      • 出版社:人民邮电
      • ISBN:9787115668974
      • 出版日期:2025/09/01
      • 页数:208
    • 售价:23.92
  • 内容大纲

        编者从自然语言处理的根本问题出发,依据自然语言处理基础理论和技术发展逻辑,以及自然语言处理对象的粒度变化,结合传统基础知识和最新前沿进展,编成本书,构筑了更为合理的自然语言处理知识体系。
        本书内容包括绪论、语言单元获取、词的表示、N-gram语言模型、神经网络语言模型、预训练语言模型、大语言模型、大语言模型评测、大语言模型上下文长度拓展、大语言模型知识增强、大语言模型智能体、融合视觉信息的自然语言处理等。
        本书可作为高校理工科专业自然语言处理相关课程的教材,也可供相关领域的科技人员学习使用,还可作为工程师进一步学习自然语言处理相关知识的参考书。
  • 作者介绍

  • 目录

    第1章  绪论
      1.1  什么是自然语言处理
      1.2  自然语言处理的知识体系
      1.3  自然语言处理的发展
      1.4  本书安排
      1.5  本章习题
    第2章  语言单元获取
      2.1  语料
      2.2  汉语切分
        2.2.1  汉语切分任务分析
        2.2.2  汉语切分技术
      2.3  子词切分
      2.4  本章小结
      2.5  本章习题
    第3章  词的表示
      3.1  基于形符的词表示
      3.2  基于共现的词表示
        3.2.1  共现矩阵
        3.2.2  GloVe模型
      3.3  基于预测的词表示
        3.3.1  C&W模型
        3.3.2  CBOW模型
        3.3.3  Skip-gram模型
        3.3.4  词嵌入模型优化
      3.4  词向量的评价与应用
        3.4.1  词向量的评价
        3.4.2  词向量的应用
      3.5  拓展阅读
      3.6  本章小结
      3.7  本章习题
    第4章  N-gram语言模型
      4.1  N元语法
      4.2  参数估计与平滑
        4.2.1  n的影响
        4.2.2  条件概率的估计
        4.2.3  回退技术
        4.2.4  平滑技术
      4.3  语言模型的评估
        4.3.1  N-gram模型存在的问题
        4.3.2  基于词聚类的语言模型
      4.4  本章小结
      4.5  本章习题
    第5章  神经网络语言模型
      5.1  前馈神经网络语言模型
        5.1.1  模型结构
        5.1.2  模型训练
        5.1.3  特别的考虑
      5.2  循环神经网络语言模型
        5.2.1  网络结构
        5.2.2  模型训练

        5.2.3  特别的考虑
      5.3  语言序列编解码
        5.3.1  序列到序列结构
        5.3.2  引入注意力机制
        5.3.3  其他的结构设计
      5.4  语言模型与动态词表示
      5.5  本章小结
      5.6  本章习题
    第6章  预训练语言模型
      6.1  注意力机制
        6.1.1  简单注意力
        6.1.2  多头注意力
        6.1.3  一般注意力模型
        6.1.4  多头自注意力模型
      6.2  Transformer模型
        6.2.1  输入表示
        6.2.2  编码器
        6.2.3  解码器
        6.2.4  模型输出及训练
      6.3  预训练语言模型
        6.3.1  GPT模型
        6.3.2  BERT模型
        6.3.3  T5模型
      6.4  预训练-微调范式
      6.5  拓展阅读
        6.5.1  ALBERT模型
        6.5.2  RoBERTa模型
        6.5.3  GLM模型
      6.6  本章小结
      6.7  本章习题
    第7章  大语言模型
      7.1  预训练
        7.1.1  模型结构
        7.1.2  预训练目标
        7.1.3  预训练数据
        7.1.4  预训练策略
      7.2  指令微调
        7.2.1  指令微调的概念
        7.2.2  指令数据集
        7.2.3  指令微调总结
      7.3  人类对齐
        7.3.1  微调预训练
        7.3.2  训练奖励模型
        7.3.3  PPO优化策略
      7.4  提示工程
        7.4.1  提示词的组成
        7.4.2  提示工程方法
        7.4.3  参数高效微调
      7.5  拓展阅读
        7.5.1  GPT系列大语言模型

        7.5.2  LLaMA系列大语言模型
      7.6  本章小结
      7.7  本章习题
    第8章  大语言模型评测
      8.1  评测的能力
      8.2  评测任务
        8.2.1  面向综合学科能力评测的任务
        8.2.2  面向理解能力评测的任务
        8.2.3  面向推理能力评测的任务
        8.2.4  面向安全能力评测的任务
        8.2.5  面向生成能力评测的任务
      8.3  评测数据集
        8.3.1  综合学科能力
        8.3.2  理解能力
        8.3.3  推理能力
        8.3.4  安全能力
        8.3.5  生成能力
        8.3.6  其他一些数据集
      8.4  评测指标和方法
      8.5  本章小结
      8.6  本章习题
    第9章  大语言模型上下文长度拓展
      9.1  基于注意力的上下文长度拓展方法
        9.1.1  段级循环注意力
        9.1.2  窗口注意力
        9.1.3  双块注意力
      9.2  基于位置编码的上下文长度拓展方法
        9.2.1  旋转式位置编码
        9.2.2  位置插值
        9.2.3  神经正切核感知插值
        9.2.4  YaRN
      9.3  本章小结
      9.4  本章习题
    第10章  大语言模型知识增强
      10.1  非结构化知识增强方法
        10.1.1  获取非结构化知识的检索技术
        10.1.2  利用非结构化知识的生成方法
      10.2  结构化知识增强方法
        10.2.1  数据库
        10.2.2  表格
        10.2.3  知识图谱
      10.3  评估
        10.3.1  评估任务
        10.3.2  数据集
        10.3.3  评价指标和工具
      10.4  本章小结
      10.5  本章习题
    第11章  大语言模型智能体
      11.1  大语言模型单智能体
        11.1.1  智能体的感知

        11.1.2  智能体的规划
        11.1.3  智能体的记忆
        11.1.4  智能体的动作
        11.1.5  智能体应用
      11.2  大语言模型多智能体
        11.2.1  大语言模型多智能体的应用
        11.2.2  大语言模型多智能体的通信
        11.2.3  大语言模型多智能体的人设
        11.2.4  大语言模型多智能体的能力增强
      11.3  本章小结
      11.4  本章习题
    第12章  融合视觉信息的自然语言处理
      12.1  视觉语言多模态任务
      12.2  多模态学习基础技术
        12.2.1  表示技术
        12.2.2  对齐技术
        12.2.3  融合技术
        12.2.4  转换技术
      12.3  视觉语言多模态预训练模型
        12.3.1  总体框架
        12.3.2  预训练数据集
        12.3.3  模型结构
        12.3.4  预训练任务
        12.3.5  下游任务
      12.4  多模态大语言模型
        12.4.1  动机
        12.4.2  总体框架
        12.4.3  训练数据集
        12.4.4  模型结构
        12.4.5  训练任务
        12.4.6  下游任务
      12.5  本章小结
      12.6  本章习题
    参考文献