欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 自然语言处理(文本信息抽取与知识挖掘)
      • 作者:卢勇//潘秀琴|责编:安妮//李燕
      • 出版社:清华大学
      • ISBN:9787302673781
      • 出版日期:2024/09/01
      • 页数:151
    • 售价:19.6
  • 内容大纲

        本书在全面介绍文本信息抽取技术在古籍文本处理方面应用的基础上,着重介绍文本信息抽取与知识挖掘的基本概念、原理和方法,包括文本预处理、特征提取、命名实体识别、信息抽取、语义分析、知识表示等关键技术。
        全书共3部分:第1部分(第1、2章)着重介绍古籍文本信息抽取的相关背景知识;第2部分(第3~8章)着重讨论命名实体识别、关系抽取和事件抽取的具体方法,同时介绍对应的实验应用及结果分析;第3部分(第9章)基于对当前实体抽取领域研究现状的分析与总结,展望未来。同时,全书也提供了大量应用实例。
        本书适合作为高等院校计算机、软件工程及相关专业本科生、研究生的参考书,也可供对自然语言处理比较熟悉并且对信息抽取有所了解的开发人员、广大科技工作者和研究人员学习使用。
  • 作者介绍

  • 目录

    第1章  绪论
      1.1  研究背景与意义
        1.1.1  古籍文本信息抽取的重要性
        1.1.2  古籍文本信息抽取的应用领域
        1.1.3  古籍文本信息抽取的目的
      1.2  信息抽取与知识挖掘的基本概念
        1.2.1  NER
        1.2.2  RE
        1.2.3  EE
      1.3  NER技术
        1.3.1  基于规则方法的NER技术
        1.3.2  基于统计模型的NER技术
        1.3.3  基于深度学习方法的NER技术
    第2章  古籍文本信息抽取概述与基础理论
      2.1  古籍文本信息抽取的挑战与难点
        2.1.1  信息抽取
        2.1.2  古籍文本中的信息抽取
      2.2  古籍文本信息抽取的任务
      2.3  古籍文本信息抽取相关技术
        2.3.1  词汇语义表示
        2.3.2  CRF模型
        2.3.3  CNN信息抽取模型
        2.3.4  RNN信息抽取
        2.3.5  图卷积信息抽取模型
        2.3.6  迁移学习信息抽取模型
      2.4  古籍文本信息抽取的应用领域
        2.4.1  古籍数字化
        2.4.2  古籍文本分析
        2.4.3  文化遗产保护
        2.4.4  古籍知识图谱构建
    第3章  基于Transformer模型的NER
      3.1  引言
      3.2  问题引入
      3.3  基于分层Transformer模型的NER
        3.3.1  引言
        3.3.2  实现原理与步骤
        3.3.3  基本结构与训练方法
        3.3.4  示例
        3.3.5  实验分析
      3.4  基于BERT-CRF的NER
        3.4.1  引言
        3.4.2  问题引入
        3.4.3  相关工作
        3.4.4  模型结构
        3.4.5  实验结果
      3.5  基于迁移学习的细粒度BERT的NER
        3.5.1  引言
        3.5.2  问题引入
        3.5.3  实验过程
        3.5.4  实验结果

    第4章  基于提示学习的NER
      4.1  引言
      4.2  问题引入
      4.3  基于模板的提示学习NER
        4.3.1  引言
        4.3.2  相关工作
        4.3.3  使用BART基于模板的NER
        4.3.4  实验结果
      4.4  融合注意力层的提示学习NER
        4.4.1  引言
        4.4.2  低资源NER实验过程
        4.4.3  实验结果
      4.5  基于问答的提示学习NER
        4.5.1  引言
        4.5.2  相关工作
        4.5.3  方法
        4.5.4  实验结果
    第5章  基于远程监督的RE
      5.1  引言
      5.2  问题引入
      5.3  基于对抗学习的远程监督RE
        5.3.1  引言
        5.3.2  相关工作
        5.3.3  方法
        5.3.4  实验设置
      5.4  基于深度强化学习的远程监督RE
        5.4.1  引言
        5.4.2  相关工作
        5.4.3  实验过程
      5.5  基于句子级别注意力机制的远程监督RE
        5.5.1  引言
        5.5.2  相关工作
        5.5.3  方法
        5.5.4  实验结果
        5.5.5  比较
      5.6  基于实体级别注意力机制的远程监督RE
        5.6.1  引言
        5.6.2  相关工作
        5.6.3  融入多实例学习的基于分段CNN的RE
        5.6.4  实验结果
      5.7  基于图卷积的远程监督RE
        5.7.1  引言
        5.7.2  相关工作
        5.7.3  利用辅助信息进行远程监督神经RE
        5.7.4  实验结果
    第6章  基于迁移学习的实体RE
      6.1  引言
      6.2  问题引入
      6.3  基于样本迁移的实体RE
        6.3.1  引言

        6.3.2  问题引入
        6.3.3  实验分析
        6.3.4  实验结果
      6.4  基于特征迁移的实体RE
        6.4.1  引言
        6.4.2  相关工作
        6.4.3  学习深度简约表示
        6.4.4  基于聚类的正则化方法应用于实体RE
      6.5  基于关系迁移的实体RE
        6.5.1  基于关系迁移的实体RE的概念
        6.5.2  基于关系迁移的实体RE的步骤
        6.5.3  基于关系迁移的实体RE的模型结构
        6.5.4  基于关系迁移的实体RE的相关工作
        6.5.5  实验分析
    第7章  联合模型的EE
      7.1  引言
      7.2  问题引入
      7.3  级联解码联合学习的EE方法
        7.3.1  引言
        7.3.2  问题引入
        7.3.3  模型介绍
        7.3.4  实验过程
      7.4  共享隐藏表示方式的EE方法
        7.4.1  引言
        7.4.2  问题引入
        7.4.3  模型
        7.4.4  模型实验表现
      7.5  基于转换的神经网络的EE方法
        7.5.1  引言
        7.5.2  转换系统介绍
        7.5.3  基于转换的神经网络模型介绍
        7.5.4  实验结果
    第8章  篇章级的EE
      8.1  引言
      8.2  问题引入
      8.3  中心语引导的篇章级EE
        8.3.1  引言
        8.3.2  相关工作
        8.3.3  方法
        8.3.4  实验结果
        8.3.5  比较
      8.4  跨句论元抽取的篇章级EE
        8.4.1  引言
        8.4.2  相关工作
        8.4.3  角色填充实体提取任务和评估指标
        8.4.4  将REE作为序列生成任务
        8.4.5  GRIT模型
        8.4.6  实验设置及结果
      8.5  多粒度阅读的篇章级EE
        8.5.1  引言

        8.5.2  相关工作
        8.5.3  实验方法
        8.5.4  实验结果
    第9章  总结与展望
      9.1  总结
      9.2  展望
        9.2.1  NER技术未来发展展望
        9.2.2  RE技术未来发展展望
        9.2.3  EE技术未来发展展望
    参考文献