濠电姷鏁告慨鐑藉极閸涘﹥鍙忛柣鎴f閺嬩線鏌熼梻瀵割槮缁惧墽绮换娑㈠箣閻戝棛鍔┑鐐村灦閻燂箓宕曢悢鍏肩厪濠电偛鐏濋崝姘舵煟鎼搭喖寮慨濠冩そ瀹曟鎳栭埞鍨沪闂備礁鎼幊蹇曞垝瀹€鍕仼闁绘垼妫勯拑鐔兼煏婢舵稓鐣遍柍褜鍓涢弫濠氬蓟閵娿儮鏀介柛鈩冧緱閳ь剚顨婇弻锛勨偓锝庡亞閵嗘帞绱掓潏銊ユ诞闁糕斁鍋撳銈嗗笒鐎氼剛澹曢崗鍏煎弿婵☆垰鐏濇禍褰掓煕閻愬灚鏆柡宀嬬秮閹晠鎮滃Ο绯曞亾閸愵喗鍋i柍褜鍓熼弫鍐焵椤掆偓瀹撳嫰姊洪崨濠勨槈閺嬵亜霉濠婂嫮鐭掗柡灞诲姂瀵潙螖閳ь剚绂嶆ィ鍐╁€垫繛鍫濈仢閺嬫稑顭胯闁帮綁鐛幋锕€顫呴柣姗嗗亝閺傗偓闂佽鍑界紞鍡樼鐠烘í缂氬┑鐘叉处閳锋垹绱撴担鍏夋(妞ゅ繐瀚烽崵鏇㈡偣閾忚纾柟鐑橆殔缁犳盯鏌eΔ鈧悧鍐箯濞差亝鈷掗柛灞炬皑婢ф稓绱掔€n偄娴鐐寸墵楠炲洭顢橀悩娈垮晭闁诲海鎳撴竟濠囧窗閺嶎厾宓侀柡宥庡幗閻撶喖鏌ㄥ┑鍡樺櫣婵¤尙绮妵鍕敃閿濆洨鐣奸梺鍦嚀鐎氫即骞栬ぐ鎺撳仭闁哄娉曢鍥⒒閸屾艾鈧娆㈠璺虹劦妞ゆ帒鍊告禒婊堟煠濞茶鐏¢柡鍛板煐鐎佃偐鈧稒岣块崢鐐繆閵堝繒鐣虫繛澶嬫礈閼洪亶宕稿Δ浣哄帾闂佹悶鍎崝灞炬叏瀹ュ棭娈介柣鎰綑濞搭喗顨ラ悙宸剶闁诡喗绮撳畷鍗烆潨閸℃﹫绱欓梻鍌氬€搁崐鎼佸磹妞嬪海鐭嗗〒姘e亾妤犵偞鐗犻、鏇氱秴闁搞儺鍓﹂弫宥夋煟閹邦厽缍戦柍褜鍓濋崺鏍崲濠靛顥堟繛鎴炶壘椤e搫顪冮妶鍐ㄥ姕鐎光偓閹间礁钃熸繛鎴旀噰閳ь剨绠撻獮瀣攽閸モ晙绨┑鐘殿暯閸撴繆銇愰崘顔藉亱闁规崘顕ч拑鐔兼煥閻斿搫孝缂佲偓閸愵喗鐓冮柛婵嗗閳ь剚鎮傚鍐参旈崨顔规嫼婵炴潙鍚嬮悷褏绮旈鈧湁婵犲﹤楠告晶鐗堜繆閸欏濮嶆鐐村笒铻栭柍褜鍓氶崕顐︽煟閻斿摜鐭婇梺甯到椤曪綁骞庨挊澶屽幐闂佸憡鍔︽禍鐐烘晬濠婂牊鐓涘璺猴功婢ф垿鏌涢弬璺ㄐч挊鐔兼煕椤愮姴鍔滈柣鎾寸☉闇夐柨婵嗙墱濞兼劗鈧娲栭惌鍌炲蓟閳╁啯濯撮悷娆忓绾炬娊姊烘潪鎵妽闁圭懓娲顐﹀箻缂佹ɑ娅㈤梺璺ㄥ櫐閹凤拷 [闂傚倸鍊搁崐鎼佸磹閹间礁纾圭€瑰嫭鍣磋ぐ鎺戠倞妞ゆ帊绀侀崜顓烆渻閵堝棗濮х紒鐘冲灴閻涱噣濮€閵堝棛鍘撻柡澶屽仦婢瑰棝宕濆鍡愪簻闁哄倸鐏濋顐ょ磼鏉堛劍宕岀€规洘甯掗~婵嬵敄閽樺澹曢梺鍛婄缚閸庢娊鎯屽▎鎾寸厱闁哄洢鍔岄悘鐘电磼閻欌偓閸ㄥ爼寮婚妸鈺傚亞闁稿本绋戦锟� | 闂傚倸鍊搁崐鎼佸磹閹间礁纾归柣鎴eГ閸ゅ嫰鏌ら崫銉︽毄濞寸姵姘ㄧ槐鎾诲磼濞嗘帒鍘$紓渚囧櫘閸ㄨ泛鐣峰┑鍠棃宕橀妸銉т喊闂備礁鎼崯顐︽偋婵犲洤纾瑰┑鐘崇閻撱垺淇婇娆掝劅婵″弶鎮傞弻锝嗘償椤旂厧绫嶅┑顔硷龚濞咃絿鍒掑▎鎾崇閹兼番鍨虹€氭娊姊绘担铏广€婇柡鍛洴瀹曨垶寮堕幋顓炴闂佸綊妫跨粈渚€宕橀埀顒€顪冮妶鍡樺暗闁哥姵鎹囧畷銏ゎ敂閸涱垳鐦堥梺姹囧灲濞佳勭濠婂牊鐓熼煫鍥ㄦ⒒缁犵偟鈧娲樼换鍌烇綖濠靛鍤嬮柣銏ゆ涧楠炴劙姊绘担鍛靛綊寮甸鍕┾偓鍐川椤旂虎娲搁梺璺ㄥ櫐閹凤拷]

    • 自然语言理解(高等学校计算机专业系列教材)
      • 作者:编者:赵海|责编:龙启铭//战晓雷
      • 出版社:清华大学
      • ISBN:9787302627784
      • 出版日期:2023/07/01
      • 页数:368
    • 售价:27.6
  • 内容大纲

        本书系统介绍自然语言处理(即自然语言理解)的经典和前沿技术内容,包括学科发展的简要背景、基础的建模方法和典型的语言处理任务。本书围绕语言模型展开并贯穿其中,包括n元语言模型、连续空间语言模型(词嵌入)以及前沿的预训练语言模型。
        现代自然语言处理建立在机器学习的基础之上。无论针对传统机器学习还是针对现代深度学习,本书统一以结构化学习的脉络展开,统一阐述典型的语言处理任务的普遍性机器学习建模方式,包括词切分、序列标注以及树结构解析。同时,本书以一种统一的观点梳理机器学习和深度学习方法的要点,服务于自然语言处理任务的建模方法。最后,本书综述了经典和前沿的语言处理任务:句法分析、语义分析、阅读理解和大语言模型。以阅读理解为代表的自然语言理解任务赋予传统的学科自然语言理解新的内涵。
        本书适合作为高等学校相关专业高年级本科生和研究生的自然语言理解相关课程的教材,也可供自然语言理解研究人员阅读参考。
  • 作者介绍

  • 目录

    第1章  自然语言处理概要
      1.1  自然语言处理的概念和术语
        1.1.1  自然语言
        1.1.2  自然语言处理与自然语言理解
        1.1.3  计算语言学
      1.2  自然语言处理的技术性挑战
      1.3  机器翻译
      1.4  语言处理层次
      1.5  应用型自然语言处理:人机对话系统
      1.6  自然语言处理的学术出版体系
      参考文献
    第2章  n元语言模型
      2.1  概率论基础
      2.2  语言模型用于语言生成
      2.3  n元语言模型的工作方式及马尔可夫假设
        2.3.1  n元机制
        2.3.2  马尔可夫假设
      2.4  评价指标:困惑度
      2.5  n元语言模型的平滑方法
        2.5.1  Laplace平滑(加一平滑)
        2.5.2  Good-Turing平滑
        2.5.3  Jelinek-Mercer平滑
        2.5.4  Katz平滑
        2.5.5  Kneser-Ney平滑
        2.5.6  Pitman-Yor语言模型
      2.6  非n元机制的平滑方法
        2.6.1  缓存
        2.6.2  跳词
        2.6.3  聚类
      2.7  平滑方法的经验结果
      2.8  n元语言模型的建模工具
      参考文献
    第3章  语言编码表示
      3.1  独热表示
      3.2  特征函数
      3.3  通用特征模板
      3.4  加权的独热表示:TF-IDF
      参考文献
    第4章  非监督的结构化学习
      4.1  自然语言处理的方法构成
      4.2  简单任务:词/子词切分
      4.3  切分算法
        4.3.1  通用切分框架
        4.3.2  全局优度最大化:Viterbi解码算法
        4.3.3  局部优度最大化:贪心解码算法
      4.4  优度度量
        4.4.1  频率
        4.4.2  邻接多样性
        4.4.3  分支熵
        4.4.4  描述长度增益

        4.4.5  点互信息
        4.4.6  学生t测试
      4.5  非监督分词
        4.5.1  数据集和评估指标
        4.5.2  词典预处理技巧
        4.5.3  性能
      4.6  推广的字节对编码切分算法
      参考文献
    第5章  结构化学习
      5.1  机器学习的粒度和语言单元
      5.2  结构化学习的必要性
      5.3  自然语言处理中的结构化学习任务
      5.4  退化为分类任务
      5.5  结构分解
      5.6  共时结构分解:图模型
      5.7  历时结构分解:转移模型
      5.8  两类结构化分解方式的优劣
      5.9  结构化学习的简化情形
      参考文献
    第6章  结构上的标注任务
      6.1  从结构标注到序列标注
      6.2  局部马尔可夫模型
      6.3  全局马尔可夫模型和条件随机场
        6.3.1  全局马尔可夫模型
        6.3.2  马尔可夫随机场
        6.3.3  条件随机场
      6.4  隐马尔可夫模型
        6.4.1  从马尔可夫链到隐马尔可夫模型
        6.4.2  隐马尔可夫模型的基本计算任务:概率估计
        6.4.3  隐马尔可夫模型的训练:参数估计
        6.4.4  隐马尔可夫模型的解码:Viterbi算法
      6.5  自然语言处理中的结构标注任务
        6.5.1  再标注的序列标注任务
        6.5.2  词性标注任务的隐马尔可夫模型实现示例
        6.5.3  推广的分词建模:不等单元的结构分解
      参考文献
    第7章  机器学习模型
      7.1  机器学习模型的要素配置
      7.2  损失函数
      7.3  k近邻方法
      7.4  感知机
      7.5  铰链损失与支持向量机
        7.5.1  最大化间隔
        7.5.2  惩罚项导出的软边界
        7.5.3  映射到高维空间
        7.5.4  核函数
        7.5.5  支持向量机的训练算法
        7.5.6  多类支持向量机
        7.5.7  支持向量机工具包
        7.5.8  支持向量机总结

      7.6  交叉熵损失与最大熵模型
        7.6.1  最大似然估计:对数-线性模型
        7.6.2  最大熵原理
        7.6.3  平滑
        7.6.4  最大熵模型的工具包
      7.7  从神经元学习到神经网络
      参考文献
    第8章  深度学习模型
      8.1  表示学习
      8.2  连续空间语言模型:词嵌入或词向量
        8.2.1  连续空间语言模型
        8.2.2  连续空间语言模型的机器学习解释
        8.2.3  Word2Vec和GloVe词嵌入
        8.2.4  评估词向量
      8.3  神经网络的结构配置
        8.3.1  神经网络的拓扑连接方式
        3.3.2  激活函数
      8.4  深度学习模型的训练
        8.4.1  训练目标:输出表示和损失函数
        8.4.2  误差反向传播算法
        8.4.3  深度学习的训练管理器
      8.5  编码器-解码器建模
      8.6  编码器架构:循环神经网络
        8.6.1  循环神经网络的BPTT训练算法
        8.6.2  长短时记忆网络
      8.7  编码器架构:卷积神经网络
        8.7.1  卷积
        8.7.2  池化
        8.7.3  卷积神经网络的结构
      8.8  编码器架构:Transformer
        8.8.1  自注意力机制
        8.8.2  Transformer网络结构
      8.9  编码器比较:RNN、CNN和Transformer
      8.10  序列生成的解码过程
      8.11  符号主义对阵联结主义
      8.12  深度学习工具包
      参考文献
    第9章  预训练语言模型
      9.1  从表示学习到自监督学习
      9.2  从n元语言模型到预训练语言模型
      9.3  输入单元管理
      9.4  预训练语言模型的自回归解释
      9.5  以编辑操作定义自监督学习
      9.6  采样与预测目标的单元选择
      9.7  编码器架构
      9.8  预训练语言模型方法的普适化
      9.9  预训练语言模型的强化策略
        9.9.1  知识增强
        9.9.2  多模态预训练语言模型
        9.9.3  模型优化

      9.10  典型的预训练语言模型
      参考文献
    第10章  句法分析
      10.1  句法分析概要
      10.2  成分/短语句法分析
        10.2.1  乔姆斯基文法层次体系
        10.2.2  上下文无关文法
        10.2.3  概率上下文无关文法
      10.3  依存句法
        10.3.1  带中心词标注的成分句法
        10.3.2  依存结构
        10.3.3  成分/短语结构到依存结构的转换
      10.4  句法标注语料:树库
      10.5  成分/短语句法分析算法
        10.5.1  CYK算法
        10.5.2  Earley算法
      10.6  依存句法分析算法
        10.6.1  基于图模型的依存句法分析
        10.6.2  基于转换模型的依存句法分析
        10.6.3  非投影型依存分析
      10.7  句法分析的深度学习方法改进
      10.8  依存分析的序列到序列建模
      10.9  从容易优先分析到全局贪心分析
      10.10  句法分析的经验结果
      参考文献
    第11章  语义角色标注
      11.1  从语义分析到语义角色标注
      11.2  句法分析树上的语义图
      11.3  语义角色标注的规范和语料
      11.4  语义角色标注的建模方式
      11.5  句法特征集成:传统机器学习模型
      11.6  句法编码器:深度学习模型
      11.7  句法裁剪
      11.8  统一建模成分和依存语义角色标注
      11.9  语义角色标注中的句法角色变迁
      11.10  语义角色标注的经验结果
      参考文献
    第12章  机器阅读理解
      12.1  机器阅读理解任务的类型和评价指标
      12.2  机器阅读理解的深度学习建模
        12.2.1  编码器
        12.2.2  解码器
      12.3  对话理解
      12.4  面向推理的阅读理解
      12.5  常识问答
      12.6  开放域问答
      参考文献
    第13章  大语言模型及其前沿应用
      13.1  脑计划与预训练语言模型
      13.2  从预训练语言模型到大语言模型

      13.3  从提示学习到思维链推理
      13.4  对话式大语言模型ChatGPT
      13.5  知识边界
      参考文献
    后记