婵犵數濮烽弫鍛婃叏閻戣棄鏋侀柛娑橈攻閸欏繘鏌i幋锝嗩棄闁哄绶氶弻鐔兼⒒鐎靛壊妲紒鎯у⒔缁垳鎹㈠☉銏犵闁绘垵妫涢崝顖氣攽閻愭潙鐏﹂柣鐕傜畵瀹曟洟鎮㈤崗鑲╁帾婵犵數鍋涢悘婵嬪礉濮樿埖鐓熼幖鎼枛瀵喗鎱ㄦ繝鍐┿仢鐎规洘顨婇幊鏍煘閸喕娌梻鍌欑閹碱偊骞婅箛鏇炲灊鐎光偓閸曨剙浠奸梺缁樺灱濡嫰鎷戦悢鍏肩厪濠㈣埖绋撻悾閬嶆煃瑜滈崜娑㈠极婵犳艾钃熼柕濞垮劗閺€浠嬫煕閳╁啩绶遍柍褜鍓氶〃濠囧蓟閿涘嫧鍋撻敐搴′簽闁靛棙甯炵槐鎺撴綇閵娿儲璇為梺绯曟杹閸嬫挸顪冮妶鍡楃瑨閻庢凹鍓涙竟鏇㈠礂閸忕厧寮垮┑鈽嗗灠閻忔繃绂嶈ぐ鎺撶厱闁绘劕鐏氶弳顒勬煛瀹€瀣М闁诡喒鏅犻幃婊兾熺化鏇炰壕闁告劦鍠楅崑锝夋煃瑜滈崜鐔煎极閸愵喖鐒垫い鎺嗗亾鐎规挸瀚板娲川婵犲嫧妲堥柡瀣典簻闇夋繝濠傚閻帡鏌$仦璇插鐎殿喗娼欒灃闁逞屽墯缁傚秵銈i崘鈺佲偓鍨箾閸繄浠㈤柡瀣☉椤儻顦查梺甯秮閻涱噣骞嬮敃鈧~鍛存煟濮楀棗浜濋柡鍌楀亾闂備浇顕ч崙鐣岀礊閸℃ḿ顩查悹鐑樏紓姘攽閻樺弶澶勯柍閿嬪灩缁辨挻鎷呴崗澶嬶紙濡炪倕绻愮€氱兘宕甸弴銏″仯闁惧繗顫夌壕顏堟煙閻戞﹩娈旂紒鐘崇洴閺岋絽螖閳ь剟鎮ч崘顔肩婵炲樊浜濋埛鎺楁煕鐏炵偓鐨戝褎绋撶槐鎺斺偓锝庡亜濞搭喗顨ラ悙瀵稿⒌妤犵偛娲、姗€鎮╁▓鍨櫗闂佽娴烽幊鎾寸珶婵犲洤绐楅柡宥庡幘瀹撲線鏌″搴″箺闁绘挾鍠栭弻銊モ攽閸℃ê娅e┑陇灏欑划顖炲Φ閸曨垼鏁冮柨婵嗘川閻eジ姊洪崷顓熷殌閻庢矮鍗抽獮鏍亹閹烘挸浠梺鍝勵槼濞夋洟顢欓崶顒佲拻闁稿本鑹鹃埀顒勵棑濞嗐垹顫濈捄铏瑰姦濡炪倖甯掗崐鍛婄濠婂牊鐓犳繛鑼额嚙閻忥繝鏌¢崨鏉跨厫閻庝絻鍋愰埀顒佺⊕宀e潡宕㈤悙顑跨箚闁靛牆绻掗悾铏箾婢跺绀堥柤娲憾瀹曠ǹ螖娴e搫甯鹃梻浣规偠閸庮垶宕濈仦鐐弿鐎广儱妫▓浠嬫煟閹邦厽缍戞繛鎼枟椤ㄣ儵鎮欏顔煎壎闂佽鍠楃划鎾崇暦閸楃儐娼ㄩ柛鈩冿公缁辨瑩姊婚崒姘偓鎼佸磹閹间礁纾瑰瀣捣閻棗銆掑锝呬壕濡ょ姷鍋為悧鐘汇€侀弴姘辩Т闂佹悶鍎洪崜锕傚极瀹ュ鐓熼柟閭﹀幗缂嶆垿鏌嶈閸撴繈宕洪弽顐e床婵犻潧顑嗛ˉ鍫熺箾閹寸偠澹樻い锝呮惈椤啴濡堕崘銊ュ閻庡厜鍋撻柟闂寸閽冪喐绻涢幋鏃€鍣伴柍褜鍓ㄧ粻鎾荤嵁鐎n亖鏀介柛銉㈡櫃缁喖鈹戦悩娈挎毌闁告挻绻嗛妵鎰板礃椤旇棄浜遍梺瑙勫礃椤曆囨嫅閻斿吋鐓ラ柣鏂挎惈瀛濈紓浣插亾闁告劦鍠楅悡鍐煕濠靛棗顏╅柍褜鍓氶幃鍌氼嚕閸愬弬鏃堝川椤旇瀚煎┑鐐存綑閸氬鎮疯缁棃顢楅埀顒勬箒濠电姴锕ゆ鍛婃櫠閻楀牅绻嗛柛娆忣槸婵秵顨ラ悙鏉戠瑨閾绘牠鏌嶈閸撴岸宕曢锔界厽闁绘柨鎽滈惌濠囨⒑鐢喚鍒版い鏇秮楠炲酣鎸婃径灞藉箰闂備礁鎲¢崝锔界閻愮儤鏅繝濠傜墛閻撴稑顭跨捄鐚村姛濠⒀勫灴閺屾盯寮捄銊愌囨寠閻斿吋鐓曟い鎰Т閸旀粓鏌i幘瀵糕槈闂囧鏌ㄥ┑鍡欏⒈婵炲吋鍔楅埀顒冾潐濞叉牠鎯岄崒鐐茶摕闁斥晛鍟刊鎾偡濞嗗繐顏╃痪鐐▕濮婄儤娼幍顔煎闂佸湱鎳撳ú顓烆嚕椤愶箑绠荤紓浣股戝▍銏ゆ⒑鐠恒劌娅愰柟鍑ゆ嫹 [闂傚倸鍊搁崐鎼佸磹閹间礁纾归柟闂寸绾惧湱鈧懓瀚崳纾嬨亹閹烘垹鍊炲銈嗗笂缁€渚€宕滈鐑嗘富闁靛牆妫楁慨褏绱掗悩鍐茬伌闁绘侗鍣f慨鈧柕鍫濇閸樻捇鏌℃径灞戒沪濠㈢懓妫濆畷婵嗩吋閸℃劒绨婚梺鍝勫€搁悘婵嬵敂椤愩倗纾奸弶鍫涘妽瀹曞瞼鈧娲樼敮鎺楋綖濠靛鏁勯柦妯侯槷婢规洟姊洪崨濠勭細闁稿孩濞婇幆灞解枎閹惧鍘遍梺鍝勬储閸斿矂鎮橀悩鐢电<闁绘瑢鍋撻柛銊ョ埣瀵濡搁埡鍌氫簽闂佺ǹ鏈粙鎴︻敂閿燂拷 | 闂傚倸鍊搁崐鎼佸磹閹间礁纾归柟闂寸绾惧綊鏌i幋锝呅撻柛銈呭閺屻倝宕妷锔芥瘎婵炲濮靛銊ф閹捐纾兼繛鍡樺笒閸橈紕绱撴笟鍥ф珮闁搞劏娉涢悾宄扳攽閸狀喗妫冨畷姗€濡搁妷褌鍠婇梻鍌欑閹碱偊宕锔藉亱濠电姴娲ょ壕鐟扳攽閻樺磭顣查柣鎾卞灪娣囧﹪顢涘▎鎺濆妳濠碘€冲级閹倿寮婚敐鍡樺劅妞ゆ梻鍘х猾宥呪攽椤旂》榫氭繛鍜冪悼閸掓帒鈻庨幘宕囶唶闁瑰吋鐣崹铏光偓姘▕濮婄粯鎷呴搹骞库偓濠囨煛閸涱喚娲寸€规洦鍨跺鍫曞箣椤撶偞顓块梻浣哥秺濡法绮堟笟鈧畷姗€鍩€椤掆偓椤啴濡堕崱妯烘殫闂佸摜濮甸幑鍥х暦閵忋値鏁傞柛娑卞灣閻﹀牓姊哄Ч鍥х伈婵炰匠鍕浄婵犲﹤鐗婇悡鐔肩叓閸ャ劍鈷掔紒鐘靛仧閳ь剝顫夊ú妯兼崲閸岀儑缍栨繝闈涱儐閸ゅ鏌i姀銈嗘锭妤犵偞鍔欏缁樻媴閸涢潧缍婂鐢割敆閸曗斁鍋撻崘顔煎窛妞ゆ梻铏庡ú鎼佹⒑鐠恒劌娅愰柟鍑ゆ嫹]

    • 自然语言理解(高等学校计算机专业系列教材)
      • 作者:编者:赵海|责编:龙启铭//战晓雷
      • 出版社:清华大学
      • ISBN:9787302627784
      • 出版日期:2023/07/01
      • 页数:368
    • 售价:27.6
  • 内容大纲

        本书系统介绍自然语言处理(即自然语言理解)的经典和前沿技术内容,包括学科发展的简要背景、基础的建模方法和典型的语言处理任务。本书围绕语言模型展开并贯穿其中,包括n元语言模型、连续空间语言模型(词嵌入)以及前沿的预训练语言模型。
        现代自然语言处理建立在机器学习的基础之上。无论针对传统机器学习还是针对现代深度学习,本书统一以结构化学习的脉络展开,统一阐述典型的语言处理任务的普遍性机器学习建模方式,包括词切分、序列标注以及树结构解析。同时,本书以一种统一的观点梳理机器学习和深度学习方法的要点,服务于自然语言处理任务的建模方法。最后,本书综述了经典和前沿的语言处理任务:句法分析、语义分析、阅读理解和大语言模型。以阅读理解为代表的自然语言理解任务赋予传统的学科自然语言理解新的内涵。
        本书适合作为高等学校相关专业高年级本科生和研究生的自然语言理解相关课程的教材,也可供自然语言理解研究人员阅读参考。
  • 作者介绍

  • 目录

    第1章  自然语言处理概要
      1.1  自然语言处理的概念和术语
        1.1.1  自然语言
        1.1.2  自然语言处理与自然语言理解
        1.1.3  计算语言学
      1.2  自然语言处理的技术性挑战
      1.3  机器翻译
      1.4  语言处理层次
      1.5  应用型自然语言处理:人机对话系统
      1.6  自然语言处理的学术出版体系
      参考文献
    第2章  n元语言模型
      2.1  概率论基础
      2.2  语言模型用于语言生成
      2.3  n元语言模型的工作方式及马尔可夫假设
        2.3.1  n元机制
        2.3.2  马尔可夫假设
      2.4  评价指标:困惑度
      2.5  n元语言模型的平滑方法
        2.5.1  Laplace平滑(加一平滑)
        2.5.2  Good-Turing平滑
        2.5.3  Jelinek-Mercer平滑
        2.5.4  Katz平滑
        2.5.5  Kneser-Ney平滑
        2.5.6  Pitman-Yor语言模型
      2.6  非n元机制的平滑方法
        2.6.1  缓存
        2.6.2  跳词
        2.6.3  聚类
      2.7  平滑方法的经验结果
      2.8  n元语言模型的建模工具
      参考文献
    第3章  语言编码表示
      3.1  独热表示
      3.2  特征函数
      3.3  通用特征模板
      3.4  加权的独热表示:TF-IDF
      参考文献
    第4章  非监督的结构化学习
      4.1  自然语言处理的方法构成
      4.2  简单任务:词/子词切分
      4.3  切分算法
        4.3.1  通用切分框架
        4.3.2  全局优度最大化:Viterbi解码算法
        4.3.3  局部优度最大化:贪心解码算法
      4.4  优度度量
        4.4.1  频率
        4.4.2  邻接多样性
        4.4.3  分支熵
        4.4.4  描述长度增益

        4.4.5  点互信息
        4.4.6  学生t测试
      4.5  非监督分词
        4.5.1  数据集和评估指标
        4.5.2  词典预处理技巧
        4.5.3  性能
      4.6  推广的字节对编码切分算法
      参考文献
    第5章  结构化学习
      5.1  机器学习的粒度和语言单元
      5.2  结构化学习的必要性
      5.3  自然语言处理中的结构化学习任务
      5.4  退化为分类任务
      5.5  结构分解
      5.6  共时结构分解:图模型
      5.7  历时结构分解:转移模型
      5.8  两类结构化分解方式的优劣
      5.9  结构化学习的简化情形
      参考文献
    第6章  结构上的标注任务
      6.1  从结构标注到序列标注
      6.2  局部马尔可夫模型
      6.3  全局马尔可夫模型和条件随机场
        6.3.1  全局马尔可夫模型
        6.3.2  马尔可夫随机场
        6.3.3  条件随机场
      6.4  隐马尔可夫模型
        6.4.1  从马尔可夫链到隐马尔可夫模型
        6.4.2  隐马尔可夫模型的基本计算任务:概率估计
        6.4.3  隐马尔可夫模型的训练:参数估计
        6.4.4  隐马尔可夫模型的解码:Viterbi算法
      6.5  自然语言处理中的结构标注任务
        6.5.1  再标注的序列标注任务
        6.5.2  词性标注任务的隐马尔可夫模型实现示例
        6.5.3  推广的分词建模:不等单元的结构分解
      参考文献
    第7章  机器学习模型
      7.1  机器学习模型的要素配置
      7.2  损失函数
      7.3  k近邻方法
      7.4  感知机
      7.5  铰链损失与支持向量机
        7.5.1  最大化间隔
        7.5.2  惩罚项导出的软边界
        7.5.3  映射到高维空间
        7.5.4  核函数
        7.5.5  支持向量机的训练算法
        7.5.6  多类支持向量机
        7.5.7  支持向量机工具包
        7.5.8  支持向量机总结

      7.6  交叉熵损失与最大熵模型
        7.6.1  最大似然估计:对数-线性模型
        7.6.2  最大熵原理
        7.6.3  平滑
        7.6.4  最大熵模型的工具包
      7.7  从神经元学习到神经网络
      参考文献
    第8章  深度学习模型
      8.1  表示学习
      8.2  连续空间语言模型:词嵌入或词向量
        8.2.1  连续空间语言模型
        8.2.2  连续空间语言模型的机器学习解释
        8.2.3  Word2Vec和GloVe词嵌入
        8.2.4  评估词向量
      8.3  神经网络的结构配置
        8.3.1  神经网络的拓扑连接方式
        3.3.2  激活函数
      8.4  深度学习模型的训练
        8.4.1  训练目标:输出表示和损失函数
        8.4.2  误差反向传播算法
        8.4.3  深度学习的训练管理器
      8.5  编码器-解码器建模
      8.6  编码器架构:循环神经网络
        8.6.1  循环神经网络的BPTT训练算法
        8.6.2  长短时记忆网络
      8.7  编码器架构:卷积神经网络
        8.7.1  卷积
        8.7.2  池化
        8.7.3  卷积神经网络的结构
      8.8  编码器架构:Transformer
        8.8.1  自注意力机制
        8.8.2  Transformer网络结构
      8.9  编码器比较:RNN、CNN和Transformer
      8.10  序列生成的解码过程
      8.11  符号主义对阵联结主义
      8.12  深度学习工具包
      参考文献
    第9章  预训练语言模型
      9.1  从表示学习到自监督学习
      9.2  从n元语言模型到预训练语言模型
      9.3  输入单元管理
      9.4  预训练语言模型的自回归解释
      9.5  以编辑操作定义自监督学习
      9.6  采样与预测目标的单元选择
      9.7  编码器架构
      9.8  预训练语言模型方法的普适化
      9.9  预训练语言模型的强化策略
        9.9.1  知识增强
        9.9.2  多模态预训练语言模型
        9.9.3  模型优化

      9.10  典型的预训练语言模型
      参考文献
    第10章  句法分析
      10.1  句法分析概要
      10.2  成分/短语句法分析
        10.2.1  乔姆斯基文法层次体系
        10.2.2  上下文无关文法
        10.2.3  概率上下文无关文法
      10.3  依存句法
        10.3.1  带中心词标注的成分句法
        10.3.2  依存结构
        10.3.3  成分/短语结构到依存结构的转换
      10.4  句法标注语料:树库
      10.5  成分/短语句法分析算法
        10.5.1  CYK算法
        10.5.2  Earley算法
      10.6  依存句法分析算法
        10.6.1  基于图模型的依存句法分析
        10.6.2  基于转换模型的依存句法分析
        10.6.3  非投影型依存分析
      10.7  句法分析的深度学习方法改进
      10.8  依存分析的序列到序列建模
      10.9  从容易优先分析到全局贪心分析
      10.10  句法分析的经验结果
      参考文献
    第11章  语义角色标注
      11.1  从语义分析到语义角色标注
      11.2  句法分析树上的语义图
      11.3  语义角色标注的规范和语料
      11.4  语义角色标注的建模方式
      11.5  句法特征集成:传统机器学习模型
      11.6  句法编码器:深度学习模型
      11.7  句法裁剪
      11.8  统一建模成分和依存语义角色标注
      11.9  语义角色标注中的句法角色变迁
      11.10  语义角色标注的经验结果
      参考文献
    第12章  机器阅读理解
      12.1  机器阅读理解任务的类型和评价指标
      12.2  机器阅读理解的深度学习建模
        12.2.1  编码器
        12.2.2  解码器
      12.3  对话理解
      12.4  面向推理的阅读理解
      12.5  常识问答
      12.6  开放域问答
      参考文献
    第13章  大语言模型及其前沿应用
      13.1  脑计划与预训练语言模型
      13.2  从预训练语言模型到大语言模型

      13.3  从提示学习到思维链推理
      13.4  对话式大语言模型ChatGPT
      13.5  知识边界
      参考文献
    后记