-
内容大纲
本书是一本系统介绍Transformer原理、源码、应用的技术书籍,全书分为Transformer架构及源码篇、ChatGPT技术:从基础应用到进阶实践篇。
Transformer架构及源码篇,从Transformer的基本原理入手,深入浅出进行讲解,可使读者能够深刻理解Transformer的工作原理和设计思想,包括Transformer架构的理论知识、实际案例以及Transformer架构在时序预测等领域的应用等。本篇特点是采用大量的图片和图表,通过图文并茂的方式让读者直观地了解Trans-former的原理和应用和Bayesian Transformer思想及数学原理完整论证、Transformer架构源码完整实现、Transformer语言模型架构、数学原理及内幕机制、GPT自回归语言模型架构、数学原理及内幕机制、BERT下的自编码语言模型架构、数学原理及内幕机制、BERT Pre - taining模型源码完整实现、BERT Fine - tuning背后的数学原理详解、使用BERT进行NER案例实战、使用BERT进行多任务Fine - Tuning解密、使用BERT对影评数据分析的数据处理、模型代码、线上部署等方面的内容,深入分析liansformer在自然语言处理中的应用。ChatGPT技术:从基础应用到进阶实践篇,则以ChatGPT技术为主线,介绍了GPT系列模型的发展历程和技术特点、ChatGPT技术的基本原理以及OpenAI API的基础应用实践等内容。
本书中既有理论讲述,又有案例应用指导,结构清晰,详略得当,既可作为机器学习、人工智能及大数据等从业人员学习用书,也可作为Transformer架构和源码剖析高手修炼的参考书,以及相关院校人工智能专业教材使用。 -
作者介绍
-
目录
第1篇 Transformer架构及源码篇
第1章 Bayesian Transformer思想及数学原理完整论证
1.1 贝叶斯数学原理
1.2 MLE和MAP数学推导
1.3 语言模型Language Model原理机制、数学推导及神经网络实现
1.4 图解 Transformer 精髓
1.5 Bayesian Transformer 和传统 Transformer 的主要区别
1.6 Bayesian Transformer在学术和工业领域的意义
1.7 贝叶斯Bayesian Transformer数学推导论证过程全生命周期详解及 底层神经网络物理机制剖析
第2章 Transformer架构源码完整实现
2.1 Transformer架构内部的等级化结构及其在NLP中的应用内幕
2.2 数学内幕、注意力机制代码实现及Transformer可视化
2.3 以对话机器人的流式架构为例阐述Transformer学习的第三境界
2.4 以智能对话机器人为例阐述Transformer的自编码autoencoding和 自回归autoregressive语言模型内幕机制
第3章 Transformer语言模型架构、数学原理及内幕机制
3.1 语言模型的链式法则、运行机制及其分类器特性
3.2 基于概率统计Statistical Language Models语言模型内部机制、数学 公式及完整的示例
3.3 基于神经网络Neural Language Models语言模型内部机制、数学公 式及完整的示例
3.4 使用困惑度及Cross Entropy来衡量语言模型质量的具体实现及数 学公式推导
3.5 Language Model底层的数学原理之最大似然估计MLE及最大后验 概率MAP内部机制与关系详解
3.6 语言模型底层的数学原理之Bayesian模型原理与实现
3.7 基于Transformer的AI时间序列动态预测方法
第4章 GPT自回归语言模型架构、数学原理及内幕机制
4.1 语言模型的运行机制、架构内部及数学实现回顾
4.2 GPT可视化、Masking等工作机制解析
4.3 GPT中的Decoder-Only模式内部运行机制解析
4.4 数据在GPT模型中的流动生命周期Input Encodings Self-Attention 及 Model Output 详解
4.5 GPT中的Masked多头注意力机制及全连接神经网络内部运行机制 解析
第5章 BERT下的自编码语言模型架构、数学原理及内幕机制
5.1 BERT下的自编码Autoencoding语言模型架构设计及实现内幕解析
5.2 以MLM及分类为例具体分析BERT强大的能够支持各种下游任务 的底层原因
5.3 BERT输入内容Word Embeddings三大步骤及其内幕工作流程详解
5.4 BERT位置编码Positional Encoding能够表达相对位置背后的数学 原因分析
5.5 BERT 的 Input Embeddings 三大组件解析
5.6 从Output结果向量和矩阵相乘的角度来解析BERT整个Encoder Stack的功能
5.7 BERT中的多头注意力机制及Position-wise Feedforward神经网络 解析
5.8 BERT中的Dropout、残差网络及Layer正则化数学原理剖析
5.9 BERT的预训练任务
5.10 BERT在NER及问答等应用场景原理剖析
第6章 BERT Pre-taining模型源码完整实现
6.1 BERT模型的Structure和MLM及NSP预训练任务回顾及最佳实践 分析
6.2 BERT 模型 Pre-Training 数据预处理、词典构建、Tbken Embeddings、 Segment Embeddings、Postion Embeddings 完整源码实现
6.3 BERT 模型 Pre-Training 多头注意力机制 Multi-head Attention 完 整源码实现
第8章 使用BERT进行NER案例实战
8.1 BERT命名实体识别NER案例实体餐饮领域项目源码实现
8.2 BERT命名实体识别NER案例实战之CRF和BERT的对比及NER 原理剖析
第9章 使用BERT进行多任务Fine-Tuning解密
9.1 BERT多任务数学原理、层次化网络内幕及高层CLS分类
9.2 BERT多任务微调共享知识空间结构内幕解密
9.3 BERT 多任务微调示例 Transformers+NLP
第10章 使用BERT对影评数据分析(数据处理、模型代码、线上部署)
10.1 影评案例数据处理
10.2 模型 model 源码
10.3 模型训练预测及部署
第2篇 ChatGPT技术:从基础应用到进阶实践篇
第11章 ChatGPT技术概述
11.1 GPT-l、GPT-2、GPT-3、GPT-3. 5、GPT4 的发展历程与技术 特点
11.2 ChatGPT技术的基本原理简介
11.3 ChatGPT项目案例实战
第12章 Open AI API基础应用实践
12.1 OpenAI API模型及接口概述
12.2 使用OpenAI API进行向量检索
12.3 使用OpenAI API进行文本生成
第13章 OpenAI API进阶应用实践
13.1 OpenAI API基于嵌入式向量检索实现问答系统
13.2 OpenAI API 使用 LangChain 构建工具
13.3 OpenAI API对特定领域模型进行微调
参考文献
同类热销排行榜
- C语言与程序设计教程(高等学校计算机类十二五规划教材)16
- 电机与拖动基础(教育部高等学校自动化专业教学指导分委员会规划工程应用型自动化专业系列教材)13.48
- 传感器与检测技术(第2版高职高专电子信息类系列教材)13.6
- ASP.NET项目开发实战(高职高专计算机项目任务驱动模式教材)15.2
- Access数据库实用教程(第2版十二五职业教育国家规划教材)14.72
- 信号与系统(第3版下普通高等教育九五国家级重点教材)15.08
- 电气控制与PLC(普通高等教育十二五电气信息类规划教材)17.2
- 数字电子技术基础(第2版)17.36
- VB程序设计及应用(第3版十二五职业教育国家规划教材)14.32
- Java Web从入门到精通(附光盘)/软件开发视频大讲堂27.92
推荐书目
-

孩子你慢慢来/人生三书 华人世界率性犀利的一枝笔,龙应台独家授权《孩子你慢慢来》20周年经典新版。她的《...
-

时间简史(插图版) 相对论、黑洞、弯曲空间……这些词给我们的感觉是艰深、晦涩、难以理解而且与我们的...
-

本质(精) 改革开放40年,恰如一部四部曲的年代大戏。技术突变、产品迭代、产业升级、资本对接...
[
