欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 动手构建大模型
      • 作者:(加)路易斯-弗朗索瓦·布沙尔//(英)路易·彼得斯|责编:武少波|译者:孟二利//鲁骁//刘春晓//王斌
      • 出版社:人民邮电
      • ISBN:9787115668967
      • 出版日期:2025/11/01
      • 页数:330
    • 售价:43.92
  • 内容大纲

        本书采用创新且实用的教学策略,巧妙融合理论基础与实践应用,深入剖析自然语言处理(Natural Language Processing,NLP)领域的新进展,以及大语言模型(Large Language Model,LLM)的原理。书中不仅系统阐述了LLM的理论基础,还通过实际项目案例展示了如何将这些模型应用于构建RAG系统。本书遵循由浅入深的路径,从LLM的基础知识入手,详细阐释了模型的训练流程,并深入探讨了如何利用提示技术与模型进行高效交互。书中还重点介绍了两个在业界得到广泛认可的框架——LlamaIndex和LangChain,它们是开发RAG应用的强大工具。书中的项目案例不仅为读者提供了宝贵的实践经验,也能够加深读者对相关概念的理解和应用。此外,书中进一步探讨了包括智能体和微调在内的高级技术,这些技术能够显著提升问答系统的性能。
        本书既适合无人工智能或NLP背景的读者入门学习,也可作为人工智能等专业本科生、研究生、博士后研究人员、讲师及行业从业者的进阶参考。
  • 作者介绍

  • 目录

    第1章  LLM简介
      1.1  语言模型简史
      1.2  什么是LLM
      1.3  LLM的组成
        1.3.1  Transformer
        1.3.2  语言建模
        1.3.3  分词
        1.3.4  嵌入
        1.3.5  训练/微调
        1.3.6  预测
        1.3.7  上下文窗口
        1.3.8  规模法则
        1.3.9  提示词
        1.3.10  LLM中的涌现能力及测试基准
        1.3.11  LLM简史
        1.3.12  项目:使用LLM(GPT-3.5API)进行翻译
        1.3.13  项目:通过小样本学习来控制LLM的输出
      1.4  本章小结
    第2章  LLM架构和概况
      2.1  理解Transformer
        2.1.1  论文“Attention Is All You Need”
        2.1.2  架构实战
      2.2  Transformer架构的设计选择
        2.2.1  编码器-解码器架构
        2.2.2  仅编码器架构
        2.2.3  仅解码器架构
        2.2.4  Transformer架构的优化技术
      2.3  生成式预训练Transformer(GPT)架构
        2.3.1  掩码自注意力
        2.3.2  GPT的训练过程
        2.3.3  MinGPT
      2.4  LMM简介
        2.4.1  常见架构和训练目标
        2.4.2  开源版本的Flamingo
        2.4.3  指令微调的LMM
        2.4.4  探索LLaVA——一个指令微调的LMM
        2.4.5  超越视觉和语言
      2.5  专有模型vs.开放模型vs.开源模型
        2.5.1  Cohere LLM
        2.5.2  OpenAI的GPT-3.5turbo、GPT-4o和GPT-4o mini
      ……
    第3章  LLM实践
    第4章  提示技术简介
    第5章  RAG
    第6章  LangChain和Llamalndex简介
    第7章  使用LangChain进行提示
    第8章  索引、检索与数据预处理
    第9章  高级RAG
    第10章  智能体
    第11章  微调

    第12章  部署与优化