欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 大模型产品化手册(工程化方法与实践)
      • 作者:(美)克里斯托弗·布鲁索//马特·夏普|责编:王军|译者:殷海英
      • 出版社:清华大学
      • ISBN:9787302710530
      • 出版日期:2026/04/01
      • 页数:389
    • 售价:47.2
  • 内容大纲

        大多数商业软件通常采用迭代开发的方式,部署后还可以进行显著的改进和调整。与此不同,大语言模型(LLM)开发成本高、修改难度大,因此需要在前期进行精心的规划、严格的数据标准控制及精准的技术实现。将LLM集成到实际产品中,会影响运营的方方面面,包括应用生命周期、数据处理流程、计算成本、安全性等。如果操作不当,可能导致高昂的失败成本。
        《大模型产品化手册:工程化方法与实践》将介绍如何制订一个LLMOps计划,帮助你将AI应用从设计顺利过渡到交付。你将学习如何准备LLM数据集,掌握高效的训练技巧,如LoRA(低秩适应)和RLHF(基于人类反馈的强化学习),以及如何通过行业基准来评估模型性能。在学习过程中,你还将通过三个有趣的项目,实践所学的技能:创建并训练定制的大语言模型,开发一个VSCodeAI编码插件,以及将小型模型部署到树莓派上。
        主要内容:
        平衡成本与性能;
        再训练与负载测试;
        针对普通硬件优化模型;
        在Kubernetes集群上部署。
        本书适合掌握Python和云部署基础知识的数据科学家和机器学习工程师阅读。
  • 作者介绍

  • 目录

    第1章  语言的觉醒:为何大语言模型引起了广泛关注
      1.1  大语言模型加速信息传递
      1.2  大语言模型应用中的自建与采购决策权衡
        1.2.1  采购:成熟的路径选择
        1.2.2  构建:不走寻常路
        1.2.3  重要提示:即刻拥抱未来
      1.3  破除迷思
      1.4  本章小结
    第2章  大语言模型技术内幕:语言建模深度解析
      2.1  语言建模
        2.1.1  语言特征
        2.1.2  符号学
        2.1.3  多语言自然语言处理
      2.2  语言建模技术
        2.2.1  N-gram与基于语料库的技术
        2.2.2  贝叶斯技术
        2.2.3  马尔可夫链
        2.2.4  连续语言建模
        2.2.5  词向量技术(Embedding)
        2.2.6  多层感知机
        2.2.7  循环神经网络和长短时记忆网络
        2.2.8  注意力机制
      2.3  注意力机制即一切
        2.3.1  编码器
        2.3.2  解码器
        2.3.3  Transformer
      2.4  超大规模变换器
      2.5  本章小结
    第3章  大语言模型运维:构建LLM平台
      3.1  大语言模型运维简介
      3.2  大语言模型的运维挑战
        3.2.1  漫长的下载时间
        3.2.2  更长的部署时间
        3.2.3  延迟
        3.2.4  管理GPU
        3.2.5  文本数据的特殊性
        3.2.6  token限制引发瓶颈
        3.2.7  幻觉导致混淆
        3.2.8  偏见与伦理考量
        3.2.9  安全问题
        3.2.10  控制成本
      3.3  LLMOps要点
        3.3.1  压缩
        3.3.2  分布式计算
      3.4  运行大语言模型的基础设施
        3.4.1  数据基础设施
        3.4.2  实验跟踪器
        3.4.3  模型注册表
        3.4.4  特征存储
        3.4.5  向量数据库

        3.4.6  监控系统
        3.4.7  支持GPU的工作站
        3.4.8  部署服务
      3.5  本章小结
    第4章  大语言模型数据工程:构建成功的基石
      4.1  模型是基础
        4.1.1  GPT
        4.1.2  BLOOM
        4.1.3  LLaMA
        4.1.4  Wizard
        4.1.5  Falcon
        4.1.6  Vicuna
        4.1.7  Dolly
        4.1.8  OpenChat
      4.2  大语言模型的评估
        4.2.1  文本评估指标
        4.2.2  行业基准
        4.2.3  负责任的AI基准测试
        4.2.4  开发自定义基准测试
        4.2.5  评估代码生成器
        4.2.6  评估模型参数
      4.3  大语言模型的数据
        4.3.1  你应该了解的数据集
        4.3.2  数据清理与准备
      4.4  文本处理器
        4.4.1  分词化
        4.4.2  嵌入
      4.5  准备一个Slack数据集
      4.6  本章小结
    第5章  训练大语言模型:如何生成生成器
      5.1  多GPU训练环境
        5.1.1  设置
        5.1.2  库
      5.2  基础的训练技术
        5.2.1  从零开始
        5.2.2  迁移学习(微调)
        5.2.3  提示工程(Prompting)
      5.3  高级训练技术
        5.3.1  提示调优
        5.3.2  使用知识蒸馏进行微调
        5.3.3  基于人类反馈的强化学习
        5.3.4  专家混合模型
        5.3.5  LoRA与PEFT
      5.4  训练技巧与窍门
        5.4.1  训练数据规模的注意事项
        5.4.2  高效训练
        5.4.3  局部极小值陷阱
        5.4.4  超参数调优技巧
        5.4.5  关于操作系统的说明
        5.4.6  激活函数的建议

      5.5  本章小结
    第6章  LLM服务:实用指南
      6.1  构建LLM服务
        6.1.1  模型编译
        6.1.2  大语言模型的存储策略
        6.1.3  自适应请求批处理
        6.1.4  流量控制
        6.1.5  流式响应
        6.1.6  特征存储
        6.1.7  检索增强生成
        6.1.8  LLM服务库
      6.2  设置基础设施
        6.2.1  集群配置
        6.2.2  自动扩展
        6.2.3  滚动更新
        6.2.4  推理图
        6.2.5  监控
      6.3  生产环境中的挑战
        6.3.1  模型更新与重新训练
        6.3.2  负载测试
        6.3.3  排查高延迟问题
        6.3.4  资源管理
        6.3.5  成本工程
        6.3.6  安全性
      6.4  边缘部署
      6.5  本章小结
    第7章  提示工程:成为LLM的“专家”
      7.1  提示你的模型
        7.1.1  少样本提示
        7.1.2  单样本提示
        7.1.3  零样本提示
      7.2  提示工程的基础
        7.2.1  提示的结构
        7.2.2  提示超参数之外
        7.2.3  挖掘训练数据
      7.3  提示工程工具
        7.3.1  LangChain
        7.3.2  Guidance
        7.3.3  DSPy
        7.3.4  其他工具虽可用,但……
      7.4  高级提示工程技术
        7.4.1  为大语言模型提供工具
        7.4.2  ReAct
      7.5  本章小结
    第8章  大语言模型运维:构建LLM平台
      8.1  构建应用程序
        8.1.1  前端流式传输
        8.1.2  保持历史记录
        8.1.3  与聊天机器人交互的功能
        8.1.4  token计数

        8.1.5  检索增强生成(RAG)的应用
      8.2  边缘应用
      8.3  大语言模型代理
      8.4  本章小结
    第9章  创建一个大语言模型项目:重新实现LLama 3
      9.1  实现Meta的LLama模型
        9.1.1  分词化与配置
        9.1.2  数据集、数据加载、评估与生成
        9.1.3  网络架构
      9.2  简化的LLama模型
      9.3  让它变得更好
        9.3.1  量化
        9.3.2  LoRA
        9.3.3  完全分片数据并行——量化LoRA
      9.4  部署到Hugging Face Hub Space
      9.5  本章小结
    第10章  创建编程助手项目:这个项目可以助你事半功倍
      10.1  我们的模型
      10.2  数据为王
        10.2.1  我们的向量数据库
        10.2.2  我们的数据集
        10.2.3  使用RAG
      10.3  构建VS Code扩展
      10.4  经验总结与下一步行动
      10.5  本章小结
    第11章  在树莓派上部署大语言模型:性能极限挑战
      11.1  设置你的树莓派
        11.1.1  Pi Imager
        11.1.2  连接到Pi
        11.1.3  软件安装与更新
      11.2  模型准备
      11.3  模型服务
      11.4  改进措施
        11.4.1  使用更好的界面
        11.4.2  调整量化方式
        11.4.3  增加多模态能力
        11.4.4  在Google Colab上部署模型
      11.5  本章小结
    第12章  生产环境,瞬息万变:一切才刚刚开始
      12.1  概览
      12.2  大语言模型的未来
        12.2.1  政府与监管
        12.2.2  大语言模型正变得更大
        12.2.3  多模态空间
        12.2.4  数据集
        12.2.5  解决幻觉问题
        12.2.6  新硬件
        12.2.7  智能体将变得有用
      12.3  最终思考
      12.4  本章小结

    附录A  语言学的历史
    附录B  基于人类反馈的强化学习
    附录C  多模态潜在空间