欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 揭秘大模型(从原理到实战)
      • 作者:文亮//江维|责编:刘雅思
      • 出版社:人民邮电
      • ISBN:9787115653352
      • 出版日期:2025/01/01
      • 页数:256
    • 售价:31.92
  • 内容大纲

        本书从技术角度深度解析大模型的原理,从大模型的基础概念及领域发展现状入手,概述大模型的理论基础,介绍OpenAI GPT、清华大学GLM、Meta Llama等主流大模型的技术原理,并从大模型参数高效微调、大模型指令微调、大模型训练优化和大模型推理优化等多角度解析大模型背后的技术,带领读者全方位掌握大模型的原理和实践方法。本书最后介绍私有大模型的构建,手把手指导读者做技术选型并搭建自己的私有大模型。
        本书适合人工智能领域有大模型开发需求或对大模型技术感兴趣的技术人员阅读,也适合普通用户扩展了解大模型的前沿应用。
  • 作者介绍

  • 目录

    第1章  大模型简介
      1.1  大模型初探
        1.1.1  OpenAl大模型ChatGPT
        1.1.2  国内大模型——360智脑
      1.2  大模型的概念
      1.3  百花齐放——大模型发展现状
      1.4  压缩即智能——为什么ChatGPT拥有智能
        1.4.1  直观理解通用人工智能
        1.4.2  如何实现无损压缩
        1.4.3  GPT是对数据的无损压缩
      1.5  小结
      1.6  参考文献
    第2章  大模型理论基础
      2.1  什么是语言模型
      2.2  传统语言模型
        2.2.1  循环神经网络(RNN)
        2.2.2  长短期记忆(LSTM)网络
        2.2.3  门控循环单元(GRU)
      2.3  大模型基础结构——Transformer
        2.3.1  Transformer的模型结构
        2.3.2  Transformer输入表示
        2.3.3  多头注意力
        2.3.4  编码器结构
        2.3.5  解码器结构
        2.3.6  Softmax输出
      2.4  Transformer应用实践——机器翻译
        2.4.1  葡萄牙文翻译为英文
        2.4.2  英文翻译为中文
      2.5  小结
      2.6  参考文献
    第3章  OpenAI GPT系列大模型
      3.1  GPT发展历史——从GPT-1到GPT-4
      ……
    第4章  清华大学通用预训练模型——GLM
    第5章  Meta开源大模型——Llama
    第6章  大模型参数高效微调
    第7章  大模型指令微调
    第8章  大模型训练优化
    第9章  大模型推理优化
    第10章  AIGC和大模型结合
    第11章  大模型和系统结合
    第12章  构建私有大模型