欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 大模型驱动的软件测试(从理论到实践)
      • 作者:(英)马克·温特林厄姆|责编:卜一凡|译者:茹炳晟//王海鹏//方佳璐
      • 出版社:人民邮电
      • ISBN:9787115674296
      • 出版日期:2025/08/01
      • 页数:240
    • 售价:31.92
  • 内容大纲

        大模型(LLM)的爆炸式增长显著降低了AI的应用门槛,推动了LLM在软件开发领域的广泛应用,也为软件测试带来了变革与挑战。本书旨在帮助软件测试工程师用LLM提升测试能力,围绕LLM的思维模式、技术和上下文3个核心要素展开。第1部分介绍LLM在测试中的作用及价值,探讨其内部机制与提示词工程概念,分析AI、自动化和测试的关系;第2部分展示测试活动与LLM辅助工具结合的方法,如提升代码质量、增强测试计划能力、创建测试数据、应用于探索性测试等;第3部分阐述上下文对LLM的重要性,介绍添加上下文的技术,如构建RAG框架、微调模型等。
        本书适合掌握一定自动化测试基本概念,具备探索性测试基本经验以及数据管理和相关数据结构中级知识,对YAML格式化和命令行工具有基本了解的质量保证工程师和软件测试工程师,以及希望进一步了解LLM如何帮助生成代码和测试自动化的开发人员阅读。
  • 作者介绍

        马克·温特林厄姆(Mark Winteringham)是一名质量工程师、课程总监,也是Testing Web APIs一书的作者。他是基于风险的现代测试实践、基于整体的自动化策略、行为驱动开发和探索性测试技术的倡导者。
  • 目录

    第1部分  思维模式:与LLM建立积极的关系
      第1章  利用大模型来辅助测试
        1.1  认识AI工具对测试和开发的影响
          1.1.1  数据生成
          1.1.2  自动化测试构建
          1.1.3  测试设计
        1.2  利用LLM创造价值
          1.2.1  交付价值的模式
          1.2.2  结合人类和AI的能力
          1.2.3  对LLM保持怀疑态度
        小结
      第2章  大模型和提示词工程
        2.1  LLM解释
        2.2  降低使用LLM的风险
          2.2.1  幻觉
          2.2.2  数据来源
          2.2.3  数据隐私
        2.3  利用提示词工程改善结果
        2.4  检验提示词工程的原则
          2.4.1  原则1:撰写清晰而具体的提示词
          2.4.2  策略1:使用分隔符
          2.4.3  策略2:要求结构化输出
          2.4.4  策略3:检查假设
          2.4.5  策略4:少样本提示词
          2.4.6  原则2:给模型“思考”的时间
          2.4.7  策略1:明确完成任务的步骤
          2.4.8  策略2:引导模型先找出自己的解决方案
        2.5  尝试各种LLM
          2.5.1  比较各类LLM
          2.5.2  尝试流行的LLM
        2.6  创建提示词库
        2.7  使用提示词解决问题
        小结
      第3章  人工智能、自动化和测试
        3.1  测试的价值
          3.1.1  不同的测试思维方式
          3.1.2  更全面的测试方法
        3.2  工具如何帮助测试
          3.2.1  自动化偏差
          3.2.2  有选择地使用工具
        3.3  了解何时在测试中使用LLM
          3.3.1  生成能力
          3.3.2  转换能力
          3.3.3  增强能力
          3.3.4  测试中使用的LLM
        小结
    第2部分  技术:测试中的任务识别和提示词工程
      第4章  面向开发人员的AI辅助测试
        4.1  自动化开发人员的崛起
        4.2  与LLM协作

          4.2.1  分析想法
          4.2.2  分析代码
          4.2.3  认识到模拟的重要性
        4.3  利用AI辅助提高产品质量
        4.4  利用LLM创建第一个TDD循环
          4.4.1  准备工作
          4.4.2  循环1:保存工期表条目
          4.4.3  循环2:检索工时表条目
          4.4.4  循环3:计算项目工时
          4.4.5  重构代码
        4.5  使用LLM改进文档和沟通
          4.5.1  生成代码注释
          4.5.2  生成发布说明
        4.6  寻求与代码助手之间的平衡
        小结
      第5章  AI辅助的测试计划
        5.1  现代测试中测试计划的定义
          5.1.1  测试计划、LLM和影响域
        5.2  通过模型进行重点引导
          5.2.1  不精准的提示词导致不精准的建议
          5.2.2  什么是模型,为什么模型可以帮助我们理解
        5.3  结合模型和LLM来协助测试计划
          5.3.1  创建明确提示词的模型
          5.3.2  尝试不同的模型类型
        5.4  LLM与测试用例
          5.4.1  对生成的风险和测试用例持适当的怀疑态度
        小结
      第6章  利用AI快速创建数据
        6.1  使用LLM生成和转换数据
          6.1.1  引导LLM生成简单数据集
          6.1.2  将测试数据转换为不同格式
        6.2  使用LLM处理复杂的测试数据
          6.2.1  在提示词中使用格式标准
          6.2.2  作为提示词引导的SQL导出
        6.3  将LLM设置为测试数据管理器
          6.3.1  设置OpenAI账户
          6.3.2  连接OpenAI
        6.4  从测试数据生成中获益
        小结
      第7章  利用AI加速和改进UI自动化
        7.1  快速创建UI自动化
          7.1.1  设置项目
          7.1.2  利用ChatGPT辅助创建初始校验
          7.1.3  从生成的代码中填补空白
        7.2  改进现有的UI自动化
          7.2.1  更新状态管理以使用适当的层
          7.2.2  熟练使用AI工具
        小结
      第8章  利用AI辅助探索性测试
        8.1  使用LLM组织探索性测试

          8.1.1  用LLM增强已识别的风险
          8.1.2  用LLM扩充准则列表
        8.2  在探索性测试中使用LLM
          8.2.1  建立理解
          8.2.2  创建会话的数据要求
          8.2.3  探索和跟进缺陷
          8.2.4  使用LLM协助探索性测试
        8.3  用LLM总结测试记录
        小结
      第9章  作为测试助手的AI智能体
        9.1  理解AI智能体和LLM
          9.1.1  AI智能体的定义
          9.1.2  智能体如何与LLM配合工作
        9.2  创建AI测试助手
          9.2.1  设置虚拟AI智能体
          9.2.2  赋予AI智能体执行函数
          9.2.3  将工具串联起来
        9.3  利用AI测试助手向前迈进
          9.3.1  AI测试助手示例
          9.3.2  应对与智能体合作的挑战
        小结
    第3部分  上下文:为测试上下文定制LLM
      第10章  引入定制的LLM
        10.1  LLM和上下文面临的挑战
          10.1.1  词元、上下文窗口和限制
          10.1.2  嵌入上下文作为解决方案
        10.2  将上下文进一步嵌入提示词和LLM中
          10.2.1  RAG
          10.2.2  微调LLM
          10.2.3  比较两种方法
          10.2.4  结合RAG和微调
        小结
      第11章  基于RAG的上下文提示词
        11.1  利用RAG扩展提示词
        11.2  构建RAG框架
          11.2.1  构建我们自己的RAG框架
          11.2.2  测试RAG框架
        11.3  提升RAG的数据存储能力
          11.3.1  使用向量数据库
          11.3.2  建立基于向量数据库的RAG
          11.3.3  测试基于向量数据库的RAG框架
          11.3.4  继续推进RAG框架
        小结
      第12章  使用业务领域知识微调LLM
        12.1  探索微调过程
          12.1.1  微调过程概览
          12.1.2  目标设定
        12.2  执行微调环节
          12.2.1  准备训练数据
          12.2.2  预处理和设置

          12.2.3  使用微调工具
          12.2.4  启动微调运行
          12.2.5  测试微调结果
          12.2.6  微调的经验教训
        小结
    附录A  设置和使用ChatGPT
    附录B  设置和使用GitHub Copilot
      B.1  设置Copilot
        B.1.1  设置Copilot账户
        B.1.2  安装Copilot插件
        B.1.3  授予Copilot账户访问权限
      B.2  使用Copilot
        B.2.1  探索建议
    附录C  探索性测试记录