欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 机器学习项目交付实战
      • 作者:(美)本·威尔逊|责编:王军|译者:李晓峰//逄金辉//殷海英
      • 出版社:清华大学
      • ISBN:9787302637424
      • 出版日期:2023/07/01
      • 页数:465
    • 售价:51.2
  • 内容大纲

        《机器学习项目交付实战》将介绍如何从模型和数据中获取最佳性能,帮助你构建稳定的数据管道。通过高效的可复用技术集合,来确保应用程序工作流程的顺利执行,以及提高模型的可维护性。基于数十年的良好软件工程实践,机器学习工程可确保你的机器学习系统具有弹性、适应性和可执行性。
        《机器学习项目交付实战》将介绍设计、构建和交付成功的机器学习项目的核心原则和上佳实践。你将了解很多软件工程技术,例如对原型进行实验和实施模块化设计,从而产生弹性架构和一致的跨团队沟通。基于作者丰富的经验,本书中的每一种方法都被成功地用于解决现实世界中的问题。
  • 作者介绍

        本·威尔逊(Ben Wilson)是一名机器学习工程师,曾担任过核工程技术员、半导体工艺工程师和数据科学家。十多年来,他一直在解决数据和开源工具方面的问题,在过去的4年里他帮助其他人完成相同的工作。他喜欢构建机器学习框架代码,帮助人们思考有挑战性的数据科学问题,并喜欢开怀大笑。
  • 目录

    第Ⅰ部分  机器学习工程简介
      第1章  什么是机器学习工程
        1.1  为什么使用机器学习工程
        1.2  机器学习工程的核心原则
          1.2.1  规划
          1.2.2  范围界定和研究
          1.2.3  实验
          1.2.4  研发
          1.2.5  部署
          1.2.6  评估
        1.3  机器学习工程的目标
        1.4  本章小结
      第2章  数据科学工程
        2.1  用提高项目成功率的过程增强复杂的专业
        2.2  简单的基础
        2.3  敏捷软件工程的工作原则
          2.3.1  沟通与合作
          2.3.2  拥抱并期待改变
        2.4  机器学习工程的基础
        2.5  本章小结
      第3章  在建模之前:规划和确定项目范围
        3.1  规划:你要我预测什么
          3.1.1  项目的基本规划
          3.1.2  首次会议
          3.1.3  规划演示——进行大量演示
          3.1.4  通过解决方案构建进行实验:磨刀不误砍柴工
        3.2  实验范围:设定预期和界限
          3.2.1  什么是实验范围
          3.2.2  机器学习团队的实验范围:研究
          3.2.3  机器学习团队的实验范围:实验
        3.3  本章小结
      第4章  建模之前:项目的沟通与逻辑
        4.1  沟通:定义问题
          4.1.1  理解问题
          4.1.2  设置严格的讨论界限
        4.2  不要浪费时间:与跨职能团队交流
          4.2.1  实验变更会议:我们知道自己在做什么吗
          4.2.2  SME 评审/原型评审:我们能解决这个问题吗
          4.2.3  开发进度评审:这会奏效吗
          4.2.4  MVP评审:是否生成了我们要求的内容
          4.2.5  预投产评审:我们真希望没有搞砸
        4.3  为实验设定限制
          4.3.1  设置时限
          4.3.2  可以投入生产吗?你想维护它吗
          4.3.3  机器学习项目的TDD、RDD、PDD和CDD
        4.4  为混乱的业务规则做计划
          4.4.1  通过计划“拥抱混乱”
          4.4.2  “人机回环”设计
          4.4.3  你的备选方案是什么
        4.5  对结果进行讨论

        4.6  本章小结
      第5章  进行实验:规划和研究机器学习项目
        5.1  设计实验
          5.1.1  进行基础的研究和规划
          5.1.2  扔掉博客——仔细阅读API文档
          5.1.3  抽签决定内部黑客马拉松
          5.1.4  公平竞争环境
        5.2  执行实验准备工作
          5.2.1  执行数据分析
          5.2.2  从脚本转向可重用代码
          5.2.3  为实验构建可重用代码的最后说明
        5.3  本章小结
      第6章  进行实验:测试与评估
        6.1  测试想法
          6.1.1  在代码中设置准则
          6.1.2  运行快速预测测试
        6.2  减少可能性
          6.2.1  正确评估原型
          6.2.2  决定前进的方向
          6.2.3  接下来做什么
        6.3  本章小结
      第7章  实践实验:从原型到MVP
        7.1  调整:自动化那些恼人的过程
          7.1.1  调优选项
          7.1.2  Hyperopt入门
          7.1.3  使用Hyperopt调优复杂的预测问题
        7.2  为平台和团队选择合适的技术
          7.2.1  使用Spark的理由
          7.2.2  用SparkTrials处理来自Driver的调优
          7.2.3  用pandas_udf处理来自Worker的调优
          7.2.4  为团队使用新范式:平台和技术
        7.3  本章小结
      第8章  动手实战:使用MLflow和运行时优化实现MVP
        8.1  日志记录:代码、指标和结果
          8.1.1  MLflow跟踪
          8.1.2  不要通过打印记录日志
          8.1.3  版本控制、分支策略和与他人合作
        8.2  可伸缩性和并发性
          8.2.1  什么是并发
          8.2.2  哪些内容可以(或不可以)异步运行
        8.3  本章小结
    第Ⅱ部分  为投产做准备:创建可维护的机器学习项目
      第9章  机器学习中的模块化:编写可测试且易读的代码
        9.1  单片脚本及其缺点
          9.1.1  “巨石”是如何形成的
          9.1.2  文本墙
          9.1.3  单片脚本的注意事项
        9.2  调试文本墙
        9.3  对机器学习代码进行模块化设计
        9.4  机器学习的测试驱动开发

        9.5  本章小结
      第10章  编码标准和创建可维护的机器学习代码
        10.1  机器学习的代码异味
        10.2  命名、结构和代码体系结构
          10.2.1  命名约定和结构
          10.2.2  别耍小聪明
          10.2.3  代码体系结构
        10.3  元组解包和可维护的替代方案
          10.3.1  元组解包示例
          10.3.2  元组解包的可靠替代方案
        10.4  对问题视而不见:“饮食异常”和其他不良做法
          10.4.1  精准使用try/catch
          10.4.2  精心设计的异常处理
          10.4.3  正确处理错误
        10.5  使用全局可变对象
          10.5.1  易变性会如何伤害你
          10.5.2  封装以防止可变性带来的副作用
        10.6  过多的嵌套的逻辑
        10.7  本章小结
      第11章  模型测量及其重要性
        11.1  测量模型归因
          11.1.1  测量预测性能
          11.1.2  明确相关性与因果关系
        11.2  利用A/B检验进行归因计算
          11.2.1  A/B检验基础
          11.2.2  连续评估指标
          11.2.3  使用替代显示和检验
          11.2.4  评估分类指标
        11.3  本章小结
      第12章  通过观察漂移以保持你的收益
        12.1  检测漂移
        12.2  解决漂移问题
          12.2.1  我们可以做些什么
          12.2.2  应对漂移
        12.3  本章小结
      第13章  机器学习中的开发“傲慢”
        13.1  优雅的复杂性与过度设计
          13.1.1  轻量级脚本风格(命令式)
          13.1.2  “精心设计”的混乱
        13.2  无意混淆:如果不是你写的,你能否读懂
          13.2.1  关于混淆
          13.2.2  总结不良编码习惯
        13.3  不成熟的泛化、不成熟的优化以及其他显示你有多聪明的糟糕方式
          13.3.1  泛化和框架:除非不得已,否则不要使用它们
          13.3.2  过早优化
        13.4  你真的想作为“煤矿中的金丝雀”吗?Alpha测试和开源“煤矿”中的危险
        13.5  技术驱动的开发与解决方案驱动的开发
        13.6  本章小结
    第Ⅲ部分  开发生产机器学习代码
      第14章  编写生产代码

        14.1  你见到了你的数据吗
          14.1.1  确保你有数据
          14.1.2  检查数据来源
          14.1.3  找到真相的来源并与之保持一致
          14.1.4  不要将数据清理嵌入生产代码中
        14.2  监控你的特征
        14.3  监控模型生命周期中的所有其他内容
        14.4  保持一切尽可能简单
          14.4.1  问题定义的简洁性
          14.4.2  简单的实现
        14.5  机器学习项目的线框图
        14.6  避免机器学习中的货物崇拜行为
        14.7  本章小结
      第15章  质量和验收测试
        15.1  数据一致性
          15.1.1  训练和推理偏差
          15.1.2  特征存储简介
          15.1.3  过程胜于技术
          15.1.4  数据孤岛的危险
        15.2  回退和冷启动
          15.2.1  严重依赖现有技术
          15.2.2  冷启动问题
        15.3  最终用户与内部使用测试
          15.3.1  有偏见的测试
          15.3.2  自己公司的员工测试自研的产品(dogfooding)
          15.3.3  SME评估
        15.4  模型的可解释性
          15.4.1  Shapley加法解释
          15.4.2  使用shap包
        15.5  本章小结
      第16章  生产环境基础设施
        16.1  工件管理
          16.1.1  MLflow的模型注册
          16.1.2  使用模型注册进行连接
        16.2  特征库
          16.2.1  特征库的用途
          16.2.2  使用特征库
          16.2.3  评估特征库
        16.3  预测服务体系结构
          16.3.1  确定服务需求
          16.3.2  批量外部交付
          16.3.3  微批量流式传输
          16.3.4  实时服务器端
          16.3.5  集成模型(边缘部署)
        16.4  本章小结
    附录A  Big O以及如何考虑运行时性能
    附录B  设置开发环境