欢迎光临澳大利亚新华书店网 [登录 | 免费注册]

    • 大模型安全监管与合规/网络空间安全技术丛书
      • 作者:王贤智//叶娟//陈梦园//刘子旭//陈学进等|责编:杨福川//罗词亮
      • 出版社:机械工业
      • ISBN:9787111763239
      • 出版日期:2024/10/01
      • 页数:252
    • 售价:39.6
  • 内容大纲

        这是一部从技术安全、监管框架、合规要求、伦理道德等角度全面讲解生成式人工智能安全问题的实战性著作。本书在坚实的理论基础之上,通过丰富的案例和翔实的数据,系统梳理了企业当下在生成式人工智能实践中面临的各种安全挑战,并给出了应对策略。本书的目标是为读者提供全面且实用的行动框架和实操指南,以促进生成式人工智能行业的健康发展。
        本书融合了跨学科专家的技术和经验,作者团队包括安全领域的资深技术精英、微软创新教育专家(MIEE)、生成式人工智能技术专家,以及在大数据企业、法律界深耕多年的知识产权与数据合规方面的专家。他们凭借各自的专业知识和实践经验,将理论与实务紧密结合,为读者提供了宝贵的见解和参考。
  • 作者介绍

  • 目录

    前言
    第1章  大语言模型安全及其挑战
      1.1  大语言模型的发展历史与技术现状
        1.1.1  序章:起源与早期形态
        1.1.2  转折:神经网络的兴起
        1.1.3  现代巨人:GPT与BERT的时代
        1.1.4  技术现状与应用领域
      1.2  大语言模型安全的范畴
        1.2.1  大语言模型的技术安全:关键挑战是什么
        1.2.2  大语言模型的监管与合规:面临哪些关键问题
      1.3  生成式人工智能安全的重要性
        1.3.1  提升大语言模型的社会信任和声誉
        1.3.2  降低大语言模型的法律风险
        1.3.3  保护大语言模型的用户数据隐私
        1.3.4  保障大语言模型服务的连续性
        1.3.5  提高大语言模型的系统稳定性
      1.4  大语言模型安全的现状与挑战
        1.4.1  大语言模型的安全隐患与主要风险点
        1.4.2  大语言模型与国家安全风险
        1.4.3  大语言模型安全治理之道:发展与安全并重
    第2章  大语言模型技术层面的安全风险
      2.1  大语言模型的信息安全原则
        2.1.1  机密性
        2.1.2  完整性
        2.1.3  可用性
      2.2  传统安全风险
        2.2.1  传统网络攻击依然具有威力
        2.2.2  常见的传统网络攻击方式
      2.3  识别和分析人类意图上的挑战
        2.3.1  恶意意图的识别难题
        2.3.2  AI生成虚假信息传播
        2.3.3  利用AI进行黑客攻击
      2.4  大语言模型的固有脆弱性
        2.4.1  对抗攻击
        2.4.2  后门攻击
        2.4.3  Prompt攻击
        2.4.4  数据投毒攻击
        2.4.5  模型窃取攻击
        2.4.6  数据窃取攻击
        2.4.7  其他常见安全风险
    第3章  大语言模型监管与合规的法律框架
      3.1  全球视野下的AIGC监管现状
        3.1.1  AIGC企业面临的诉讼压力
        3.1.2  针对AIGC企业的执法调查屡见不鲜
        3.1.3  各国抓紧AIGC相关立法
      3.2  国内的监管体系
        3.2.1  国内监管体系概述
        3.2.2  国内现行监管政策梳理与总结
        3.2.3  国内重点监管政策解读
      3.3  国外的典型法域

        3.3.1  欧盟
        3.3.2  美国
        3.3.3  英国
        3.3.4  新加坡
        3.3.5  加拿大
        3.3.6  韩国
    第4章  大语言模型知识产权合规
      4.1  著作权
        4.1.1  著作权概述
        4.1.2  AIGC生成物的著作权定性分析
        4.1.3  AIGC技术相关的著作权侵权风险
        4.1.4  典型案例分析
        4.1.5  小结
      4.2  开源协议
        4.2.1  开源协议概述
        4.2.2  开源协议引发的侵权风险
        4.2.3  涉及开源协议的相关案例
        4.2.4  涉及开源协议的侵权风险防范措施
      4.3  专利权
        4.3.1  专利权概述
        4.3.2  AIGC场景下的专利权相关问题
      4.4  商标权
        4.4.1  商标权概述
        4.4.2  AIGC场景下的商标侵权
        4.4.3  人工智能生成物与商标侵权
      4.5  商业秘密
        4.5.1  商业秘密概述
        4.5.2  AIGC场景下常见的商业秘密相关风险
        4.5.3  典型案例分析
        4.5.4  小结
    第5章  大语言模型数据合规
      5.1  模型训练阶段
        5.1.1  数据采集
        5.1.2  数据质量提升
      5.2  模型应用阶段
        5.2.1  告知同意
        5.2.2  个人信息权利行使
        5.2.3  收集儿童个人信息
        5.2.4  数据跨境
      5.3  模型优化阶段
        5.3.1  数据使用
        5.3.2  数据安全
    第6章  大语言模型内容安全
      6.1  内容安全监管
        6.1.1  国内视角下的监管
        6.1.2  国外视角下的监管
      6.2  内容安全风险
        6.2.1  权利人提起的民事侵权责任
        6.2.2  监管机构提起的行政处罚
        6.2.3  刑事处罚

      6.3  内容安全合规
        6.3.1  模型训练阶段
        6.3.2  模型应用阶段
        6.3.3  模型优化阶段
    第7章  大语言模型算法合规
      7.1  算法合规框架概述
      7.2  算法备案
        7.2.1  法律依据及实施概况
        7.2.2  备案流程
        7.2.3  算法备案入口及角色
        7.2.4  备案所需准备的文件及材料
        7.2.5  备案期限
      7.3  人工智能安全评估
      7.4  算法公开透明
      7.5  算法生成内容标识
      7.6  算法反歧视
        7.6.1  算法设计
        7.6.2  训练数据选择
        7.6.3  模型生成和优化
      7.7  与算法有关的侵权
      7.8  算法合规要点总结
    第8章  大语言模型伦理安全
      8.1  大语言模型伦理:AI技术进步的道德维度
        8.1.1  三个案例引发对AI伦理的思考
        8.1.2  人工智能伦理概述:一个复杂且涵盖多方面的议题
      8.2  人工智能伦理的重要性
        8.2.1  提升公众信任:大语言模型伦理规范的社会影响
        8.2.2  确保合规性:企业和组织遵守伦理规范的必要性
        8.2.3  面向可持续的未来:伦理规范的长期社会影响
      8.3  大语言模型伦理安全风险及成因分析
        8.3.1  主要的伦理风险
        8.3.2  伦理风险的成因
      8.4  我国人工智能伦理治理实践
        8.4.1  我国人工智能伦理相关法规政策概述
        8.4.2  确立科技伦理治理体制机制
      8.5  大语言模型伦理风险应对策略
        8.5.1  研究开发者的责任
        8.5.2  设计制造者的责任
        8.5.3  部署应用者的责任
        8.5.4  用户的责任
    第9章  大语言模型的安全保障方案
      9.1  传统技术层面的安全保障
        9.1.1  大语言模型在系统层面的安全挑战
        9.1.2  大语言模型中可应用的经典安全技术
        9.1.3  应用传统安全实践的经验
      9.2  数据层面的保障策略
        9.2.1  数据收集阶段面临的安全挑战
        9.2.2  训练阶段的安全建议
        9.2.3  模型推理阶段的安全建议
      9.3  可信属性角度的安全防护策略

        9.3.1  大语言模型可信任的支柱
        9.3.2  人类监管和监督
        9.3.3  技术健壮性和安全性
        9.3.4  隐私和数据治理
        9.3.5  透明度
        9.3.6  多样性和公平性
        9.3.7  社会和环境变革
        9.3.8  问责机制
    第10章  生成式人工智能未来展望
      10.1  技术视角看大语言模型安全的发展趋势
        10.1.1  增强安全性与可靠性
        10.1.2  提高透明性与可解释性
        10.1.3  优化性能与效率
        10.1.4  应对深度伪造技术
        10.1.5  区块链技术的集成
      10.2  法律视角看大语言模型安全的发展趋势
        10.2.1  全球数据保护法律法规在大模型领域的细化与完善
        10.2.2  全球范围内算法监管框架的逐渐完善
        10.2.3  AI时代的知识产权
        10.2.4  伦理规范的法律化