可解释人工智能导论
  • 推荐0
  • 收藏0
  • 浏览181

可解释人工智能导论

杨强 , 范力欣 , 朱军 , 陈一昕 , 张拳石 , 朱松纯 , 陶大程 , 崔鹏 , 周少华 , 刘琦 , 黄萱菁 , 张永锋 (作者)  宋亚东 (责任编辑)

  • 书  号:978-7-121-43187-6
  • 出版日期:2022-04-01
  • 页  数:380
  • 开  本:16(170*240)
  • 出版状态:上市销售
  • 维护人:宋亚东
本书全面介绍可解释人工智能的基础知识、理论方法和行业应用。全书分为三部分,共11 章。第一部分为第1 章,揭示基于数据驱动的人工智能系统决策机制,提出一种基于人机沟通交互场景的可解释人工智能范式。第二部分为第2~5 章,介绍各种可解释人工智能技术方法,包括贝叶斯方法、基于因果启发的稳定学习和反事实推理、基于与或图模型的人机协作解释、对深度神经网络的解释。第三部分为第6~10 章,分别介绍可解释人工智能在生物医疗、金融、计算机视觉、自然语言处理、推荐系统等领域的应用案例,详细说明可解释性在司法、城市管理、安防和制造等实际应用中发挥的积极作用。第11 章对全书进行总结,并论述可解释人工智能研究面临的挑战和未来发展趋势。此外,本书的附录给出可解释人工智能相关的开源资源、中英文术语对照及索引,方便读者进一步查阅。
本书既适合高等院校计算机和信息处理相关专业的高年级本科生和研究生,以及人工智能领域的研究员和学者阅读;也适合关注人工智能应用及其社会影响力的政策制定者、法律工作者、社会科学研究人士等阅读。
领域名家扛鼎之作。本书汇集了人工智能领域的12位名家,他们均是机器学习、计算机视觉、自然语言处理,以及在生物医疗、金融、推荐系统等应用领域的集大成者,研究成果卓著,本书正是诸位专家数年研究成果的扛鼎之作。

系统全面自成一体。本书讨论了可解释AI 的目的、定义、范畴、面临的挑战及未来发展方向,特别是本书多角度论述了可解释AI 的不足,并提出了基于人机交互沟通的可解释AI 范式。

知识完备循序渐进。作为一本导论性质的介绍图书,本书内容深入浅出,从基础的人工智能的可解释性概念层面展开讨论,先帮助读者建立对可解释AI 的直观、形象的理解,再介绍可解释AI 的前沿方法,最后通过一系列丰富的行业应用案例,巩固读者对书中所介绍的可解释AI 技术的理解,从而完成对可解释AI领域循序渐进的介绍。

理论实践价值兼备。本书系统地论述了可解释AI 的理论发展现状,并按照五类分类介绍了解释性方法,即可解释图模型、贝叶斯深度学习模型、基于知识图谱的可解释模型、基于可解释性的交流学习、对神经网络的解释。同时,本书从介绍了可解释性方法在医疗、金融、视觉、自然语言处理、推荐系统等方面的应用角度出发,明确指出在各种场景下解释所要达到的具体目标。

应用案例翔实丰富。本书从分析对可解释AI 的实际需求出发,深入及时地介绍最新前沿方法。全书共有15个应用案例,分别包括:基因编辑和医学影像处理,金融量化投资和信用违约预测,模型安全、视觉问答和知识发现,对话系统、智能问答、情感分析和自动文摘,电子商务、社交网站、基于位置的服务和多媒体系统。不同行业的产业从业者,都可以从中了解可解释AI的落地方法。

内容实用覆盖面广。本书覆盖人群广泛,对于入门读者,本书对可解释AI 前沿技术及时归纳梳理,并深入浅出地介绍;对于资深的研究者,本书也给出了进阶的研究路径;对于行业应用者,本书提出了选择不同解决方案的依据。同时,本书也照顾到关注人工智能应用及具有社会影响力的人士,包括政策制定者、法律工作者和社会科学研究人士。

配套资源丰富齐全。本书配备丰富的学习资料,包括配套PPT、可解释AI 相关的开源资源、中英术语对照、索引和全书的参考文献,供读者进一步查阅学习。
杨强
加拿大工程院及加拿大皇家科学院两院院士,国际人工智能联合会IJCAI前理事会主席,香港科技大学讲席教授。领衔全球迁移学习和联邦学习研究及应用,最近的著作有《迁移学习》、《联邦学习》和《联邦学习实战》等。
范力欣
微众银行人工智能首席科学家,研究领域包括机器学习和深度学习、计算机视觉和模式识别、图像和视频处理等。
朱军
清华大学计算机系教授、人智所所长、北京智源人工智能研究院和瑞莱智慧首席科学家,主要从事机器学习研究。
陈一昕
华夏基金董事总经理,首席数据官兼首席技术官。美国华盛顿大学计算机教授、大数据科学中心创始主任。研究领域为金融科技、金融数据挖掘、智能投资研究、机器学习、优化算法等。
张拳石
上海交通大学副教授,博士生导师。研究方向为机器学习和计算机视觉,尤其是神经网络可解释性。
朱松纯
北京通用人工智能研究院院长,北京大学人工智能研究院院长,清华大学通用人工智能研究院院长。他长期致力于构建计算机视觉、认知科学、乃至人工智能科学的统一数理框架。
陶大程
澳大利亚科学院院士,京东探索研究院首任院长,兼任悉尼大学数字科学研究所顾问及首席科学家。主要关注可信人工智能研究,尤其是深度学习的基础理论、大规模模型分布式训练以及相关的机器视觉应用。
崔鹏
清华大学计算机系长聘副教授,博士生导师。研究兴趣聚焦于大数据驱动的因果推理和稳定预测、大规模网络表征学习等。
周少华
中国科学技术大学讲席教授、生物医学工程学院执行院长、影像智能与机器人研究中心(筹)主任、中科院计算所客座研究员、香港中文大学(深圳)客座教授。长期致力于医学影像的研究创新及其应用落地。
刘琦
同济大学生命科学与技术学院生物信息系长聘教授,博士生导师。发展人工智能和生物组学交叉融合的研究范式,进行精准医学研究。
黄萱菁
复旦大学计算机科学技术学院教授,博士生导师。研究领域为人工智能、自然语言处理、信息检索和社会媒体分析。
张永锋
罗格斯大学计算机系助理教授,博士生导师,互联网智能与经济实验室主任。研究兴趣为机器学习、数据挖掘、信息检索和推荐系统等。
前言
随着人工智能的深入发展,社会对人工智能的依赖性越来越强。人工智能的应用范围极广,其覆盖面也在不断扩大,从电商的产品推荐到手机短视频的个性化推荐,从城市交通系统的疏通决策系统到金融风险控制,从教育辅助系统到无人车……应该说,人工智能和人类共存的时代已经指日可待。
但人工智能的快速发展也蕴含着极大的危机和挑战。人工智能最成功的算法包括机器学习。很多机器学习的核心算法运行在所谓的黑盒情况下,也就是说,这些人工智能系统所生成的结果往往不可解释。比如,一个医疗系统为一位病人诊断,发现病人具有某些病症,给出阳性的结果。但是,现有的人工智能系统往往不给出它是如何做出这样的推断的。相比之下,一位人类医生往往会告诉病人,通过医疗图像的分析,发现一个可能的病灶,并进一步通过病理分析,确认病灶是恶性的可能性比较大,等等。这样的解释往往比较让人信服。
人工智能系统现阶段的不可解释性的原因是多方面的,包括很多人工智能算法本身往往缺乏理论依据,但一个主要的原因是现代人工智能算法往往极其复杂。预训练模型是当前解决自然语言理解问题的一种关键技术,但这类模型动辄具有上亿个参数,甚至会有上万亿个参数。如此复杂的模型已经远远超出了人类可理解的范围。人工智能系统通常采用神经网络,而且人工智能系统的厂商也不会透露他们的人工智能系统的工作原理。可以说,人工智能的发展已经远远超出了人类对人工智能工作原理的理解。
那么,是不是人类可以和黑盒式的人工智能长期共存呢?来看看我们周边的很多应用案例。试想,某医院引入一套基于人工智能的医疗诊断系统。如果系统做出对某种病症的判断,病人的癌症检测为阳性,概率为90%,那么这个结论往往是不被接受的。病人会问:你是如何做出这个判断的?根据什么特征和经验?有哪些治疗的建议?需要花多少费用?如何找到最好的专家?
同样地,对于医生等专业人士来说,一个这样的结论也需要解释:系统做出这种预测,是否符合医院和医管单位的要求?有没有按照正规的医疗程序来做推断?这种推论是否可靠?有多大的风险?这个系统在多少个案例里面被测试过?是不是稳定、可靠、全面、科学的?
对于人工智能工程师来说,一个这样的结论也需要解释:对于一个大模型来说,是哪一部分的数据对结论起了关键作用?系统的哪一部分被启动?如果发生错误,最大的可能性来自哪里?如何修补?
以上例子表明,虽然我们可以使用一个黑盒的人工智能模型,但在应用中,这个模型应该具有可解释能力,否则系统的可用性就会大为降低。这个解释可以来自系统本身,比如树形的决策系统本身就具有很强的可解释性。除此之外,也可以为一个黑盒的人工智能系统配备一个解释模型,其任务就是解释人工智能做出的每个决策。
以上例子的另一个特点是解释本身可以是多样的,有的解释是为终端用户服务的,有的解释是为专业人士或监管部门服务的,而有的解释是为工程技术人员服务的。这种对可解释人工智能的要求有些是必须满足的。比如,欧洲提出的《个人数据通用保护条例》(GDPR)就规定了人工智能的算法要可以解释其决策逻辑。
我们可以列举更多的例子。比如在金融领域的贷款申请环节中,如果一个贷款申请没有被批准,其背后的人工智能系统就需要对贷款申请者做相应的解释(如“贷款额度过大”,或者“有还款逾期经历”等)。一个自动驾驶汽车系统在做出紧急制动决策的同时,要给出解释(如“因为车前面有位行人”)。所以,人工智能的可解释性就像我们常说的,对于事物要知其然,也要知其所以然。
人工智能的可解释性也是实现“以人为本”的人工智能的一个具体举措。黑盒的人工智能系统往往很难融入人类社会。如果一个系统无法和人类沟通,那么它的应用面注定会很窄,而人类对系统决策的反馈就不能用来更新系统的知识。一个可解释的系统往往被认为是公正、透明、平衡无偏、不歧视个体的友善系统,这样的人工智能系统才是负责任的人工智能系统。
如上所述,人工智能的发展如火如荼,随着与人们息息相关的金融、医疗等服务行业中出现人脸识别、智能人机对话等人工智能应用,公众和政策制定者都逐渐意识到了可解释人工智能(Explainable Artificial Intelligence,XAI)的重要性和急迫性。近期,可解释AI 研究也呈现百花齐放的态势,提出了众多的理论框架、算法和系统,覆盖多个行业和学科。尽管百家争鸣是一件好事,但这个领域仍然缺乏一个统一的理论体系。一个完善的理论框架可以将不同的系统和算法加以比较,让人工智能的研究者和应用者对某种理论和算法的采纳有据可循。同时,一个统一的理论框架可以成为创新的土壤,促使新的算法和系统产生,这本专著就提出了一个基于人机沟通的交互式的可解释人工智能范式。
和现有的一些可解释AI 图书相比,本书不仅包括了理论部分,更重要的是它还囊括了众多的应用案例。本书从各种实际应用场景和需求出发,明确指出在各种场景下解释所要达到的具体目标。同时,本书还提出了面向不同解释对象的交互式解释框架, 并以此囊括各种具体的解释算法和技术。
一本好书本身就应该是一个好的可解释系统,让不同背景的人群,有不同的收获。本书对可解释AI 前沿技术及时归纳梳理, 并深入浅出地介绍给读者,适合入门读者阅读(是为导论)。同时,对于资深的研究者,本书也给出了进阶的研究路径。对于行业应用者,本书提出了选择不同解决方案的依据。
本书覆盖的人群,既包括计算机及信息处理相关专业的高年级本科生及研究生,也包括人工智能领域的研究员、学者和高校老师。同时,本书也照顾到关注人工智能应用及具有社会影响力的人士,包括政策制定者、法律工作者和社会科学研究人士。所以,我们希望本书能够成为读者朋友们手中的一本实用的人工智能工具书。
在此,我们特别感谢本书各个章节内容的贡献者——周博磊、朱占星、林洲汉、沈驿康、李崇轩、傅金兰、王小雅、张艺辉、易超、孔昆、刘艾杉、啜国晖、李涵、邹昊等,他们是人工智能各个领域的专家、学者及研究员,在繁忙的工作中抽出宝贵的时间来讨论写作方案,提供各个章节的技术内容,投入了大量的经验和热情。同时,我们也感谢本书的支持者,包括电子工业出版社策划编辑宋亚东及其同事,志愿支持者——任洁、任启涵、张钟丹、姚云竞、王鑫、范胜奇等同学。此外,我们还要衷心致谢各自的家人,没有他们的鼎力支持,很难想象本书可以顺利完成。
最后,我们感谢众多的读者朋友们。感谢你们的持续支持!

杨强 范力欣 朱军 陈一昕 张拳石 朱松纯
陶大程 崔鹏 周少华 刘琦 黄萱菁 张永锋
2022 年3月

目录

推荐序
前言
作者介绍
第1章可解释人工智能概述
1.1为什么人工智能需要可解释性
1.2可解释人工智能
1.2.1目的、定义及范式
1.2.2层次、分类及应用场景
1.2.3解释的范畴
1.2.4解释的评价与度量
1.3可解释AI的历史及发展现状
1.3.1可解释AI历史回顾
1.3.2可解释AI发展现状
1.4本书结构及阅读建议

第2章贝叶斯方法
2.1贝叶斯网络
2.1.1贝叶斯网络的表示
2.1.2贝叶斯网络的推断
2.1.3贝叶斯网络的学习
2.1.4贝叶斯规划学习
2.2贝叶斯深度学习
2.2.1深度生成模型
2.2.2贝叶斯神经网络
2.3从贝叶斯网络到可解释的因果模型
2.4延伸阅读
2.5小结

第3章基于因果启发的稳定学习和反事实推理
3.1将因果引入机器学习的增益
3.1.1制约人工智能技术的可解释性和稳定性问题
3.1.2关联性和因果性
3.2挖掘数据中的因果关联
3.2.1因果推理框架和因果效应定义
3.2.2潜在结果框架下的因果效应评估
3.3稳定学习
3.3.1二值特征下的稳定学习
3.3.2连续特征下的稳定学习
3.3.3从统计学习角度的解释
3.3.4区分性变量去关联的稳定学习
3.3.5与深度神经网络相结合的稳定学习
3.4反事实推理
3.4.1二值类型干预的反事实推理
3.4.2多维类型干预下的反事实推理
3.4.3存在未观测混淆变量的反事实推理
3.5小结

第4章基于与或图模型的人机协作解释
4.1与或图模型
4.2基于与或图的多路径认知过程
4.3人机协作对齐人类认知结构和与或图模型
4.3.1通过交互式问答构建与人类认知系统对齐的与或图模型
4.3.2评价模型的可解读性:“气泡游戏”实验
4.3.3模型通过主动建模用户认知提升可解读性
4.4小结

第5章对深度神经网络的解释
5.1神经网络特征可视化
5.1.1最大激活响应可视化
5.1.2网络解剖与特征语义分析
5.1.3基于反向传播的输入重建可视化
5.1.4CAM/Grad-CAM
5.2输入单元重要性归因
5.2.1SHAP算法
5.2.2导向反向传播算法
5.2.3逐层相关性传播算法
5.2.4积分梯度算法
5.2.5LIME
5.3博弈交互解释性理论
5.3.1理论基础:沙普利值
5.3.2博弈交互的定义
5.3.3博弈交互的性质
5.3.4博弈交互与语义表达
5.3.5解释随机失活操作
5.3.6解释批规范化操作
5.3.7解释对抗迁移性和对抗鲁棒性
5.4对神经网络特征质量解构、解释和可视化
5.4.1解释表征一致性
5.4.2解释复杂度
5.5对表达结构的解释
5.5.1代理模型解释
5.5.2对自然语言网络中语言结构的提取和解释
5.6可解释的神经网络
5.6.1胶囊网络
5.6.2β-变分自编码器
5.6.3可解释的卷积神经网络
5.6.4可解释的组成卷积神经网络
5.7小结

第6章生物医疗应用中的可解释人工智能
6.1基因编辑系统优化设计中的可解释人工智能
6.1.1基因编辑系统背景介绍
6.1.2基因编辑系统优化设计可解释AI模型构建
6.2医学影像中的可解释性
6.2.1概述
6.2.2可解释性胸片诊断
6.2.3具有自适应性的通用模型学习
6.3小结

第7章金融应用中的可解释人工智能
7.1简介
7.1.1金融行业背景介绍
7.1.2金融市场介绍
7.1.3可解释AI面向各金融行业对象的必要性
7.1.4金融监管对于可解释性的要求
7.2金融可解释AI的案例
7.2.1事后可解释模型解释人工智能量化模型
7.2.2高风险客户信用违约预测
7.2.3对金融人工智能模型可解释性的监管
7.3金融可解释AI的发展方向
7.3.1安全性
7.3.2平衡性
7.3.3完整性
7.3.4交互性
7.3.5时效性
7.3.6深化推广应用
7.4延伸阅读
7.5小结

第8章计算机视觉应用中的可解释人工智能
8.1背景
8.1.1机器视觉与可解释性
8.1.2可解释性与机器视觉发展
8.2视觉关系抽取
8.2.1基本概念
8.2.2视觉关系检测中可解释性的重要性
8.2.3可解释视觉关系抽取
8.3视觉推理
8.3.1基本概念
8.3.2可解释视觉推理示例
8.4视觉鲁棒性
8.4.1动态与静态可解释性分析
8.4.2数字世界与物理世界模型安全可解释性
8.5视觉问答
8.5.1基本概念
8.5.2视觉问答中可解释性的重要性
8.5.3可解释性视觉问答示例
8.6知识发现
8.6.1基本概念
8.6.2视觉可解释性与知识发现的关系
8.6.3可解释性知识发现案例
8.7小结

第9章自然语言处理中的可解释人工智能
9.1简介.243
9.2可解释自然语言处理中的模型结构分析
9.2.1为什么模型结构分析很重要
9.2.2设置探针任务窥探模型结构的功能
9.2.3错误类型分析
9.2.4可解释评估
9.3可解释自然语言处理中的模型行为分析
9.3.1为什么模型行为分析很重要
9.3.2预测行为分析
9.4自然语言处理任务中的可解释性
9.4.1对话系统
9.4.2智能问答系统
9.4.3情感分析系统
9.4.4自动文摘系统
9.5延伸阅读
9.5.1鲁棒性分析
9.5.2泛化性分析
9.6小结

第10章推荐系统中的可解释人工智能
10.1简介
10.2初探可解释推荐
10.3可解释推荐的历史与背景
10.4推荐系统基础
10.4.1推荐系统的输入
10.4.2推荐系统的输出
10.4.3推荐系统的三大核心问题
10.5基本的推荐模型
10.5.1协同过滤
10.5.2协同推理
10.6可解释的推荐模型
10.7可解释推荐的应用
10.7.1电子商务
10.7.2社交网站
10.7.3基于位置的服务
10.7.4多媒体系统
10.7.5其他应用
10.8延伸阅读:其他可解释推荐模型
10.8.1基于图和知识图谱的可解释推荐模型
10.8.2深度学习推荐系统的可解释性
10.8.3基于自然语言生成的解释
10.8.4基于因果和反事实推理的解释
10.9小结

第11章结论

附录A传统机器学习中的可解释模型
A.1线性回归
A.2逻辑回归
A.3决策树

附录B可解释人工智能相关研究资源
B.1图书
B.2综述论文
B.3Workshop及论文集
B.4Tutorial
B.5代码

参考文献
索引

读者评论

相关图书

隐私计算

陈凯 杨强 (作者)

在大数据和人工智能时代,如何在享受新技术带来的便利性的同时保护自己的隐私,是一个重要的问题。本书系统讲解了隐私计算的基础技术和实践案例,全书共有11 章,按层次...

 

知识图谱与认知智能:基本原理、关键技术、应用场景与解决方案

吴睿 (作者)

认知的高度决定了你创造价值的高度,包括你对世界的认知及世界对你的认知。知识图谱与认知智能技术的发展,既孕育了圈层变更的机会,也带来了人、机器、企业如何协同与博弈...

 

实用推荐系统

Kim Falk (作者) 李源 朱罡罡 温睿 (译者)

要构建一个实用的“智能”推荐系统,不仅需要有好的算法,还需要了解接收推荐的用户。本书分为两部分,第一部分侧重于基础架构,主要介绍推荐系统的工作原理,展示如何创建...

¥119.00

Kubernetes权威指南:从Docker到Kubernetes实践全接触(第5版)

龚正 吴治辉 闫健勇 (作者)

Kubernetes是由谷歌开源的容器集群管理系统,为容器化应用提供了资源调度、部署运行、服务发现、扩缩容等一整套功能。Kubernetes也是将“一切以服务(...

 

迁移学习导论

王晋东 (作者)

迁移学习作为机器学习和人工智能领域的重要方法,在计算机视觉、自然语言处理、语音识别等领域都得到了广泛的应用。本书的编写目的是帮助迁移学习及机器学习相关领域的初学...

¥109.00

OpenCV 4机器学习算法原理与编程实战

朱斌 (作者)

本书主要面向OpenCV领域的研究与开发人员,采用原理结合实战的方式,介绍OpenCV 4的机器学习算法模块与深度神经网络模块中的核心算法原理与C++编程实战。...