本书全面介绍可解释人工智能的基础知识、理论方法和行业应用。全书分为三部分,共11 章。第一部分为第1 章,揭示基于数据驱动的人工智能系统决策机制,提出一种基于人机沟通交互场景的可解释人工智能范式。第二部分为第2~5 章,介绍各种可解释人工智能技术方法,包括贝叶斯方法、基于因果启发的稳定学习和反事实推理、基于与或图模型的人机协作解释、对深度神经网络的解释。第三部分为第6~10 章,分别介绍可解释人工智能在生物医疗、金融、计算机视觉、自然语言处理、推荐系统等领域的应用案例,详细说明可解释性在司法、城市管理、安防和制造等实际应用中发挥的积极作用。第11 章对全书进行总结,并论述可解释人工智能研究面临的挑战和未来发展趋势。此外,本书的附录给出可解释人工智能相关的开源资源、中英文术语对照及索引,方便读者进一步查阅。
本书既适合高等院校计算机和信息处理相关专业的高年级本科生和研究生,以及人工智能领域的研究员和学者阅读;也适合关注人工智能应用及其社会影响力的政策制定者、法律工作者、社会科学研究人士等阅读。
领域名家扛鼎之作。本书汇集了人工智能领域的12位名家,他们均是机器学习、计算机视觉、自然语言处理,以及在生物医疗、金融、推荐系统等应用领域的集大成者,研究成果卓著,本书正是诸位专家数年研究成果的扛鼎之作。
系统全面自成一体。本书讨论了可解释AI 的目的、定义、范畴、面临的挑战及未来发展方向,特别是本书多角度论述了可解释AI 的不足,并提出了基于人机交互沟通的可解释AI 范式。
知识完备循序渐进。作为一本导论性质的介绍图书,本书内容深入浅出,从基础的人工智能的可解释性概念层面展开讨论,先帮助读者建立对可解释AI 的直观、形象的理解,再介绍可解释AI 的前沿方法,最后通过一系列丰富的行业应用案例,巩固读者对书中所介绍的可解释AI 技术的理解,从而完成对可解释AI领域循序渐进的介绍。
理论实践价值兼备。本书系统地论述了可解释AI 的理论发展现状,并按照五类分类介绍了解释性方法,即可解释图模型、贝叶斯深度学习模型、基于知识图谱的可解释模型、基于可解释性的交流学习、对神经网络的解释。同时,本书从介绍了可解释性方法在医疗、金融、视觉、自然语言处理、推荐系统等方面的应用角度出发,明确指出在各种场景下解释所要达到的具体目标。
应用案例翔实丰富。本书从分析对可解释AI 的实际需求出发,深入及时地介绍最新前沿方法。全书共有15个应用案例,分别包括:基因编辑和医学影像处理,金融量化投资和信用违约预测,模型安全、视觉问答和知识发现,对话系统、智能问答、情感分析和自动文摘,电子商务、社交网站、基于位置的服务和多媒体系统。不同行业的产业从业者,都可以从中了解可解释AI的落地方法。
内容实用覆盖面广。本书覆盖人群广泛,对于入门读者,本书对可解释AI 前沿技术及时归纳梳理,并深入浅出地介绍;对于资深的研究者,本书也给出了进阶的研究路径;对于行业应用者,本书提出了选择不同解决方案的依据。同时,本书也照顾到关注人工智能应用及具有社会影响力的人士,包括政策制定者、法律工作者和社会科学研究人士。
配套资源丰富齐全。本书配备丰富的学习资料,包括配套PPT、可解释AI 相关的开源资源、中英术语对照、索引和全书的参考文献,供读者进一步查阅学习。
杨强
加拿大工程院及加拿大皇家科学院两院院士,国际人工智能联合会IJCAI前理事会主席,香港科技大学讲席教授。领衔全球迁移学习和联邦学习研究及应用,最近的著作有《迁移学习》、《联邦学习》和《联邦学习实战》等。
范力欣
微众银行人工智能首席科学家,研究领域包括机器学习和深度学习、计算机视觉和模式识别、图像和视频处理等。
朱军
清华大学计算机系教授、人智所所长、北京智源人工智能研究院和瑞莱智慧首席科学家,主要从事机器学习研究。
陈一昕
华夏基金董事总经理,首席数据官兼首席技术官。美国华盛顿大学计算机教授、大数据科学中心创始主任。研究领域为金融科技、金融数据挖掘、智能投资研究、机器学习、优化算法等。
张拳石
上海交通大学副教授,博士生导师。研究方向为机器学习和计算机视觉,尤其是神经网络可解释性。
朱松纯
北京通用人工智能研究院院长,北京大学人工智能研究院院长,清华大学通用人工智能研究院院长。他长期致力于构建计算机视觉、认知科学、乃至人工智能科学的统一数理框架。
陶大程
澳大利亚科学院院士,京东探索研究院首任院长,兼任悉尼大学数字科学研究所顾问及首席科学家。主要关注可信人工智能研究,尤其是深度学习的基础理论、大规模模型分布式训练以及相关的机器视觉应用。
崔鹏
清华大学计算机系长聘副教授,博士生导师。研究兴趣聚焦于大数据驱动的因果推理和稳定预测、大规模网络表征学习等。
周少华
中国科学技术大学讲席教授、生物医学工程学院执行院长、影像智能与机器人研究中心(筹)主任、中科院计算所客座研究员、香港中文大学(深圳)客座教授。长期致力于医学影像的研究创新及其应用落地。
刘琦
同济大学生命科学与技术学院生物信息系长聘教授,博士生导师。发展人工智能和生物组学交叉融合的研究范式,进行精准医学研究。
黄萱菁
复旦大学计算机科学技术学院教授,博士生导师。研究领域为人工智能、自然语言处理、信息检索和社会媒体分析。
张永锋
罗格斯大学计算机系助理教授,博士生导师,互联网智能与经济实验室主任。研究兴趣为机器学习、数据挖掘、信息检索和推荐系统等。
前言
随着人工智能的深入发展,社会对人工智能的依赖性越来越强。人工智能的应用范围极广,其覆盖面也在不断扩大,从电商的产品推荐到手机短视频的个性化推荐,从城市交通系统的疏通决策系统到金融风险控制,从教育辅助系统到无人车……应该说,人工智能和人类共存的时代已经指日可待。
但人工智能的快速发展也蕴含着极大的危机和挑战。人工智能最成功的算法包括机器学习。很多机器学习的核心算法运行在所谓的黑盒情况下,也就是说,这些人工智能系统所生成的结果往往不可解释。比如,一个医疗系统为一位病人诊断,发现病人具有某些病症,给出阳性的结果。但是,现有的人工智能系统往往不给出它是如何做出这样的推断的。相比之下,一位人类医生往往会告诉病人,通过医疗图像的分析,发现一个可能的病灶,并进一步通过病理分析,确认病灶是恶性的可能性比较大,等等。这样的解释往往比较让人信服。
人工智能系统现阶段的不可解释性的原因是多方面的,包括很多人工智能算法本身往往缺乏理论依据,但一个主要的原因是现代人工智能算法往往极其复杂。预训练模型是当前解决自然语言理解问题的一种关键技术,但这类模型动辄具有上亿个参数,甚至会有上万亿个参数。如此复杂的模型已经远远超出了人类可理解的范围。人工智能系统通常采用神经网络,而且人工智能系统的厂商也不会透露他们的人工智能系统的工作原理。可以说,人工智能的发展已经远远超出了人类对人工智能工作原理的理解。
那么,是不是人类可以和黑盒式的人工智能长期共存呢?来看看我们周边的很多应用案例。试想,某医院引入一套基于人工智能的医疗诊断系统。如果系统做出对某种病症的判断,病人的癌症检测为阳性,概率为90%,那么这个结论往往是不被接受的。病人会问:你是如何做出这个判断的?根据什么特征和经验?有哪些治疗的建议?需要花多少费用?如何找到最好的专家?
同样地,对于医生等专业人士来说,一个这样的结论也需要解释:系统做出这种预测,是否符合医院和医管单位的要求?有没有按照正规的医疗程序来做推断?这种推论是否可靠?有多大的风险?这个系统在多少个案例里面被测试过?是不是稳定、可靠、全面、科学的?
对于人工智能工程师来说,一个这样的结论也需要解释:对于一个大模型来说,是哪一部分的数据对结论起了关键作用?系统的哪一部分被启动?如果发生错误,最大的可能性来自哪里?如何修补?
以上例子表明,虽然我们可以使用一个黑盒的人工智能模型,但在应用中,这个模型应该具有可解释能力,否则系统的可用性就会大为降低。这个解释可以来自系统本身,比如树形的决策系统本身就具有很强的可解释性。除此之外,也可以为一个黑盒的人工智能系统配备一个解释模型,其任务就是解释人工智能做出的每个决策。
以上例子的另一个特点是解释本身可以是多样的,有的解释是为终端用户服务的,有的解释是为专业人士或监管部门服务的,而有的解释是为工程技术人员服务的。这种对可解释人工智能的要求有些是必须满足的。比如,欧洲提出的《个人数据通用保护条例》(GDPR)就规定了人工智能的算法要可以解释其决策逻辑。
我们可以列举更多的例子。比如在金融领域的贷款申请环节中,如果一个贷款申请没有被批准,其背后的人工智能系统就需要对贷款申请者做相应的解释(如“贷款额度过大”,或者“有还款逾期经历”等)。一个自动驾驶汽车系统在做出紧急制动决策的同时,要给出解释(如“因为车前面有位行人”)。所以,人工智能的可解释性就像我们常说的,对于事物要知其然,也要知其所以然。
人工智能的可解释性也是实现“以人为本”的人工智能的一个具体举措。黑盒的人工智能系统往往很难融入人类社会。如果一个系统无法和人类沟通,那么它的应用面注定会很窄,而人类对系统决策的反馈就不能用来更新系统的知识。一个可解释的系统往往被认为是公正、透明、平衡无偏、不歧视个体的友善系统,这样的人工智能系统才是负责任的人工智能系统。
如上所述,人工智能的发展如火如荼,随着与人们息息相关的金融、医疗等服务行业中出现人脸识别、智能人机对话等人工智能应用,公众和政策制定者都逐渐意识到了可解释人工智能(Explainable Artificial Intelligence,XAI)的重要性和急迫性。近期,可解释AI 研究也呈现百花齐放的态势,提出了众多的理论框架、算法和系统,覆盖多个行业和学科。尽管百家争鸣是一件好事,但这个领域仍然缺乏一个统一的理论体系。一个完善的理论框架可以将不同的系统和算法加以比较,让人工智能的研究者和应用者对某种理论和算法的采纳有据可循。同时,一个统一的理论框架可以成为创新的土壤,促使新的算法和系统产生,这本专著就提出了一个基于人机沟通的交互式的可解释人工智能范式。
和现有的一些可解释AI 图书相比,本书不仅包括了理论部分,更重要的是它还囊括了众多的应用案例。本书从各种实际应用场景和需求出发,明确指出在各种场景下解释所要达到的具体目标。同时,本书还提出了面向不同解释对象的交互式解释框架, 并以此囊括各种具体的解释算法和技术。
一本好书本身就应该是一个好的可解释系统,让不同背景的人群,有不同的收获。本书对可解释AI 前沿技术及时归纳梳理, 并深入浅出地介绍给读者,适合入门读者阅读(是为导论)。同时,对于资深的研究者,本书也给出了进阶的研究路径。对于行业应用者,本书提出了选择不同解决方案的依据。
本书覆盖的人群,既包括计算机及信息处理相关专业的高年级本科生及研究生,也包括人工智能领域的研究员、学者和高校老师。同时,本书也照顾到关注人工智能应用及具有社会影响力的人士,包括政策制定者、法律工作者和社会科学研究人士。所以,我们希望本书能够成为读者朋友们手中的一本实用的人工智能工具书。
在此,我们特别感谢本书各个章节内容的贡献者——周博磊、朱占星、林洲汉、沈驿康、李崇轩、傅金兰、王小雅、张艺辉、易超、孔昆、刘艾杉、啜国晖、李涵、邹昊等,他们是人工智能各个领域的专家、学者及研究员,在繁忙的工作中抽出宝贵的时间来讨论写作方案,提供各个章节的技术内容,投入了大量的经验和热情。同时,我们也感谢本书的支持者,包括电子工业出版社策划编辑宋亚东及其同事,志愿支持者——任洁、任启涵、张钟丹、姚云竞、王鑫、范胜奇等同学。此外,我们还要衷心致谢各自的家人,没有他们的鼎力支持,很难想象本书可以顺利完成。
最后,我们感谢众多的读者朋友们。感谢你们的持续支持!
杨强 范力欣 朱军 陈一昕 张拳石 朱松纯
陶大程 崔鹏 周少华 刘琦 黄萱菁 张永锋
2022 年3月