什么是可解释的人工智能?
随着人工智能 (AI) 变得越来越复杂并在社会中被广泛采用,最关键的一组流程和方法是可解释的 (AI),有时也称为 XAI。
可解释的人工智能可以定义为:
- 一组帮助人类用户理解和信任机器学习算法结果的过程和方法。
正如您可以猜到的那样,这种可解释性非常重要,因为 AI 算法控制了许多部门,这带来了偏见、错误算法和其他问题的风险。通过可解释性实现透明度,世界可以真正利用人工智能的力量。
顾名思义,可解释的 AI 有助于描述 AI 模型、其影响和潜在的偏见。它还在 AI 驱动的决策过程中表征模型准确性、公平性、透明度和结果方面发挥作用。
今天的 AI 驱动型组织应始终采用可解释的 AI 流程,以帮助在生产中建立对 AI 模型的信任和信心。可解释的人工智能也是在当今人工智能环境中成为一家负责任的公司的关键。
因为今天的人工智能系统非常先进,人类通常会执行一个计算过程来追溯算法是如何得出结果的。这个过程变成了一个“黑匣子”,意味着无法理解。当这些无法解释的模型直接从数据中开发出来时,没有人能理解其中发生了什么。
通过了解 AI 系统如何通过可解释的 AI 运行,开发人员可以确保系统正常运行。它还可以帮助确保模型符合监管标准,并为模型提供挑战或改变的机会。
AI 和 XAI 之间的差异
一些关键差异有助于将“常规”人工智能与可解释的人工智能区分开来,但最重要的是,XAI 实施了特定的技术和方法,有助于确保 ML 过程中的每个决策都是可追溯和可解释的。相比之下,常规 AI 通常使用 ML 算法得出结果,但无法完全理解算法是如何得出结果的。在常规 AI 的情况下,检查准确性极其困难,导致失去控制、责任和可审计性。
可解释人工智能的好处
对于希望采用可解释 AI 的任何组织而言,都有很多好处,例如:
- 更快的结果:可解释的人工智能使组织能够系统地监控和管理模型以优化业务成果。可以持续评估和改进模型性能并微调模型开发。
- 降低风险:通过采用可解释的 AI 流程,您可以确保您的 AI 模型是可解释和透明的。您可以管理法规、合规性、风险和其他要求,同时最大限度地减少手动检查的开销。所有这些也有助于降低意外偏见的风险。
- 建立信任:可解释的人工智能有助于建立对生产人工智能的信任。AI 模型可以快速投入生产,可以确保可解释性和可解释性,并且可以简化模型评估过程并使其更加透明。
可解释的人工智能技术
有一些 XAI 技术是所有组织都应该考虑的,它们包括三种主要方法:预测准确性、可追溯性和决策理解。
三种方法中的第一种,预测准确性,对于在日常操作中成功使用 AI 至关重要。可以进行模拟,并且可以将 XAI 输出与训练数据集中的结果进行比较,这有助于确定预测的准确性。实现这一目标的一种更流行的技术称为本地可解释模型无关解释 (LIME),这是一种通过机器学习算法解释分类器预测的技术。
第二种方法是可追溯性,这是通过限制如何做出决策以及为机器学习规则和特征建立更窄的范围来实现的。最常见的可追溯性技术之一是 DeepLIFT,即深度学习重要特征。DeepLIFT 将每个神经元的激活与其参考神经元进行比较,同时展示每个激活的神经元之间的可追溯链接。它还显示了它们之间的依赖关系。
第三种也是最后一种方法是决策理解,它以人为中心,与其他两种方法不同。决策理解涉及教育组织,特别是与 AI 合作的团队,使他们能够理解 AI 如何以及为何做出决策。这种方法对于建立对系统的信任至关重要。
可解释的人工智能原则
为了更好地理解 XAI 及其原理,隶属于美国商务部的美国国家标准研究院 (NIST) 提供了可解释 AI 的四项原则的定义:
- 人工智能系统应该为每个输出提供证据、支持或推理。
- 人工智能系统应该给出用户可以理解的解释。
- 解释应该准确地反映系统用于达到其输出的过程。
- 人工智能系统应该只在它设计的条件下运行,当它对结果缺乏足够的信心时,它不应该提供输出。
这些原则可以进一步组织成:
- 有意义:为了实现有意义的原则,用户应该理解所提供的解释。这也可能意味着,在不同类型的用户使用 AI 算法的情况下,可能会有多种解释。例如,在自动驾驶汽车的情况下,一种解释可能是这样的……“人工智能将路上的塑料袋归类为岩石,因此采取了措施避免撞到它。”虽然此示例适用于驱动程序,但对于希望纠正问题的 AI 开发人员来说并不是很有用。在这种情况下,开发人员必须了解为什么会出现错误分类。
- 解释准确度:与输出准确度不同,解释准确度涉及 AI 算法准确解释它是如何达到其输出的。例如,如果贷款批准算法根据申请的收入来解释决定,而实际上它是根据申请人的居住地,那么解释将是不准确的。
- 知识限制:人工智能的知识限制可以通过两种方式达到,它涉及到系统专业知识之外的输入。例如,如果构建了一个对鸟类进行分类的系统,并给它一张苹果的图片,它应该能够解释输入不是鸟。如果系统得到一张模糊的图片,它应该能够报告它无法识别图像中的鸟,或者它的识别具有非常低的置信度。
数据在可解释人工智能中的作用
可解释人工智能最重要的组成部分之一是数据。
根据谷歌的说法,关于数据和可解释的人工智能,“人工智能系统最好通过底层的训练数据和训练过程以及由此产生的人工智能模型来理解。”这种理解依赖于将经过训练的 AI 模型映射到用于训练它的确切数据集的能力,以及仔细检查数据的能力。
为了增强模型的可解释性,重要的是要注意训练数据。团队应确定用于训练算法的数据的来源、获取数据的合法性和道德规范、数据中的任何潜在偏见,以及可以采取哪些措施来减轻任何偏见。
数据和 XAI 的另一个关键方面是应排除与系统无关的数据。为此,不相关的数据不得包含在训练集或输入数据中。
谷歌推荐了一套实践来实现可解释性和问责制:
- 规划您的选择以追求可解释性
- 将可解释性视为用户体验的核心部分
- 设计可解释的模型
- 选择指标以反映最终目标和最终任务
- 了解训练好的模型
- 向模型用户传达解释
- 进行大量测试以确保 AI 系统按预期工作
通过遵循这些推荐的做法,您的组织可以确保实现可解释的 AI,这对于当今环境中任何 AI 驱动的组织来说都是关键。