用人工智能引入新的透明度——思想领袖
作者:Infosys 高级副总裁兼服务产品负责人 - 能源、通信、服务以及人工智能和自动化服务,Balakrishna DR 。
2020 年 1 月 9 日,世界卫生组织向公众通报了冠状病毒在中国的爆发。三天前,美国疾病控制和预防中心已经发布了消息。但它是一个加拿大的健康监测平台,将他们俩都打败了,早在 2019 年 12 月 31 日就向其客户发送了疫情的消息!该平台 BlueDot 使用人工智能驱动的算法搜索外语新闻报道、动植物疾病网络和官方公告,向其客户发出预警,以避开武汉等危险地区。
在过去几年中,人工智能已成为当今快速变化的经济中转型、颠覆和竞争优势的关键来源。从流行病追踪到防御再到医疗保健到自动驾驶汽车以及介于两者之间的一切,人工智能正在获得广泛采用。普华永道预测,以目前的增长率,到 2030 年,人工智能可能为全球经济贡献高达 15.7 万亿美元。
然而,尽管人工智能带来了所有希望,但它仍然对透明度和可信度提出了未解决的问题。理解、预测和信任人工智能系统的决策能力的需求非常重要,尤其是在对生、死和个人健康至关重要的领域。
进入未知
当首次引入自动推理系统来支持决策制定时,它们依赖于手工制定的规则。虽然这使得解释和修改它们的行为变得容易,但它们是不可扩展的。基于机器学习的模型可以满足后者的需求;他们不需要人工干预,可以根据数据进行训练——越多越好。虽然深度学习模型在建模能力和适用范围方面无与伦比,但这些模型在很大程度上是黑匣子这一事实,在其广泛使用的背景下引发了关于其真实性、可信赖性和偏见的令人不安的问题。
目前没有直接的机制来追踪深度学习模型隐式使用的推理。对于具有黑盒性质的机器学习模型,主要的可解释性被称为事后可解释性,这意味着解释源自模型生成的输出的性质和属性。目前没有进行从神经网络中提取规则的早期尝试(如早先已知的深度学习),因为网络已经变得过于庞大和多样化,无法进行易于处理的规则提取。因此,迫切需要将可解释性和透明度引入人工智能建模的结构。
退出黑夜,进入光明
这种担忧催生了对机器学习透明度的需求,这导致了可解释人工智能或 XAI 的增长。它旨在解决阻碍我们完全信任人工智能决策能力的主要问题——包括偏见和透明度。这个新的人工智能领域带来了问责制,以确保人工智能造福社会,为所有参与者带来更好的结果。
XAI 将在帮助解决 AI 系统和算法固有的偏见方面发挥关键作用,这些偏见是由背景和经验无意中导致 AI 系统开发存在偏见的人编写的。诸如对特定国籍或种族的歧视等不受欢迎的偏见可能会蔓延,因为系统会根据真实数据为其增加价值。举例来说,可能会发现典型的贷款违约者来自特定的种族背景,但是,基于此实施任何限制性政策可能违反公平做法。错误的数据是导致偏见的另一个原因。例如,如果特定的面部识别扫描仪由于人的肤色或落在脸上的光线而在 5% 的时间内不准确,则可能会带来偏差。最后,
XAI 旨在解决人工智能系统的黑盒决策是如何得出的。它检查并尝试了解决策所涉及的步骤和模型。它回答了一些关键问题,例如:为什么人工智能系统会做出特定的预测或决定?为什么人工智能系统不做其他事情?人工智能系统何时成功或失败?人工智能系统何时对您可以信任的决策给予足够的信心,人工智能系统如何纠正错误?
可解释、可预测和可追溯的人工智能
在 AI 系统中获得可解释性的一种方法是使用本质上可解释的机器学习算法。例如,更简单的机器学习形式,如决策树、贝叶斯分类器和其他在决策制定中具有一定可追溯性和透明度的算法。它们可以在不牺牲太多性能或准确性的情况下提供关键 AI 系统所需的可见性。
注意到需要为深度学习和其他更复杂的算法方法提供可解释性,美国国防高级研究计划局 (DARPA) 正在努力通过一些资助的研究计划来生产可解释的人工智能解决方案。DARPA 在三个部分中描述了 AI 的可解释性,其中包括:预测准确性,这意味着模型将解释如何得出结论以改进未来的决策;人类用户和操作员对决策的理解 和信任,以及对人工智能系统所采取行动的检查和可追溯性。
可追溯性将使人类能够进入人工智能决策循环,并能够在需要时停止或控制其任务。人工智能系统不仅要执行特定任务或做出决定,还要提供透明的报告,说明它为何做出特定决定,并提供支持理由。
算法甚至 XAI 方法的标准化目前是不可能的,但肯定有可能标准化透明度/可解释性水平。标准组织正试图就这些透明度级别达成共同的标准理解,以促进最终用户和技术供应商之间的沟通。
随着政府、机构、企业和公众开始依赖基于人工智能的系统,通过更清晰的决策过程透明度赢得他们的信任将至关重要。首个专门针对 XAI 的全球会议——人工智能国际联合会议:可解释人工智能研讨会的启动,进一步证明了 XAI 时代的到来。