可解释的AI需要成为您的AI解决方案的一部分
2021年2月,房地产公司Zillow开始使用其AI生成的“Zestimate”来预测房屋的价值,然后利用这些信息提出收购要约。Zillow Offers背后的想法是收购房屋进行转售。但这项业务倒闭了,因为它无法出售足够的这些房产。罪魁祸首之一是对未来三到六个月的价格预测不准确。
但这不与人工智能的承诺相冲突——自动预测能力可以使业务决策无懈可击吗?现实情况是,预测性AI模型,即使是由善意的专家开发的,也容易受到从严重误判和误用到其他不可预见后果的一切影响。
Zillow可能已经通过基于可解释AI的平台阻止了事故——或者更好的是,取得了巨大的成功。这是关于AI透明度如何让用户更好地解释他们的数据模型所说的内容的入门读物,以及它如何成为负责任实践的关键组成部分,尤其是在“无代码AI”的使用爆炸并迅速改变社会各个方面的情况下。
无代码人工智能旨在将数据科学家的力量融入日常的乔和吉尔。工具正在兴起,人们可以在不知道如何编写代码的情况下构建自己的预测系统。因此,无代码人工智能有望加速采用和依赖该技术。
但随着这种扩散而来的是负责任地使用人工智能。可解释的人工智能是实现这一目标的方式。
为什么可解释的人工智能很重要
你会相信一个推荐治疗但不能说出原因的医生吗?如果她试图解释,如果她使用医学术语,你会有什么感觉?如果她不能指出临床试验或治疗有效的例子怎么办?信任人工智能系统并对其建议感到满意的工作方式相同。
可解释的AI是一组流程和方法,可让人类用户理解和质疑机器学习算法的结果。最终,它使人类能够信任人工智能所做的所有数据处理,因为人们可以理解它们的基础。
考虑一家银行对客户拖欠信用卡的可能性进行预测。如果违约的可能性太高,可能会提醒客户管理团队更仔细地审查案件或尝试联系客户。
理想情况下,人工智能平台会提供对这些预测的解释,因为客户会想知道他或她被标记的原因。公司还应根据数据和计算采取行动,以便采取正确的行动。(可以肯定的是,有时让人类专家进行判断甚至推翻模型是有空间的。)
重要的是要知道为什么要做出预测,以及场景是否在AI模型的预期使用范围内。这些是在您采取行动之前需要评估的关键项目。忽略这些类型的检查并盲目地接受结果是不负责任的-并且在财务上存在风险。
自适应人工智能系统随着新数据的出现而不断更新,尤其需要持续监控和审查。它们容易受到影响预测准确性的数据漂移的影响。
此外,用于训练AI模型的数据可能会无意中包含偏见,这些偏见随后会流入具有腐蚀性的预测结果。例如,在2017年,谷歌在其基于自然语言处理的分析工具对“同性恋”和“同性恋”等词给出负面情绪评分而对“异性恋”保持中性评分后道歉。一个最初旨在使NLP应用程序民主化的应用程序反而暴露了审查训练数据以消除预先存在的偏见的重要性。
监管审查
可解释的人工智能支持负责任的数据使用,这有助于解决围绕该技术的新兴企业责任和监管要求。欧盟严格的通用数据保护条例(GDPR)要求在使用人工智能时承担道德责任。违规可能意味着巨额罚款。
在美国,至少有17个州在2021年考虑了与人工智能相关的法案或决议,其中一些在阿拉巴马州、科罗拉多州、伊利诺伊州和密西西比州成为法律。随着人工智能融入更多运营,预计会有更多法规要求组织解释其模型背后的黑匣子中的内容。
一种解决方案是添加数据可视化和解释,以提供使AI值得信赖和负责任的必要背景和严谨性。数据可视化以图形方式描述信息,使其更易于解释。该技术还使查找数据集中的模式和趋势变得更加简单。随着无代码AI变得越来越流行,一个实用的AI平台提供了这些功能并提供了扩展能力。
回到我们的ZillowOffers示例,想象一下可解释的AI是否与可视化相结合并提供给Zillow Offers和Zestimate系统的消费者。这些见解可能会为错误的假设或有偏见的数据带来透明度。利益相关者会对这个预测性生态系统中上演的故事有更全面的了解。这些信息可以作为购买、出售和翻转房屋决策的重要帮助——提高业务的成功率。