沃卡惠移动端logo

沃卡惠  行业资讯

资讯详情

可解释性可以解决每个行业的人工智能问题

2022-12-21 09:56:204636

在其初期阶段,人工智能可能已经能够满足于新鲜事物的桂冠。机器学习可以慢慢学习并保持一个不透明的过程,在这个过程中,人工智能的计算对于普通消费者来说是不可能渗透的。这正在改变。随着医疗保健、金融和刑事司法系统等越来越多的行业开始以对人们生活产生真正影响的方式利用人工智能,越来越多的人想知道算法是如何使用的,数据是如何获取的,以及只是它的能力有多准确。如果公司想保持在市场创新的最前沿,他们需要依靠受众信任的人工智能。人工智能的可解释性是加深这种关系的关键因素。

可解释性可以解决每个行业的人工智能问题

AI 的可解释性不同于标准的 AI 程序,因为它为人们提供了一种理解机器学习算法如何创建输出的方法。可解释的人工智能是一个可以为人们提供潜在结果缺点的系统。这是一个机器学习系统,可以满足人类对公平、问责制和尊重隐私的渴望。可解释的人工智能对于企业与消费者建立信任至关重要。

在 AI 不断扩展的同时,AI 供应商需要明白黑匣子做不到。黑盒模型是直接根据数据创建的,通常即使是创建算法的开发人员也无法确定是什么驱动了机器的学习习惯。但是尽职尽责的消费者不想参与如此难以理解以至于无法追究责任的事情。人们想知道 AI 算法如何在没有输入源和受控输出之谜的情况下得出特定结果,尤其是当 AI 的错误计算通常是由于机器偏差造成的。随着 AI 变得越来越先进,人们希望访问机器学习过程以了解算法如何得出其特定结果。每个行业的领导者都必须明白,迟早,

语音助手、转录技术和其他将人类语音转换为文本的服务等 ASR 系统尤其容易受到偏见的困扰.当服务用于安全措施时,由于口音、年龄或背景而导致的错误可能是严重的错误,因此必须认真对待这个问题。例如,ASR 可以有效地用于警察随身摄像头,以自动记录和转录互动——保留一份记录,如果转录准确,可以挽救生命。可解释性的实践将要求 AI 不仅依赖于购买的数据集,而且还试图了解可能导致错误(如果存在)的传入音频的特征。声学概况是什么?背景有噪音吗?说话者是来自非英语国家还是来自使用 AI 尚未学习的词汇的一代人?机器学习需要积极主动地更快地学习,它可以从收集可以解决这些变量的数据开始。

必要性越来越明显,但实施这种方法的途径并不总是有一个简单的解决方案。该问题的传统解决方案是添加更多数据,但需要更复杂的解决方案,尤其是当许多公司使用的购买数据集存在固有偏差时。这是因为从历史上看,很难解释人工智能做出的特定决定,这是由于端到端模型的复杂性。然而,我们现在可以,而且我们可以首先询问人们是如何失去对 AI 的信任的。

人工智能不可避免地会犯错误。公司需要构建能够意识到潜在缺陷的模型,确定问题发生的时间和地点,并创建持续的解决方案以构建更强大的 AI 模型:

当出现问题时,开发人员将需要解释发生的事情并立即制定改进模型的计划以减少未来类似的错误。

为了让机器真正知道它是对还是错,科学家们需要创建一个反馈回路,这样人工智能才能了解它的缺点并进化。

ASR 在 AI 仍在改进的同时建立信任的另一种方法是创建一个可以提供信心分数的系统,并提供 AI 信心不足的原因。例如,公司通常会生成从 0 到 100 的分数,以反映他们自己的 AI 的缺陷并与客户建立透明度。将来,系统可能会通过提供更多关于音频的元数据(例如感知到的噪音水平或难以理解的口音)来对音频具有挑战性的原因提供事后解释。

更高的透明度将使人类更好地监督人工智能的训练和表现。我们对需要改进的地方越开放,我们就越有责任对这些改进采取行动。例如,研究人员可能想知道为什么输出了错误的文本,以便他们可以缓解这个问题,而转录员可能想要有关 ASR 为何误解输入的证据,以帮助他们评估其有效性。让人类参与进来可以缓解人工智能不受控制时出现的一些最明显的问题。它还可以加快 AI 实时捕捉错误、改进并最终纠正自身所需的时间。

人工智能有能力改善人们的生活,但前提是人类能够正确地生产它。我们不仅要让这些系统负责,还要让创新背后的人负责。预计未来的人工智能系统将遵守人们制定的原则,只有到那时,我们才会拥有人们信任的系统。现在是时候奠定基础并为这些原则而奋斗,而最终仍然是人类为自己服务。

Baidu
map