沃卡惠移动端logo

沃卡惠  行业资讯

资讯详情

金融犯罪中基于人工智能系统的偏见和公平

2022-08-25 09:14:464636

在打击金融犯罪方面,存在的挑战超出了仅仅阻止欺诈者或其他不良行为者的范围。

一些正在推出的最新、先进的技术通常有自己的特定问题,在采用阶段必须考虑这些问题,以便在不受监管影响的情况下成功打击欺诈者。在欺诈检测中,当系统权重更大或缺少某些数据组或数据类别的表示时,可能会出现模型公平性和数据偏差。从理论上讲,预测模型可能会错误地将来自其他文化的姓氏与欺诈账户联系起来,或者错误地降低特定类型金融活动在人群中的风险。

金融犯罪中基于<a href=//www.luisamancera.com/ai/ target=_blank class=infotextkey>人工智能</a>系统的偏见和公平

当声誉可能受到影响时,有偏见的人工智能系统可能会构成严重威胁,并且当可用数据不能代表人口或探索现象时就会发生。该数据不包括正确捕捉我们想要预测的现象的变量。或者,数据可能包括人类产生的内容,这些内容可能包含对人群的偏见,由文化和个人经验继承,导致决策时出现扭曲。虽然起初数据可能看起来是客观的,但它仍然是由人类收集和分析的,因此可能存在偏见。

虽然在补救人工智能系统中的歧视和不公平的危险或永久解决构建机器学习模型和使用中的公平和偏见缓解问题时没有灵丹妙药,但这些问题必须考虑到社会和商业原因。

在AI中做正确的事

解决基于人工智能的系统中的偏见不仅是正确的事情,而且对企业来说也是一件聪明的事情——而且对企业领导者来说风险很高。有偏见的人工智能系统可能会通过不公平地分配机会、资源、信息或服务质量而导致金融机构走上错误的道路。它们甚至有可能侵犯公民自由,危害个人安全,或在被视为贬低或冒犯时影响一个人的福祉。

对于企业来说,了解人工智能偏见的力量和风险非常重要。尽管该机构通常不知道,但有偏见的基于人工智能的系统可能会使用有害的模型或数据,将种族或性别偏见暴露在贷款决策中。姓名和性别等信息可能成为以非法方式对申请人进行分类和识别的代理。即使这种偏见是无意的,它仍然会因不遵守监管要求而使组织面临风险,并可能导致某些人群被不公平地拒绝贷款或信贷额度。

目前,组织没有适当的措施来成功减轻AI系统中的偏见。但随着人工智能越来越多地在企业中部署以告知决策,组织努力减少偏见至关重要,这不仅是出于道德原因,而且是为了遵守监管要求并增加收入。

“公平意识”文化与实施

专注于公平意识设计和实施的解决方案将产生最有益的结果。提供者应该有一种分析文化,将负责任的数据获取、处理和管理视为算法公平的必要组成部分,因为如果人工智能项目的结果是由有偏见、受损或倾斜的数据集生成的,受影响的各方将无法充分保护免受歧视性伤害。

以下是数据科学团队必须牢记的数据公平要素:

代表性:根据具体情况,数据样本中弱势群体或受法律保护的群体的代表性不足或过多可能会导致在训练模型的结果中系统性地使弱势群体处于不利地位。为避免此类抽样偏差,领域专业知识对于评估收集或获取的数据与要建模的基础人群之间的拟合度至关重要。技术团队成员应提供补救方法,以纠正抽样中的代表性缺陷。

适合目的和充分性:了解收集的数据是否足以满足项目的预期目的很重要。数据集不足可能无法公平地反映应权衡的质量,以产生与AI系统预期目的一致的合理结果。因此,具有技术和政策能力的项目团队成员应合作确定数据量是否足够且适合用途。

源完整性和测量准确性:有效的偏差缓解始于数据提取和收集过程的一开始。测量的来源和工具都可能将歧视性因素引入数据集中。为了确保歧视性的无害,数据样本必须具有最佳的来源完整性。这涉及确保或确认数据收集过程涉及适当、可靠和公正的测量来源和稳健的收集方法。

及时性和新近性:如果数据集包含过时的数据,则基础数据分布的变化可能会对训练模型的泛化性产生不利影响。如果这些分布漂移反映了不断变化的社会关系或群体动态,那么这种关于基础人口实际特征的准确性损失可能会给人工智能系统带来偏见。在防止歧视性结果时,应仔细检查数据集所有元素的及时性和新近性。

相关性、适当性和领域知识:理解和使用最合适的数据来源和数据类型对于构建强大且公正的人工智能系统至关重要。对潜在人口分布和项目预测目标的扎实领域知识有助于选择最佳相关测量输入,从而有助于合理解决定义的解决方案。领域专家应与数据科学团队密切合作,以帮助确定最合适的测量类别和来源。

虽然基于AI的系统有助于决策自动化流程并节省成本,但将AI作为解决方案的金融机构必须保持警惕,以确保不会发生有偏见的决策。合规领导者应与他们的数据科学团队保持同步,以确认AI能力是负责任、有效且没有偏见的。制定支持负责任人工智能的战略是正确的做法,它还可能为遵守未来的人工智能法规提供一条途径。

Baidu
map