如何预防人工智能项目中常见的法律纠纷
人工智能 (AI) 的增加使用正在彻底改变企业的运营方式,并对传统上现代化进程缓慢的行业产生颠覆性影响。为企业投资人工智能的好处是显而易见的。人工智能可以提高生产力并增加新的熟练程度和可扩展性,并且可以进行定制以创造特定于行业的价值。
尽管有这些好处,但在技术项目中使用人工智能可能会导致复杂且有时意想不到的争议。这些项目通常是随项目进展而发展的定制协议。因此,当项目遇到困难时,要确定哪里出了问题并确定人工智能在引起争议的问题中可能发挥的作用可能具有挑战性。
增加了人工智能硬件的复杂性
如今,机器学习正被用于更多种类的技术项目中。深度学习系统使用神经网络,需要大量的技术资源来运行、训练和生成决策、预测和发现类比。
传统系统和标准图形处理单元不太可能跟上对 AI 工具和服务不断增长的需求——增加了对希望使用 AI 的客户和供应商投资专门设计的 AI 硬件的需求,例如 Graphcore 的最近发布的“Bow”人工智能芯片据称能够将机器学习任务的性能提高 40%。
对专业硬件的需求可能会增加与利用人工智能相关的成本,并且还会增加发生争议的可能性,因为在制造、运输和安装阶段出现问题的机会更多。这很容易导致关键项目里程碑的实现延迟,进而可能触发延迟付款等补救措施,在最极端的情况下,还会终止合同。
技术项目通常会涉及多个利益相关者。实施人工智能解决方案所需的额外步骤的结果是,很难确定谁应对故障和延迟负责,无论是供应商、客户、第三方还是两者兼而有之。如果从一开始就没有很好地界定各方的角色和责任,就会引发一系列纠纷。
这些通常是违反与供应商和客户之间的协议有关的合同纠纷,以及可能与签订制造、运输和安装专门设计的人工智能硬件的第三方签订的各种合同。
确定责任
虽然人工智能系统使用的映射过程是自动化的,但设计、初始训练数据和通过系统训练模型的进一步数据由人工操作员控制。因此,人类可以看到人工智能工具开始使用的数据(输入),以及工具产生的结果(输出)。
介于两者之间的情况通常被称为“黑匣子问题”——在添加输入数据后,更改底层 AI 系统可能非常困难,而且通常不会透明或解释如何或为什么模型产生了特定的输出。
这种缺乏透明度可能会造成复杂的责任问题,尤其是目前部署在技术项目中的主要人工智能工具和服务具有足够的自主性,可以在没有太多人工干预的情况下运行。因此,当人工智能系统故障直接导致损失发生时,要确定谁承担责任要困难得多,故障可能是由于技术故障或模型设计和训练方式中的人为错误造成的。
人类参与创建人工智能工具或服务意味着人类偏见很可能会反映在输入数据、训练数据和人工智能系统产生的输出中。算法偏差可能出现在许多不同的环境中,并可能导致各种形式的歧视。
在金融服务环境中,人工智能系统的偏见可能导致资产估值错误,进而导致错失投资机会。使用面部识别技术引起的歧视也有几个引人注目的例子,其中性别和种族等特征以及社会评分系统的使用是该技术的使用和感知准确性所固有的。
管理人工智能解决方案合同中的风险
客户和供应商必须清楚项目的主要目标,以及使用人工智能实现这些目标的方式,这一点至关重要。缔约方应确保有一个全面的协议来管理项目并在出现问题时提供确定性,特别是在任何责任限制方面。
协议至少应包括涵盖机密性、责任、数据保护和知识产权的详细条款。在没有专门的人工智能立法的情况下,这些领域目前可以自由协商。然而,应该注意的是,合同标准正在制定中——例如,知识产权条款将始终声明供应商拥有人工智能中的知识产权,而客户拥有使用它的许可。
通过确保各方清楚各自的角色和谁承担风险,可以缓解与专门设计的人工智能硬件相关的问题。该协议还应规定支持项目的治理结构,并明确第三方关系和依赖关系将如何管理以及由谁管理。
人工智能的使用意味着典型的责任框架可能不适合。签约在技术项目中使用人工智能工具或服务的各方应确保从一开始,协议就包含人工智能特定的保证、赔偿和限制条款。
这些术语应针对将部署 AI 工具或服务的特定环境进行定制。该术语越笼统,就越难确定是否满足特定标准并确定责任。由于输出与最初的人工输入(前面提到的黑盒问题)过于脱节,在涉及人工智能的情况下,通用服务标准(例如合理的技能和护理)不太可能是足够的。
因此,缔约方将需要起草创造性保证,例如,规定人工智能工具的行为方式应与具备适当能力和经验的人在提供服务时运用合理技能和谨慎行事的方式相同。
同样,人工智能解决方案的购买者可能希望包含用于训练人工智能的数据集没有歧视性、不违反数据保护原则或人工智能不会侵犯第三方知识产权的保证。
在合同谈判阶段应仔细审查责任限制和赔偿条款,以确保在人工智能发生灾难性故障导致重大第三方索赔的情况下,一方不会承担不成比例的责任。
这些问题与人工智能的用途高度相关,因此缔约方应与其利益相关者、顾问、律师和其他专家接触,以帮助他们驾驭这一复杂领域。
缔约方还需要了解与算法偏差相关的风险,并应寻求建立内部指导方针、流程和控制措施,以最大限度地减少和解决有偏见的人工智能系统可能导致的歧视和数据隐私风险。有效的内部治理框架可以帮助从初始数据集中识别任何不合理的偏差,也可以标记任何歧视性输出。
不断变化的监管格局
尽管人们普遍认为需要人工智能监管,但目前还没有就如何实现这一点达成广泛共识。
2021 年 4 月,欧盟委员会发布了人工智能法规草案。欧盟没有选择涵盖所有人工智能系统的全面监管,而是选择采用基于风险的方法来区分人工智能的不可接受风险、高风险和低风险使用。
监管干预的程度取决于人工智能工具或服务属于哪一类风险。客户和供应商都应熟悉法规草案,并确定他们是否正在使用或打算使用具有不可接受风险的人工智能(因此禁止使用人工智能工具或服务),或者他们是否可能受到以下因素的影响提供高风险人工智能系统的要求。
未能解释法规草案可能会导致违规处罚,最高可达全球年营业额的 6% 或 3000 万欧元(2960 万美元),以较高者为准。
条例草案的地域范围集中在人工智能系统的影响是否发生在欧盟内部,而不是人工智能提供者或用户的位置。
今年 7 月,英国政府发布了一份政策文件,题为“建立一种支持创新的方法来监管人工智能”。本文以英国的国家人工智能战略为基础,阐述了政府对英国未来人工智能监管的建议 英国的人工智能监管方法旨在展示政府在脱欧后支持创新的监管立场,因为它的目标是相称,轻触和前瞻性,希望这将推动创新和投资的发展。
虽然欧盟的人工智能法规草案将人工智能的使用按风险级别分类,但英国并未寻求对人工智能的特定用途进行分组,而是选择依赖六项核心原则,这些原则将要求人工智能开发人员和用户
- 确保安全使用人工智能;
- 确保人工智能在技术上是安全的并按设计运行;
- 确保人工智能具有适当的透明度和可解释性;
- 考虑公平;
- 确定负责人工智能的法人;和
- 阐明寻求补救或可竞争性的途径。
此外,与欧盟采用的集中式方法相比,英国的提案将允许不同的监管机构,例如 Ofcom、竞争市场管理局(CMA)和信息专员办公室(ICO),来解释和实施六项核心原则,并采用量身定制的方法来解决人工智能在一系列行业中日益增长的使用。
人工智能系统的开发人员和供应商还应该了解数字监管合作论坛 (DRCF) 最近发表的关于算法处理的论文(其中包括人工智能应用程序,例如由机器学习驱动的应用程序)。
该论文指出,虽然算法处理有可能带来显着的好处,但如果不负责任地管理,它也会带来一些风险。为了管理这些潜在危害,DRCF 建议可以通过增加使用监管沙箱(例如金融行为监管局 (FCA) 的数字沙箱)来实现更加亲力亲为的合作干预策略。
在这种策略被证明无效的情况下,该文件建议监管机构可以诉诸权力,对那些不遵守规定并造成伤害的人采取执法行动。
因此,签约在技术项目中使用人工智能工具或服务的各方应努力了解最新的人工智能监管发展,以确保他们了解自己的角色和责任,并了解他们可能面临的监管干预水平。
总之,通过采取上述步骤,认识到并减轻技术项目中使用人工智能的潜在风险的客户和供应商,很可能会获得人工智能的诸多好处。那些未能尽早采取行动以合同方式保护自己的人很容易发现自己陷入与本文中类似问题的技术纠纷,以及更多特定于项目的纠纷。
同样,各方必须在项目的早期阶段考虑人工智能监管的各种提议,以确定适用的监管框架,并评估是否需要进行合同变更以解释人工智能监管的发展。