走钢丝:应对人工智能的风险和回报
人工智能最近的根本性转变与规模相关——人工智能模型现在可以访问海量数据集和强大的计算能力来进行训练。这就是为什么最新的人工智能工具和语言模型看起来像是科幻小说中的东西。现在的问题是:人工智能真的是一个能够最终统治和控制社会的潜在威胁吗?
嗯,很难想象这种威胁会成为现实。尽管如此,人工智能已经展示了其操纵和影响人类观点的潜力。由于出现的伦理和道德困境以及人们对人工智能失控的日益担忧,人工智能的受控和负责任的使用正在成为人工智能社区的一个核心挑战。一些技术梦想家呼吁暂停进一步的人工智能开发,至少在我们控制到位或了解其真正本质和潜在危害之前。
AI乐观主义者vs.AI悲观主义者
过去几个月人工智能的指数级增长意味着专家们无法充分分析人工智能的风险及其收益。这种不确定性导致人工智能行业出现了两个对立的阵营。一方面,我们有以比尔·盖茨等人物为首的人工智能乐观主义者,他们主张谨慎开发人工智能,并设置适当的护栏,以确保负责任的增长。另一方面,埃隆·马斯克和史蒂夫·沃兹尼亚克认为人工智能对人类构成重大威胁,并可能导致灾难性后果。
如果说有什么不同的话,那就是这场辩论强调了负责任的人工智能使用和开发的重要性。虽然人工智能有可能彻底改变世界,但重要的是要确保它的发展符合道德规范并考虑到人性。人们对这项技术的兴奋不应该让每个人都忽视潜在的风险,例如恶意行为者利用它进行恶意软件编码、创建深度伪造品、发起复杂的网络钓鱼活动以及传播错误信息或国家宣传。随着人工智能的进步,需要投资新工具并利用现有工具来安全、负责任地处理新技术。
监管人工智能的挑战
人工智能指数级增长带来的最大挑战之一是弄清楚如何对其进行监管。由值得信赖的权威机构来监管人工智能领域,而不是将关键决策留给个别技术人员并希望得到最好的结果,这一想法听起来令人放心。但在实践中,监管总是滞后于市场,而颠覆性技术的一大挑战是没有明确的路线图。当技术和市场仍处于起步阶段时,很难预测它们将如何发展以及可能产生什么影响。
目前,围绕人工智能开发和使用制定政策所需的技能组合也几乎不存在。具有计算机科学背景的人通常缺乏对政策、法律和其他相关方面的理解,而具有政策经验的人则缺乏跟上机器学习和人工智能快速发展所需的直觉。不幸的是,这个缺口不是一朝一夕就能填补的。技术专家或政策制定者需要数年时间才能掌握该领域有效监管所需的正确技能和知识。
早期发布和大规模部署的影响
对于公司来说,将一项新技术发布到公共领域始终是一个艰难的决定,尤其是当该技术仍处于起步阶段时。专家认为,过早发布如此强大的技术可能会带来安全风险,因为其许多用例仍然未知。另一方面,早期发布可以带来一定的好处,就像ChatGPT一样,它的公开发布和快速采用(两个月内拥有1亿用户)引发了关于人工智能的伦理、道德和负责任使用的有意义的对话。正是该技术的仓促大规模部署可能会引发重大的安全问题。
许多公司都在追随人工智能的潮流,旨在用技术取代人类。例如,IBM最近刚刚宣布可能计划停止招聘约30%可以用人工智能取代的非面向客户的职位。这种方法的问题在于,到目前为止,公司缺乏准确计算与部署这些模型并授予其大规模访问内部数据相关的风险所需的专业知识。在将任何新技术集成到业务流程中之前,组织必须彻底了解其影响并确保其足够成熟以最大程度地减少潜在风险。
另一个挑战是需要确保用于训练人工智能模型的数据的准确性和可靠性。当公司根据人工智能的数据驱动输出做出决策时,训练数据中反映的错误、失误,甚至人类固有的偏见,都会被放大。克服这一问题的一种方法是分析一段时间内人工智能支持的决策,以发现系统性问题。然而,该技术太新并且仍在不断发展,无法通过此类统计分析确定其可靠性和准确性。
为负责任的人工智能制定路线
人工智能的不成熟、未来的不确定性以及缺乏理论理解是负责任人工智能有效决策的一些主要挑战。最终,它需要来自各个行业和部门的研究人员、政策制定者和利益相关者之间的合作。企业目前必须集体放慢人工智能的采用速度,并仔细考虑其长期和直接影响。他们必须努力就如何解决人工智能的隐私、安全和道德问题达成共识,然后才能使其成为关键业务流程的主导部分。