人工智能精确度的进化
在创造任何真正的新技术的过程中,有两个连续的任务:创造一个理论概念和在实践中实现这个想法。在这篇文章中,我将说出为什么尽管有一个成熟的理论概念,但在实践中,我们离创造强大的人工智能仍然非常遥远的主要原因。
不惜一切代价避免错误
人工智能原型实际实现的第一个例子是在控制系统中,这是一种基于雷达数据自动引导高射炮的设备,由英国数学家在第二次世界大战期间创建。在这种系统中避免错误的愿望是完全合理的,但正如经常发生的那样,开始时的第一步对整个未来的道路具有决定性意义。
精确度的演变
实现人工智能概念的下一个重要步骤是弗兰克·罗森布拉特发明了一个简单而有效的人工智能建模工具:感知器。同时,尽管许多人认为感知器是人工智能的变体神经网络Rosenblatt自己认为他的发明只是一个研究工具,而不是一个能够思考的机器。
总的来说,基于连接主义的系统(感知器是这个方向上最成功的模型)在创造强大的人工智能方面非常接近正确的轨道。但对准确性的渴望和对错误答案的恐惧战胜了直觉,并最终导致了错误反向传播系统的产生——这最终将感知器变成了计算器。
自20世纪90年代初以来,出现了一种基于智能(理性)代理的基于代理的方法。根据这一概念,智能是使用条件符号(一种规划)的复杂数学计算,旨在实现为智能机器设定的目标。符号计算本质上是计算机代数或作为一系列常规符号的数学公式。
为了创造人工智能,我们越来越深入地研究计算和算法。
超级计算器的时代
(近几十年来)计算能力的显著提高已经结束了所谓的“人工智能发展的冬天“句号。现代神经网络依靠高性能的技术综合体,在信息的全面列举(处理)的帮助下工作。由于这一点,现代人工智能系统可以根据非常小的特征对数据进行分组,然后依次将这些组与分析所需的参数进行比较。
这种方法造成了学习的错觉。例如,在阿尔法归零一个国际象棋程序,甚至不知道游戏规则,在21天的独立工作中,通过一个以前玩过的游戏的数据库,成功超越了人类中国际象棋技能的领导者。
与此同时,一些科学家(诺姆·乔姆斯基非常清楚地描述了这一立场)明白,正是因为完全依赖统计方法,我们在创造人工智能方面的发展矢量正朝着错误的方向前进。
用寓言的语言来说——不管我们喜不喜欢,但试图创造AI,我们还是在“指挥高射炮”。
问题的根源或者为什么记住形式不等于内容很重要
大脑由看起来像网络的神经元组成这一事实并不意味着我们的新皮层像一个技术神经网络一样工作。我还要说更多——我们的大脑一点也不害怕犯错,也不寻求表现出准确性。
为什么?
因为事实上我们的大脑不像计算器一样工作,根本不做任何计算。当我们比较睡眠时和复杂脑力任务时大脑的能量平衡时(能量消耗几乎不变,因此不可能通过脑力劳动减肥),这一点尤其明显。
我们的学习过程是关于记忆确切的答案,而不是与分析和参数一起工作。我们的智力与预先知道的正确答案周旋,这种预定数据的巨大数量和普遍性产生了涌现效应——从表面上看起来像是深度分析思维。这就是为什么多年来我们每个人都是天真和无能的孩子。为了学习如何做新的事情,我们必须长时间艰苦地重复。
我们智力的工作可以比作一个飞轮,它在我们童年时慢慢旋转,直到死亡也一刻不停。正是因为这个原因,我们即使在睡梦中也会思考。
我们的大脑做出决策不是基于数据处理,而是基于之前决策的经验。让我们与机器如此不同的情绪和体验,很难用算法的语言来描述,但基于一个简单的“喜欢或不喜欢”的选择,很容易形成。
还记得我们在文章开头的论点——“理论模型和实际实现。”我们无法建立人工智能,因为我们建立了错误的理论模型。在旅程的最开始,我们不幸拐错了路,忘记了形式不等于内容。
创造强大人工智能的正确方式或方法
不是计算,而是数百万次决策的经验创造了智慧。而且不要让经验这个词误导你,经验并不是算法工作的结果——它只是知道答案(不一定是正确的)。
一个小孩子不会分析父母行为的参数——他只是重复并记住做什么和怎么做。因此,只有在一个过程的帮助下,AI才能在智力上变得像我们一样——与活生生的人脑直接接触的连续流学习(事实上是复制)。
因此,在脑机接口没有它就不可能创造出强大的人工智能。但是新的个人人工智能的软件块将会很不寻常。
如果几种加速旁路技术可以应用,很可能第一个工作原型的个体人工智能很快就会出现。无论如何,这正是我目前努力的方向。