“通用人工智能”(Artificial General Intelligence, AGI)在2007年首次提出并使用,作为一种人工认知假设,目的是达到或超越人类智能,具有人类的情感和道德等能力。但目前的AGI连最基本的主观感知能力(包括生命力)也与人类有很大差距,更遑论其他高级认知。如果AGI坚持理性主义立场,非理性的东西就难以表征了,尤其是用符号表征。基于这种考虑,本文试图对AGI这个概念及其引发的几个重要问题进行哲学反思,希望能够引起人工智能研究者的注意。
通用人工智能意味着什么 AGI是人工智能发展到一定阶段的产物,它的一个假设性思想是:人工智能系统拥有合理程度的自我理解和自我控制属性,能在语境中解决复杂问题,并能通过学习解决新问题。AGI较之狭义人工智能优越许多,其通过大致上模仿人类通用智能的性质,试图达到一个通用智能系统应该具有的以下特点:(1)以不受领域限制的方式解决一般问题的能力,与人类的能力相当;(2)最有可能的是以特别的效率解决特定领域和特定语境下问题的能力;(3)以一种统一的方式将其更普遍和更专门的智能结合起来使用的能力;(4)从其环境、其他智能系统和教师那里学习的能力;(5)当获得解决新类型问题的经验时,它有能力变得更善于解决这些问题。 这些特点在方法上是拟人化的,是基于人类智能(模拟人类大脑和心智的功能)做出的。所以,人类智能仍然是人工智能最好的原型或模型。因此,智能系统的一个重要特征是,拥有一个能够学习的系统(自主和渐进式学习系统),在该系统中能够与环境和其他实体互动中学习。机器学习是AGI系统的核心方面。 这种自主学习能力实质上是一种适应性表征能力,智能就是自主系统宏观呈现的适应性表征。从适应环境的角度看,“智能是一个系统在知识和资源不足的情况下运行时,适应其环境的能力”。因此,AGI应该能够通过适应性表征模拟人类大脑、复制人类的行为、解决困难问题、执行认知功能和发展新的原理。 沃斯认为,智能可被简单地定义为一个实体实现目标的能力,更高的智能可以应对更复杂和更新奇的情况。通用智能的学习能力要具有自主性、目标导向性和高度适应性。适应性是处理不断变化和新要求的能力,它涵盖了从僵硬的、狭隘的特定领域到高度灵活的、通用的广泛领域,跨越物理、生物、社会和文化的不同层次。 根据这种看法,为了从各种不断变化的环境中积累知识,通用智能需要包括:从虚拟或现实世界获得特征的感受器;用以储存知识的存储器;适应性输出/行动机制(包括静态和动态的)的系统或装置。这意味着一个AGI系统可以学习并教会另一个智能系统大量的数据并赋予功能,可以适应不断变化的数据、环境和目标。按照这种能力要求,沃斯认为AGI要集中研究12个方面:(1)通用的认知能力;(2)获得的知识和技能;(3)双向的、实时互动;(4)适应性注意(聚焦和选择);(5)对动态模式的核心支持;(6)无监督和自我监督;(7)适应性、自组织的数据结构;(8)语境的、接地的概念;(9)明确的工程功能;(10)正向的概念设计;(11)一般概念验证;(12)动物层面的认知(低级认知)。这些方面可使AGI获得低级的认知能力,包括:记忆和识别表征现实的连贯特征的模式;通过各种相似性、差异性和关联性将这些模式联系起来;学习和执行各种行动;评估和编码来自目标系统的反馈;自主地调整其系统控制参数。 显而易见,拥有这些能力的AGI是一种感知层次的适应性表征智能,而抽象认知能力只有人类才有。在这个意义上,“通用智能”是基本感知和学习能力,而不是高级抽象思维。抽象思维能力反而是不“通用”和“普遍”的。正是基于这种观点,接下来的问题反思就是围绕感知和学习及其相关方面展开的。 通用人工智能如何预测和表征感知系统 “感知”是指在系统与其环境的互动过程中对感觉的组织和解释。感知过程通常被认为是一个多层次的概括或提炼,各种模块化的感觉信息被逐渐转化和整合为对环境的概念描述,用于执行各种类型的任务。感知一般具有如下三个特征:第一,主观性。感知是一个根据系统的当前需要进行的建构过程,感觉信息是利用系统现有的感知和概念来组织的。第二,主动性。感知不应该被看作是系统被动地处理用户或环境强加给它的感觉信息的过程,而是一个目标引导的过程,在这个过程中,系统通过执行自己的操作有选择地获取某些信息。第三,统一性。感知不应该被认为是由独立于其他认知过程的独立模块进行的,而应该被认为是与其他认知过程紧密纠缠在一起的。 在机器学习领域,将感知与行动结合是必然趋势。在感知过程中,自下而上的信号压缩和自上而下的预测将形成一个相互确认的过程。例如在非公理推理系统(Non-Axiomatic Reasoning System, NARS)中,这两个过程都是通过推理进行的。问题是,通过NARS实现AGI的算法预测和表征感知是否可行呢?建立何种通用算法才能得出如此广泛和多样的表征?算法的优势似乎也是其劣势,即无法表征广泛的简单数据。这就需要建构能够自我提升的智能体。根据适应性表征观,智能的核心是适应与表征,只要机器系统具备了这两种人类具有的能力,其具身性的目标就达到了。 通用人工智能是否必须拥有具身性 具身性对于生物智能是必要的,但对人工智能则未必。具身认知科学认为,如果没有具身性,智能体就不能通过经验来学习,而没有生物具身性的人工智能方法则认为,物理对象的表征只能通过理论方法来充分构建。 根据认知的具身观,与高、低水平过程相关的认知并不是在不同领域中处理的。认知具身理论表明,不仅相同的神经单元为行动和指代行动的语言提供了基础,感觉运动系统还为抽象概念提供了基础。这意味着,语言的理解是完全具身化的过程,计算机对自然语言的处理并不包含理解过程。正是由于AGI研究大多忽视了这个具身过程,所以人工智能系统没有理解力。 认知神经科学也表明,智能需要一个与世界互动的身体,具身性的感觉经验与认知密切相关。然而,就人工系统而言,生物的身体是根本不存在的,这种物质构成上的差异可能是造成人工智能系统没有生命和意识的关键,尽管我们说它有“智能”。事实上,这种“智能”是按照人类的智能概念来定义和理解的,我称之为“比附智能”(类比人得出的)。换句话说,AGI的实现不必是生物具身的,这种具身性就不是AGI的必要条件。 然而,问题依然存在。离身的AGI能够达到人类水平或超人类水平吗?按照具身认知观,这是不可能的。因为意识和高级智能(智慧)是生物现象,非生物的东西虽然可以有智能(专门功能),但不会有意识和智慧。AGI能否实现,有无必要,仍然是悬而未决的。 通用人工智能能否具有创造性 创造性可能是我们人类特有的能力,包括发散性思维和收敛性思维。AGI需要这两种能力吗?如何增强人工智能的创造力?这是人工创造力增强问题。 人类创造力增强的方法包括:变革性的批评和对立性、发散性思维训练;有意识地改变、主动遗忘、频繁进行大脑刺激以及感官扩展。当涉及具有非常高的视觉的人工创造过程时,人们会认为人工创造力是以原始形式存在的。当涉及好奇心和想象力时,语境因素是不可忽视的,而人工智能体没有语境。这就需要考虑社会认知,让人工智能具备社会认知能力。 进一步追问,AGI能否创造另一个更智能的AGI?在理想化的假设下,对于某种理论上的智能类型,没有外界辅助恐怕是不行的。这是父代AGI创造子代AGI的问题。该论证基于一个关键的假设——如果X没有外部帮助就创造了Y,那么X必然知道Y的源代码。这意味着AGI能够自己进行编码来产生更聪明的人工智能体。 基于AGI应该有能力编写AGI的信念,亚历山大提出一个更具体的结构用来更好地理解AGI。为了理解AGI的AGI-编程能力的本质,人们可以尝试“打印计算机程序的计算机程序”。这是一种直觉序数智能,即数学直觉。其逻辑根据是:假设X是一个真实的AGI,并且X以这样的方式创建了一个真实的AGI-Y,只要X知道Y的代码和真实性,那么|X|>|Y|。 由此看来,创造AGI需要从数学定律过渡到生物学定律。这就是奈特-达尔文定律和AGI的奈特-达尔文定律。如果AGI能够对AGI进行编程,那么奈特-达尔文定律表明AGI的一个基本方面是与其他AGI合作创造新AGI的能力。这似乎表明,不应该有唯我论的AGI,或者唯我论的AGI在繁殖能力上会受到限制。所以,多智能体系统的出现表明,机器智能的未来不会在没有其他智能体竞争或合作的情况下,能够在解决任务的单一系统中找到。 直觉序数假设与智能到底有什么关系?也许没有任何关系,智能本身是多维的。智能的核心成分包括模式匹配、创造力和概括能力。如果p是使用某些事实和技术获得的直观序数符号,那么任何使用这些事实和技术构建p的AGI,也应该能够迭代这些相同的事实和技术。而且,如果AGI拥有人类水平的智能,它就不能只是复制自己。如果一个真实的AGI知道自己的代码,那么它当然可以复制自己。但如果是这样,那么它必然不能知道该副本的真实性,否则它就会知道自己的真实性。哥德尔不完全定理的版本被改编为用于机械地知晓的智能体,意味着一个适当的理想化的真实AGI不能知道其代码和真实性。 总之,如果一个真实的AGI独立地创造了一个真实的AGI的后代,初代一定比后代有更大的直觉秩序智能。这使我们能够为AGI群体建立一个结构属性,类似于生物学中的奈特-达尔文定律。这就是生物学-数学启发的人工智能。 通用人工智能是否需要文化特征 如果生物学-数学启发的人工智能得以实现,那么AGI还需要文化介入吗?这是AGI的文化进化问题。事实上,人工智能是自然进化和有意识进化(文化进化)共同进化或协同进化的东西。AGI需要文化进化,因为文化特征是通用智能的一个重要方面,而且人工智能本身就是一种打上文化烙印的技术。 文化人工智能的目标是将人工智能技术的范围扩大到经过试验和测试的生物学-数学启发的算法之外的领域,特别是人文科学领域。从解释学来看,所有想法都是解释性的,它们试图使某种情况变得有意义。解释活动是解释学研究的心理活动,这是AGI的一个必要特征。与此对应,人工智能对函数和映射的依赖,使其难以支持具有持续存在的独立实体,持续存在需要具有时间维度的理解。而时间维度的理解是文化的特征,因此,AGI的实现应该离不开文化的介入,通用智能应该是基于文化的。 通用人工智能能否通过“图灵测试” 如果AGI能够实现,它就应该能通过“图灵测试”。埃菲莫夫从相互正交的两条轴(从言语到非言语,从虚拟到实体)确定了“类图灵测试连续体”,分析了图灵测试的连续性及其局限性,并形成了AGI发展的四个领域:虚拟世界中的言语互动;物理世界中的言语互动;虚拟世界中的非语言互动;物理世界中的非语言互动。这四个领域是2008年以后特别是近期发展起来的,也是最难掌握的,因为它最依赖于机器人、传感器和人工智能的发展水平。如果虚拟世界拥有外部环境的标准特征,那么现实就是无限的,并且导致偶然性增大,抽象性减弱。 埃菲莫夫总结说,过去70年来的每项测试都只是加强了“图灵墙”。这导致了人工智能在一个领域(虚拟世界的非语言)所掌握的人类知识和经验,无法转移到另一个领域(物理世界的非语言),因为它们最终被“图灵墙”隔开了。所以,目前的人工智能系统没有能力在两个以上领域学习和行动,所有这些问题都是图灵方法论的不足。 为此,埃菲莫夫提出了人工智能研究的后图灵方法论原则。第一,在我们的智能计算机概念中,我们应该拒绝拟人主义。创造能够像人一样进行推理和交流的人工智能,可能不是对图灵问题“机器能思考吗”的最有力的回答。第二,我们可以谈论计算机可用的各种形式和方法的认知。理想的情况是人工智能独立制定新的概念,并对自己的世界观进行有限的、安全的建模。第三,应该有多种与人类相同的交流形式。机器人应该努力实现的理想是涉及五种感官的情感色彩的交流。第四,机器人应该以初级伙伴的身份参与人类的社会实践,但仍然拥有能动性。后图灵方法论不需要对人类和机器的表现进行盲目比较,但要求人类和机器在学习和行动上有更高的整体表现。 埃菲莫夫提出的后图灵方法论可能为未来研究和工程努力打下了良好基础,因为它并不把人和机器对立起来,而是让人和机器互动的各个领域共同行动,这种方法将为人类提供更多的安全和保障。 概言之,在复杂的现实世界数据中训练的深度神经网络是非常难以解释的,因为它们的力量来自对大数据的粗暴插值,而不是通过提取高水平的规则。这会导致人们考虑人工智能系统的信任需求,从而引入自我解释的人工智能概念。 结语 目前,以ChatGPT为代表的各种大模型的人工智能生成内容(AIGC)已基本实现,但它们还不是认知意义上的AGI,计算表征仍然是它们的共同基础。从哲学上反思,AGI在本文探讨的五个方面尤其值得人们关注。这些问题既是哲学问题,也是人工智能理论、技术和工程要解决的问题。可以预计,如果这些问题解决了,AGI的实现就不再是问题了。