机器意识能否实现?来自人脑的启发


机器意识能否实现?来自人脑的启发

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

来源:CreateAMind
Isartificialconsciousnessachievable?Lessonsfromthehumanbrain
《人工智能意识是否可实现?来自人脑的启示》
https ://www.sciencedirect.com/science/article/pii/S0893608024006385
摘要
我们在此从进化的角度分析开发人工意识的问题,以人类大脑的进化及其与意识的关系作为参考模型或基准。这种分析揭示了人类大脑的若干结构和功能特征,这些特征似乎是实现类人复杂意识体验的关键,当前的人工智能(AI)研究在试图开发具备类人意识处理能力的系统时应予以考虑。我们认为,即使人工智能在模拟人类意识方面受到限制,无论是由于内在原因(即结构和架构上的限制)还是外在原因(即当前科学技术知识的局限性),借鉴那些使类人意识处理成为可能或对其产生调节作用的大脑特性,仍是一种具有潜在前景的策略,可推动意识AI的发展。
此外,从理论上不能排除人工智能研究可能开发出部分或替代形式的意识,这些意识在质量上与人类的意识形式不同,并且可能根据不同的视角而表现出更高的复杂性或更低的复杂性。因此,我们建议在讨论人工意识时采取受神经科学启发的谨慎态度:由于将“意识”一词同时用于人类和AI可能会引起歧义并导致潜在误导,我们建议明确说明人工智能研究旨在开发何种层次或类型的意识,以及人工智能的意识处理与人类意识体验之间有哪些共同点和差异。
关键词:大脑意识人工智能神经形态计算机器人技术认知神经科学
1.引言
自亥姆霍兹(Helmholtz)、杜布瓦-雷蒙(DuBois-Reymond),甚至弗洛伊德(Freud)在1842年庄严宣誓“生物体内除了普遍的物理化学力量之外,没有其他力量在起作用”以来,科学界广泛认同大脑是一个“物理化学系统”,而“意识”是其最复杂精妙的特征之一。尽管对这一现象的具体解释尚无共识,但可以推测,从理论上讲,迟早可以通过物理化学方法人工模拟大脑的功能,包括意识。然而,这种情况类似于“试管中的生命”问题——即使对于最简单的生物体,尽管其所有分子成分都已知,但至今无人能够从其分离的组分重新构建出一个活的有机体。这一问题不仅是理论上的,更重要的是实践上的难题。
开发人工意识形式的可能性正逐渐成为神经科学、机器人技术、人工智能(AI)、神经形态计算、哲学及其交叉领域研究者和普通公众心中的现实可能性(Blum&Blum,2023,2024;Butlinetal.,2023;LeDouxetal.,2023;Oliveira,2022;VanRullen&Kanai,2021)。人工意识处理的挑战也引发了社会和伦理方面的担忧(Farisco,2024;Fariscoetal.,2023;Hildt,2023;Metzinger,2021)。因此,从多学科角度批判性评估开发人工意识处理的可行性,并分析这一概念可能的含义,显得尤为及时。最近已有相关的尝试提出(Aruetal.,2023;Godfrey-Smith,2023;Seth,2024)。
当前关于人工意识处理在理论上是否可设想以及技术上是否可行的讨论,首先受到“意识”一词语义模糊性和多义性的影响。这包括现象学(即主观的第一人称体验)与潜在生理学(即第三人称对意识的访问)之间的区别(Evers&Sigman,2013;Fariscoetal.,2015;Levine,1983),以及有意识表征与无意识表征之间的基本区分(Piccinini,2022)。此外,意识处理的意义可能因分析背景的不同而有所变化,并具有不同的维度,这些维度可能表现出不同的层次,从而形成不同类型或模式的意识处理(Bayneetal.,2016;Dung&Newen,2023;Irwin,2024;Walter,2021)。从词源上看,“意识”源自拉丁文“conscientia”,意为“共同的知识”(cumscire),在自信与共谋之间摇摆,直到经典定义“人类捕捉自身现实的能力”(Malebranche,1676),或神经精神病学家亨利·艾(HenriEy)所描述的“主体对客体的认识以及客体对主体的反向参照”。因此,个体既是其认知的主体,也是其作者。拉马克(Lamarck)在1809年提到一种某些动物甚至人类特有的能力,他称之为“sentimentinterieur”(内在感受)。更近一些,内德·布洛克(NedBlock)提出了“通达意识”与“现象意识”的区分:通达意识指不同心理状态之间的互动,尤其是某种状态的内容可用于推理并合理指导言语和行动等能力;现象意识则是特定体验的主观感受,即“处于某种状态是什么样的感觉”(Block,1995)。因此,认知与主观体验是有意识处理的两个核心组成部分,其基本定义可以概括为“对身体、自我和世界的感官觉察”(Lagercrantz&Changeux,2009),包括“内在的、定性的、主观的感受或觉察状态与过程”(Searle,2000)。在个体层面上,有意识处理的具身化成分还包括表达情感、记忆、符号、语言、自传式报告和心理时间旅行的能力,以及内省并报告自身心理状态的能力;在社会层面上,则包括持续的个体间互动,这种互动使人们能够获得各种社会关系,如同情和共鸣(Lagercrantz&Changeux,2009)。
在目前提出的众多理论和计算机科学模型中,据我们评估,没有一个模型能够涵盖人类高级脑功能的整体物种特异性方面(vanRooijetal.,2023)。于是问题出现了:这些模型是否能在进一步发展后达到这些方面,还是差距不可弥补?与此同时,越来越多的公民面对着人工智能对人类行为(包括有意识处理)的模拟,并对此感到担忧(Lenharo,2024):人工意识系统的前景可能会对人类的自我理解产生影响,例如,如果人工智能取代了需要意识能力的任务,人类将如何应对?因此,有必要用实际的人类大脑组织、认知和行为表现来检验人工智能模型。问题是:是否存在任何理论上的计算机科学表征能够导致类似人类的人工意识系统?机器能否发展出类似人类的意识,或者是一种不同的意识形式,抑或根本无法发展出意识?人工意识的概念是否有意义,如果有,又是怎样的意义?借用伏尔泰的话:机器能觉醒吗?
在过去几十年中,许多模型主要由神经科学家提出,目标更为谦逊:从已知的解剖学和生理学模块出发,重建神经系统的基本功能(如水蛭的游泳行为(Stentetal.,1978)或七鳃鳗的行为(Grillneretal.,1995))。其中一些模型甚至被设计用于模拟更复杂的认知任务,例如威斯康星卡片分类任务(Dehaene&Changeux,2011)以及痕迹条件反射与延迟条件反射(Groveretal.,2022)。有必要进一步发展人工智能、哲学和神经科学之间的接口,这一领域的合作迄今为止已经带来了相互的认识论和方法论丰富(Alexandreetal.,2020;Fariscoetal.,2023;Floreanoetal.,2014;Floreano&Mattiussi,2008;Hassabisetal.,2017;Momennejad,2023;Poo,2018;Zadoretal.,2023)。事实上,尽管这些合作意义重大,但仍不足以解决人工意识的问题。关键且仍然悬而未决的问题是:需要考察和解释哪些人工智能与大脑之间的具体相似点和差异点,才能更适当地接近人工意识处理?换句话说,基于我们对人类大脑中意识处理的了解,哪种“描述层次”适合于建模甚至生成人工意识处理?
此外,在神经科学领域,“意识”一词仍然定义不清,正如我们将看到的那样,人类的意识处理并非一个全或无的不可化约特性,而是逐步发展的(Changeux,2006,2017;Lagercrantz&Changeux,2009;Tomasello,2022;Verschure,2016)。鉴于这些可能的发展阶段,人工智能试图开发人工意识处理时,应明确选择其中哪一个阶段(如果有的话)。
在这篇文章中,我们希望在现有生物学大脑知识的背景下重新评估人工意识的问题,采取一种务实的方法,探讨开发人工意识的可设想性和可行性,并以人类大脑作为参考模型或基准。我们的目标是补充近期在此方向上的尝试(Aruetal.,2023;Godfrey-Smith,2023),通过对人类大脑在进化过程中多层次生物复杂性的综合分析,不仅为了推进对意识处理本身的理解,还为了最终启发旨在开发人工意识处理的正在进行的人工智能研究。因此,我们的目标既具有理论性和哲学性,也高度实用,作为一个工程问题:我们回顾了一些科学证据,这些证据涉及大脑中对人类意识的关键促成或调节(或两者兼有)的特征,并主张从这些特征中汲取灵感,以推动开发有意识的人工智能系统。
我们并不声称开发人工意识必须整合人类大脑中有意识处理的机制。事实上,我们承认,理论上不能排除与大脑机制不同的人工意识特征的存在。我们建议的是,将目前已识别的大脑中有意识处理的机制作为基准,以便从实用的角度推进能够模拟人类意识处理可及特征的人工模型的构建。鉴于围绕构建与大脑机制无关的人工意识的可能性存在高度争议,以及由此可能导致过于抽象的观点而缺乏实证数据支持的风险,我们认为从意识的生物学出发是一种更具生产力的策略。
然而,我们可以提出的一个问题是:首先追求人工意识对科学或整个社会有什么好处?对此有多种可能的答案。在认识论层面上,与中世纪经院哲学的观点一致(例如保罗·瓦莱里(PaulValéry)重申的观点:“我们只能理解我们能够构建的东西”),很明显,构建某些具体意识处理特征的人工模型,最终或许可以让我们更好地理解生物意识,无论是从相似性还是差异性的角度来看。在技术层面上,人工意识的发展可能会成为人工智能领域的游戏规则改变者,例如赋予人工智能意图性和“心智理论”的能力,以及预测其自身“行为”后果的能力。在社会和伦理层面上,尤其是最后一点,可以说有助于人工智能更好地向人类告知其对社会潜在的负面影响,并帮助避免这些影响,同时促进积极影响。当然,从消极的一面来看,机器中的意图性未必比人类的意图性更有利于人类利益,因为人类的意图性也未曾特别有利于外群体个体、其他物种,甚至整个地球的利益。这确实是一个值得深入分析的讨论,但超出了本文的目标范围。
接下来,我们将总结与本讨论特别相关的人类大脑的进化、结构和功能特性(有关近期概述,参见(Barronetal.,2023))。在此基础上,我们将阐述大脑可能为当前人工智能研究带来的启发,以推动人工意识系统的发展。
最后,关于开发人工意识的可设想性和可行性,我们将区分以下几点:
(a)人类意识的可复制性(我们认为这是不可能的,至少在当前人工智能发展的状态下如此,这一立场几乎没有争议);
(b)开发一种具有某些相似性但仍与人类意识截然不同的人工意识处理的可能性(我们原则上不排除这种可能性,但由于概念和实证原因,认为其实现难度较大)。
最终,本文从选择性地审视脑科学数据出发,旨在提出一种不同于当今主流方法的人工智能意识研究路径。这种方法可以被归类为基于理论的方法,因为它并非依赖实验数据,而是基于先验科学理论的选定组成部分,然后将其应用于人工智能系统(Butlinetal.,2023)。相反,我们的方法是从经验上确立的、直接与人类意识相关的大脑机制和过程出发,从中推导出硬件构建模块或算法,这些模块或算法可能是相关甚至必要的(即使不一定是充分的),以推动人工意识处理的发展。
2.人工智能在理解大脑方面的启发程度与方式
2.1计算模型
前苏格拉底时期的希腊哲学家已经指出,任何对现实的描述都是由人类(我们的大脑)通过模型构建的,而这些模型必然受到物理限制(Changeux&Connes,1995)。这也是逻辑上的限制。正如康德所言,我们所有的经验都不可避免地依赖于我们自身有限的视角,而这些视角是我们永远无法超越的。这意味着,从某种意义上说,我们是自己大脑的“囚徒”(Evers,2009)。换句话说,由于我们的有限性以及大脑生成模型时受到的物理约束,我们在认识论上是受限的。因此,包括基于计算模型的人工智能在内的任何数学建模,都无法提供对现实(无论是物理现实还是生物现实)的“详尽”描述。问题在于,假设像意识处理这样的大脑功能/特性可以在不同的物理结构(无论是生物的还是人工的,即功能主义)中以完全相同的方式实现,这种模型在多大程度上能够部分或完全描述或模拟大脑(例如,生成关于人类意识的可测试假设,如全局神经工作空间理论及其实验验证(Mashouretal.,2020b)),尽管目前所有生物学的大脑模型都只是对神经科学数据及其实际生物复杂性的过度简化(Chirimuuta,2024)。但这并不否认,即使在细节数量有限的情况下,大脑模型仍然可能是有用且适当的,这取决于所建模的大脑的具体方面以及相关描述层次。理论上讲,例如,并非所有低层次的细节都是必要的,以便重现、预测或模拟某些高层次属性,因此系统的高层次描述可能提供更相关且更充分的信息(Hoel,2017;Rosasetal.,2020)。然而,如果目标是对整个大脑进行全面描述甚至模拟,那么任何计算模型都将不足以实现这一目标(Fariscoetal.,2018)。
一些功能主义哲学家否认低层次神经组织对意识处理模拟的相关性(Butlinetal.,2023)。最近,彼得·戈弗雷-史密斯(PeterGodfrey-Smith)提出,两个系统的功能相似性是一个程度问题(即,它取决于需要以粗粒度或细粒度方式理解系统的程度)(Godfrey-Smith,2023)。关键点在于,复制像意识处理这样的实体所需的相似性程度是什么。“多重可实现性”是指相同的认知能力可以通过具有不同物理架构的系统表现出来(Cao,2022)。这一观点受到了质疑。例如,继内德·布洛克(NedBlock,1997)之后,罗莎·曹(RosaCao)最近提出,严格的功能主义对底层物理结构施加了相当严格的限制,而不是最终允许多重可实现性。事实上,复杂的整合功能(如意识)比可以分解为简单独立功能的功能需要更多的约束条件,包括在细粒度层面上的约束(Cao,2022)。
其他关于意识的理论对功能主义和多重可实现性持某种模糊的批判立场。例如,整合信息理论(IIT)(Albantakisetal.,2023)就是一个例子。IIT将意识处理与“整合信息”联系起来(即,一个元素复合体生成的信息量,超出其各部分生成的信息之和)。内在信息被定义为在一个系统内部产生差异的因素。意识处理最终等同于内在信息:一个系统如果有超出其组成部分的信息生成能力,并且独立于外部观察者或解释者,则该系统是有意识的。这就是为什么根据IIT,“大脑的数字模拟不可能是有意识的”,无论是在原则上还是实践中都不可能。另一方面,一个用硅制成的神经形态计算机可能有意识,因为它可以由本质上存在的类似神经元的元素组成,并且具有与我们类似的因果结构(即,因果效应库)(Tononi,2015)。
因此,IIT反对功能主义,主张在埃德尔曼(Edelman,1992;Tononi&Edelman,1998)的精神下,仅关注功能而忽视物理结构无法解释意识(Tononi,2015)。特别是,回传过程对于解释意识至关重要:只有具备反馈环路的系统才能整合信息,而前馈系统则无法成为有意识的。因此,IIT不是功能主义的,因为它强调了信息生成和整合(即意识处理)所需的物理组件的关键作用。此外,根据IIT,一个功能类似于有意识人类的系统,只有在其使用与人类相同的架构(即回传架构)时才是有意识的。尽管IIT并非功能主义,但它最终承认在不同系统中复制意识的可能性。
2.2人工神经网络
从人工智能的早期阶段开始,皮茨(Pitts)和麦克洛克(McCulloch)就提出了理想化人工神经元网络的概念(McCulloch&Pitts,1943)。连接主义计划随后受到马文·明斯基(MarvinMinsky)开创性批评的影响(Minsky&Papert,2017),之后逐渐回归,并在最近迎来了人工神经网络(ANNs)的使用和流行爆炸式增长(LeCunetal.,2015)。数十年的计算机研究在此基础上发展,从简化的架构到复杂的架构,从单层到多层人工神经元——从感知器到深度学习(LeCunetal.,2015),再到大型语言模型(LMMs)中数十亿参数的规模(例如ChatGPT)。不仅是符号主义方法(“传统的老式人工智能”或GOFAI,包括纽厄尔和西蒙创建的“逻辑理论家”),这种方法在人工智能研究的初期占主导地位,旨在以高层次功能方式复制智能的逻辑方面,而忽略了底层的大脑机制;最终,即使包含对大脑的某些参考,人工神经网络计划也无法完全解释大脑架构的复杂性(Moulin-Frieretal.,2016)。
事实上,人工神经网络中提到的“神经元”概念(即模拟生物神经元的数学函数)远比其生物对应物简单。例如,皮质锥体神经元的基底树突和顶树突区域分别连接到前馈和反馈信息处理(Aruetal.,2020)。这种生物神经元固有的复杂性部分体现在大多数现代人工神经网络中,尽管用于人工智能应用的结构化神经元仍然是一个活跃的研究领域(Haideretal.,2021;Maxetal.,2023;Sennetal.,2023)。大脑的其他特性,例如GABA能中间神经元的作用、乙酰胆碱和多巴胺等神经递质的调节作用(Changeux&Lou,2011),或者锥体细胞具有两组功能上不同的输入的能力(一组是关于神经元传递信息的内容,另一组可以在其他神经元传递的信息背景下选择性地放大该传输)(Phillips,2023),都被转化为大规模脑模型中的功能模式(Eliasmithetal.,2012;Humphriesetal.,2012)。正如上文提到的多重可实现性论点,问题在于这种功能模拟是否捕捉到了世界中的正确元素、过程和属性,从而对目标对象(例如大脑)提供一个经验上充分的描述,并在此基础上具备与之相同的属性(例如人类特征的神经基础的相同因果效应,如意识处理)。换句话说,问题是能否在计算系统中重现现实世界对象(如大脑)的特征,包括基于数字电子原理构建的系统,这些原理不同于大脑的模拟生物原理。
人工智能的最新发展(例如ChatGPT、Sora、Dall-E、StableDiffusion)进一步说明了这种基本上基于算法的方法可以取得多大的成功,尽管关于其局限性的讨论仍在继续(Mitchell,2023;Mitchell&Krakauer,2023;Shanahan,2024;Shanahanetal.,2021)。同样,多年来,大量刻意排除对人类大脑任何参考的认知过程的计算“功能主义”描述被生产出来。这再次联系到认知过程的多重可实现性问题:是否可以通过完全不同的生物、认知或计算机制实现相同的结果?(Melis&Raihani,2023)。我们面对的是类比还是同源?挑战在于,迄今为止在许多应用中取得成功的基于形式算法的计算方法,特别是所谓的神经形态硬件(Petrovicietal.,2014;Poo,2018),是否足以接近类似人类的意识处理、一种替代形式的意识处理,或者最终根本无法产生意识(Kleiner,2024)。
组织的多层嵌套并行性
最常见的计算机硬件由微处理器组成,这些微处理器基于半导体晶体管(包括氧化物基忆阻器、自旋电子存储器和阈值开关)或神经形态基板(Billaudelleetal.,2020;Pfeiletal.,2013)制造,并集成到脑电路芯片中。这些硬件的基本物理组件由少量化学元素构成,计算速度非常高,远高于大脑(见下文),尽管系统中两个逻辑组件之间的信息传递需要经过编码、刷新和解码的多个阶段,而不仅仅是电信号的速度(在标准电路板中约为光速的一半)。相比之下,大脑由多个嵌套层次的组织构成,其化学基本成分高度多样,远比任何计算机硬件中的成分更为复杂。确实,像神经形态系统这样的计算模型可能被设计为考虑大脑组织的多层嵌套结构(Boybatetal.,2018;Sandved-Smithetal.,2021;Wangetal.,2021),但事实仍然是,它们的主要结果是对大脑功能的有限模拟,而这些计算模型无法解释人脑的生化多样性及其药理学特性,包括可能影响意识状态和意识处理的疾病(Raiteri,2006)。事实上,大脑的高度生化多样性可能在实现和调节意识处理方面发挥了作用(例如,通过精神药物)。这种大脑生化多样性在意识处理中的潜在作用应进一步探索,以便最终识别相关的架构和功能原则,将其转化为有意识的人工智能系统的开发。
在真实的大脑中,分子水平及其约束条件往往未被充分认识,但起着关键作用。蛋白质是关键组成部分。这些大分子由氨基酸链组成,以高度复杂的组织方式折叠,能够为包括代谢物、神经递质、脂类和DNA在内的多种配体创建特定的结合位点。其中包含催化/降解细胞代谢关键反应的酶、细胞骨架和运动元件、转录因子等DNA结合蛋白、离子通道,以及最重要的神经递质受体和与之相互作用的许多药理学试剂。地球上所有生物中不同蛋白质的数量估计为。在人类大脑中,涉及认知轨迹的蛋白质数量为3.7103–3.933(Wingoetal.,2019),占总基因数(约20,000个)的重要部分。生物体内的蛋白质组分具有根本的异质性,这对大脑代谢和调控做出了贡献。这同样适用于意识状态及其多样性的控制,如通过睡眠和觉醒的全局化学调节或导致意识改变状态的多种药物的多样性来评估(Jékely,2021)。在所有情况下,调节最终发生在蛋白质层面。因此,在人类大脑中实现意识处理需要一个丰富且专用的生化环境,而当前试图生成人工意识处理的AI系统普遍缺乏这一环境:计算机没有药理学,也没有神经精神病学疾病。数据表明,分子组分在理解生命及生物意识处理中的重要性,这一点正日益被神经科学和哲学领域所认识(Aruetal.,2023;Godfrey-Smith,2023;Seth,2021;2024;Thompson,2018)。事实上,原则上,药理因素对人类意识的关键作用并不排斥人工智能系统可能实现非人类形式的替代意识(Arsiwallaetal.,2023)。我们提到上述分子和药理学条件的目的是识别当前AI系统所缺乏的因素,这些因素可以作为推动人工意识发展的灵感来源。
另一个与生物大脑和计算机不同物理架构相关并目前使它们产生差异的因素是信息处理的速度。如前所述,大脑的信息处理速度低于声速,而计算机的工作速度接近光速。这在计算机和大脑之间造成了信息传播速度的不可逾越的差异。神经冲动的传导速度可达120米/秒(取决于轴突的直径),这在很大程度上是由于某些髓鞘化轴突中离子通道的变构转变所致。但突触施加了额外的限制,导致毫秒级的延迟,包括神经递质的局部扩散和受体激活过程的变构转变(Burkeetal.,2024)。由于这些连续延迟的累积,心理时间尺度通常在100毫秒左右(50–200毫秒)(Grondin,2001)。最后,外围感觉信号到达意识的时间延迟可能达到约300毫秒(Dehaene&Changeux,2011)。简而言之,标准计算机处理信息的速度比人类大脑快多达8个数量级。对于高度标准化的任务(如下棋),预计计算机效率更高。这部分归因于不同的计算策略,计算机能够并行测试数百万种可能性,而人类大脑在心理时间尺度内只能测试少数几种。因此,计算机能够处理的数据量巨大,甚至超出了人类一生所能处理的范围。
此外,尽管通过神经形态系统取得了一些显著改进,包括每单位能耗的计算能力提升(Crameretal.,2022;Esseretal.,2016;Goltzetal.,2021;Parketal.,2019),但人类大脑消耗的能量仍比标准计算机少几个数量级,尤其在大规模模型(如GPT-4)的情况下更是如此。大脑不仅更节能,而且样本效率更高:深度学习模型被认为在样本效率上不如人类学习,因为它们需要大量训练数据才能在任务中达到人类水平的表现(Botvinicketal.,2019;Botvinicketal.,2020;Waldrop,2019)。
因此,人工智能在模拟大脑过程方面的非凡成功主要归因于日益复杂的算法和计算机程序的处理速度。这种巨大的处理速度差异可能被解释为反对人工意识的论据(Pennartz,2024):由于人工智能比人脑处理更多数据且速度更快,可能并行处理数据对于人工智能完成那些在人类中需要整合(即有意识)过程的任务已经足够。事实上,有意识处理的一个关键特征是不同神经元群体所处理信息的整合,最终形成一个多模态的统一体验。这种整合可以从根本上定义为一种由“点燃”活动模式介导的表征广播,即有序的神经活动模式(Mashour等,2020b)。从进化的角度来看,由于生物内在限制决定了感官模态的数量和复杂性,以及认知与控制系统运作的时间尺度,这种整合和广播活动服务于处理复杂信息的需求,即由多个元素组成、无法通过大脑并行处理的信息。在人工智能的情况下,其处理复杂信息的能力产生的整合与广播并不与人脑处于相同水平或以相同方式进行。实际上,现代人工智能系统高度模块化,并基于表征的广播,但这些模块的特性及其整个AI系统并行计算能力的限制与人脑的特性显著不同。
这一点可以通过质量(即模块能够执行的操作类型)和数量(即模块能够处理的数据量)来说明。从定性的角度来看,构成AI系统的模块多样性可能体现在它们执行的具体任务上,这可能接近于大脑可访问的感官模态的多样性,而这些模块无法依赖赋予处理信息及其表征的不同情感价值,就像人脑能做到的那样。这就是为什么,例如,深度卷积网络最终只是“缺乏经验内容、想象力和环境整体感知的抽象概念集合”(Pennartz,2024)。因此,至少到目前为止,相比于人脑,AI模块在性质上有所不同,因为它们无法赋予信息以体验价值。使用上述对访问意识和现象意识的区别,模块化的人工智能系统可能达到在不同模块之间广播信息的能力(即它们可能接近访问意识),但目前看来它们似乎无法复制现象意识处理或主观体验。Dehaene、Lau和Kouider提出了类似的解释(Dehaene等,2017)。他们得出结论认为,当前的人工智能系统可能具备全局信息可用性(即选择、访问和报告信息的能力),但缺乏更高层次的元认知能力(即自我监控和信心评估的能力)(Lou等,2016)。
这种解释与人工智能中注意力和访问意识的实现及(当前)工程设计现象意识的不可能性之间的区别相一致。同样,Montemayor(2023)指出,现有人工智能系统仅限于满足认知需求的表征价值,而当前人工智能没有道德和审美需求的体验,这些需求基于现象意识和主观意识的内在价值。
从定量的角度来看,人工智能系统的存储能力和计算能力远超人脑,以至于它最终能够在完全无意识的层面上执行在人类中需要有意识努力才能完成的相同任务。事实上,有意识处理可以被视为一种进化策略,用于增强具有有限记忆存储和数据处理能力的生物系统的生存能力。
总之,不同的质量和数量限制导致了不同的操作(有意识与无意识)。有趣的是,当对一个人工模型应用“正确类型的限制”时,某些属性可能会作为结果发展出来(Ali等,2022)。可能有意识处理作为一种必要性是从人脑受限的计算能力中衍生出来的。
一个额外的问题是,是什么仍然使大脑在心理时间尺度上直至有意识处理表现出高性能。答案主要在于硬件架构,而这反过来又可能影响生物大脑能够进行的计算类型。在大脑中,神经元及其神经突以及它们复杂的连接性远比理想化的人工神经元复杂得多。生物神经元起源于确定的超分子组装体,这些组装体创造了重要的化学复杂性和细胞类型的多样性(可能多达上千种),神经元类型也因形状、轴突-树突分支和它们建立的连接而不同。一个重要的化学差异是它们合成和释放的神经递质(多达数百种)(Jékely,2021)。
根据它们释放的神经递质,可以区分出两类主要的神经元(即兴奋性与抑制性)。要通过简单的有意识任务,比如前面提到的追踪与延迟条件反射,需要多个叠加的组织层级,而且兴奋性和抑制性神经元的贡献似乎都是必要的(Grover等,2022;Volzhenin等,2022)。确实,在深度网络的情况下,权重矩阵包含尽可能多的负(抑制性)条目和正(兴奋性)条目,并且存在包括兴奋性和抑制性神经元的神经生物学上合理的反向传播算法用于深度神经网络(Guerguiev等,2017;Lillicrap等,2020;Scellier&Bengio,2017;Whittington&Bogacz,2017),但是,正如上面提到的,生物神经元类型的多样性如此之大,以至于我们尚未完全理解它,所以这些计算算法可能最终会遗漏大脑中对意识处理至关重要的架构和功能细节。
抑制性神经元和兴奋性神经元构成了基本的神经网络层级,而这些网络本身又构建了更高层次的嵌套神经元网络,以此类推。这种复杂的连接组学关系可能对认知功能甚至意识的产生有所贡献。例如,一种基于树突整合自下而上和自上而下数据流的细胞意识理论被提出(Aru等,2020),这些数据流起源于丘脑-皮层神经回路。即使存在例外(特别是在使用皮层微电路的神经形态硬件中,如Haider等,2021;Max等,2023;Senn等,2023),但这种硬件复杂性在大多数最精密的超级计算机中通常是缺失的。此外,像大型语言模型(LLMs)这样的系统确实表现出一些新兴能力,这些能力可能源自其学习权重中存在的新兴结构。事实上,在架构层面,它们被组织为大量层级,这潜在地允许某种组织形式(即分层、嵌套和多层次),而在大脑中,这些组织形式被认为对意识处理起着至关重要的作用。因此,我们原则上不能排除大型人工智能系统有可能发展出某些形式的意识处理能力,其特性由AI系统的结构和功能组织的具体组成部分所塑造。
总之,大脑的分层、嵌套和多层次组织表明了一些当前人工智能仅部分模拟的架构和功能特征,我们认为这些特征应进一步阐明并加以工程化,以推动向开发有意识的人工智能迈进。这些特征包括大规模的生化和神经元多样性(例如,兴奋性与抑制性神经元、连接组学关系、回路、丘脑-皮层环路)以及层级之间的各种自下而上/自上而下的调节机制。除此之外,这些组织特征限制了大脑中信息处理的速度,比人工智能慢几个数量级:这种差异最终可能使得人工智能在执行那些对人类而言需要意识努力的任务时,并不需要依赖意识处理。
4.进化:从大脑架构到文化
4.1.大脑的遗传基础与表观遗传发展
人类制造的计算机由预先连接的组件串联而成,这些组件被刚性地组合成具有相同硬件的、基本时间不变的机器。另一方面,大脑的“硬件”是在达尔文进化过程中从海绵逐步演化到人类大脑的,经历了多步选择,导致其架构和行为能力的复杂性逐渐增加(Kelty-Stephen等,2022)。这种选择发生在本质上不同的环境条件下,包括物理、社会以及可能的文化因素。因此,新的层级在旧的层级之上嵌套形成,而无需理性的(即可预测的)关系。大脑的架构因此概括了其进化历史中的多重事件,它并非像人工智能系统那样是理性设计的结果,而是可以被视为人类导向文化进化的最终产物(可能包括变异和选择过程)(Mesoudi等,2013;Solé等,2013;Valverde,2016)。
此外,基因组水平上的大脑进化结果表明,如果每个新获得的能力都建立在先前能力的基础之上,那么在整个进化过程中可能会发生强烈的基因组保守性。例如,果蝇的基因组与人类基因组有60%的同源性,约75%的人类疾病相关基因在果蝇中有同源基因(Ugur等,2016)。在此背景下,人类大脑的形成基于少数遗传事件(大多尚未完全识别),并未涉及基因组的剧烈重组。然而,这些变化足以使远距离丘脑皮层区域之间的信息广播(即全局神经工作空间(GNW))得以出现,并使意识获得了成人人类大脑的具体特征(Changeux等,2021;Hublin&Changeux,2022)。
为了摆脱限制达尔文进化的保守遗传纠缠(在古生物学时间尺度上为数百万年),一种更快(天、小时级别)的非遗传进化形式得以发展。这种进化发生在出生后的发展阶段(人类约为25年),在此期间约一半的突触连接总数形成并塑造了成人人类大脑的连接组学“硬件”。CCD理论(Changeux等,1973)正式解释了这种表观遗传进化,该理论依赖于发育中的神经元间连接的可变性和选择-消除过程,这些过程形式上类似于通过变异-选择进行的达尔文式进化(Changeux&Danchin,1976;Edelman&Mountcastle,1978;Kasthuri&Lichtman,2003)。大脑的发育——从新生儿到成人——以多步骤嵌套分层的形式进行,由一系列突触生长和选择波次驱动。这成为了一种机制,用于存储在出生后发展中大脑与其物理、社会和文化环境互动所产生的巨量长期记忆。该模型解释了人类大脑的一个具有巨大社会意义的特性(Evers,2015),但这一特性在神经科学中却被严重低估:成人大脑连接性的表观遗传变异性。根据CCD变异性定理,“不同的学习输入可能产生不同的连接组织和神经元功能能力,但具有相同的行为能力”。因此,神经元连接代码表现出“退化性”(Edelman&Gally,2001;Edelman&Mountcastle,1978;Tononi等,1999),即不同的代码词(连接模式)可能携带相同的意义(功能)。这种变异性与发育过程中遇到的多样化经验的变异性叠加在基因组变异性之上。最终,每个人的历史都被整合到大脑的硬件中。这种本质的变异性甚至存在于同基因个体的大脑之间,与工业计算机硬件的可重复性形成了鲜明对比,尽管在特定任务训练中或部分模拟神经形态计算机中也可能存在有限的变异性。
人类出生后发展期的延长在突触选择理论框架下具有重要影响,因为它导致了个体经验和文化的获取与传播在社会环境中发生。阅读和写作能力的获取可以被视为大脑硬件中表观遗传发展的“文化回路”的典型例子。对文盲与识字者的比较行为和脑成像研究揭示了大脑功能连接组学的显著差异(Castro-Caldas等,1998;Dehaene等,2010)。文化能力在每一代中从成人到儿童自发且必然地学习,并通过表观遗传方式代代相传,甚至从母亲子宫内开始,直到成年阶段。这种文化的自发生成目前在计算机中尚无意义,尽管大型语言模型(LLMs)可能实现类似的动态(https ://arxiv.org/pdf/2402.11271.pdf)。事实上,AI(如LLMs)可能在大量数据上进行预训练,这可以被解释为一种文化获取形式。然而,这与人类的文化获取存在关键区别,后者不能被简化为被动的数据接收,而是个体之间以及世代之间对所接收到的数据进行创造性再加工的过程。这些动态取决于大脑并非信息的被动存储库:同样的信息可能对不同大脑或同一大脑在不同时间产生不同的影响,因为感知受到大脑自发活动的调节,这种活动不仅仅是系统内部运作中的噪声(见下文)。作为文化进化的重大后果之一,与象征体验和情感标记相关的技能和实践(如理性思维(科学)、行为准则(伦理)和共同感受(艺术))在大脑连接性中被稳定地表观遗传内化,并成为某些群体独有的特性。文化差异在不同人群之间产生,并在人类物种的历史中产生了重要影响。它们为布迪厄所称的主体“习性”做出了贡献:内化的感知、行动和评估的常规模式,往往持续一生(Changeux,2006)。这种通过具身程序动力学逐步习得的传感器运动序列模式的规律性,在符号系统和LLMs中缺乏,但在当前的具身AI/机器人研究中正在探索(Gupta等,2021)。此外,设计用于控制机器人代理的网络已被设计为遵循类似“突触”生长、变异和选择的进化过程(Miglino等,1995;Nolfi等,1994)。更重要的是,超参数调整在现代AI中已成为标准,包括改变网络结构、层数及其性质、反馈回路、稀疏性、激活函数、感受野等。近年来,进化方法明确成为现代建模研究的一部分(Jordan等,2021)。
总之,尽管在许多AI技术中实施进化方法方面取得了近期进展(如上所述),当今AI仍然缺乏与人类大脑严格同源的进化发展。
4.2.人工智能与进化:对人工意识的影响
人类类似的进化过程的缺失是否是人工智能实现类似人类的意识处理的一个障碍?尽管人工智能缺乏严格的系统发生学进化(因为它是由人类制造的),但它可能具有个体发生学的发展(例如,通过无监督学习),这在原则上可以使人工智能获得开发者最初未编程的能力。例如,深度强化学习系统便是如此(Silver等,2018;Vinyals等,2019)。
我们能否说这种形式的人工智能能够从经验中学习,并因此发展出一种人工形式的“习性”、“气质”和“性格”?事实上,深度强化学习系统包括来自处理数据的各种反馈和错误信号,这些信号结合短期和长期记忆能力,可以被解释为一种经验形式。
那么表观遗传和文化进化呢?尽管最近有一些关于文化进化的计算研究表明,人工智能代理可以相互共享信息并学习执行任务(arXiv:2206.05060)(Colas等,2022),但现阶段人工智能大多缺乏与人类同源的表观遗传发展。由于人类的经验和文化来源于表观遗传,因此可以基本推断,人工智能(仍然)缺乏经验与文化,至少没有达到与人类相同种类和复杂程度的经验与文化。
进化分析(Kanaev,2022)以及对人类新生儿发育数据的研究(Lagercrantz&Changeux,2009,2010)表明,人类的“意识处理”是逐步发展的(Changeux,2006,2017)。
(i)最低层次的“最小意识”:简单生物(如大鼠或小鼠)表现出的特征是能够展示自发运动活动,并从视觉和听觉体验中创建表征,将其存储在长期记忆中并加以使用,例如用于趋近或回避行为以及所谓的探索行为。根据Lagercrantz(2016)的说法,25-30周的早产胎儿已经达到类似于(尽管不完全相同)新生大鼠/小鼠的大脑成熟阶段;他/她可以在感觉皮层中处理触觉和疼痛刺激(Bartocci等,2006),感知疼痛,从而显示出最小意识的迹象。
(ii)“递归意识”(Zelazo等,2004):存在于绿猴(可能还包括一些鸟类中),表现为对物体的功能性使用和原声明式指向;这一层次的生物可能展示复杂的社交互动、模仿、社会参照和共同注意;它们有能力同时在记忆中保持多个心理表征,并能够评估自我关系;它们在处理表征时表现出递归性的初级形式,但尚未达到相互理解的程度;沿此方向,新生儿表现出感官意识、表达情感的能力以及处理心理表征的能力(例如奶嘴的表征);他/她已经能够区分自我和非自我的触碰(Rochat,2003)。
(iii)显式的“自我意识”:在婴儿两岁末期发展起来,伴随着工作记忆和情景记忆以及语言的一些基本方面;其特征是在镜子测试中的自我识别,并能够使用单一任意规则进行自我-他人区分(Lou等,2017;Posner&Rothbart,2007);某种程度上,黑猩猩可能达到这一水平(Boakes,1984)。
(iv)“反思意识”、心智理论和完整的意识体验:具备第一人称本体论和可报告性,在人类中完全发展,并在儿童3-5岁时逐渐形成。
在出生时,所有主要的长距离纤维束已经就位(Dubois等,2015),尽管仍然不成熟。在5个月、12个月和15个月大的婴儿中记录到了与成人GNW点燃同源的意识处理的电生理特征(Dehaene-Lambertz&Spelke,2015;Kouider等,2013)。
简而言之,主观体验可以说来源于时间延展的表观遗传发展过程(即大脑连接组的变化,最终改变了大脑网络中神经元的数量及其连接)。换句话说,意识是一个过程,它依赖于并受到有机体(尤其是其大脑)与环境之间(或多或少)时间延展的互动所塑造。
目前的人工智能只有有限形式的这种互动发展,这意味着信息的社会和情感意义及价值在人工智能中大多缺失或仅有限存在。事实上,人工智能无法体验世界,也没有心智理论(Pennartz,2024):数字人工智能以不同于人类的格式处理信息,这使得人工智能能够访问的世界与人类能够访问的世界显著不同。有关模拟计算和人工智能的研究原则上可能使其发展出更类似人类的体验,但结果仍处于初步阶段。
此外,鉴于意识发展的这些不同可能阶段,开发人工意识处理的尝试应明确其目标的具体阶段。
到目前为止,包括神经形态方法在内的各种人工智能预计不会表现出人类完全意识体验的所有特征。然而,它们可能具备某些标志性特征,例如持续的工作记忆痕迹、全局整合和决策能力。它们可能达到我们所称的“最小意识”水平,或者可能具备“递归意识”的某些特征,但目前看来,“自我意识”或“反思意识”似乎无法在人工系统中实现。
另一种可能性是,同一个人工意识假设系统可以被视为处于逐步发展的过程中。尽管这不是人工智能的主要趋势,但艾伦·图灵早在1950年就提出将发展视为创建和教导人工智能的一种范式,就像我们可以教导一个孩子一样。
总之,当前的人工智能系统,特别是模拟特定大脑计算模型的神经拟态机器人系统,在从同一计算模型的功能组织中产生变异性方面受到限制,而这种变异性是达尔文生物进化和通过选择与放大机制进行表观遗传发展的结果。此外,当前的人工智能系统缺乏大脑漫长的出生后发展过程,这一过程导致了来自物理、生物和社会文化环境的多层嵌套表观遗传突触选择(作为“印记”)。由于大脑特有的突触选择达尔文机制,不同的连接模式可能承载相同的功能,从而导致可塑性、个体差异和创造力。
这意味着,迄今为止,人工智能在类似人类大脑的进化和表观遗传发展方面的能力有限。仅凭这一点,我们不能从理论上排除深度强化学习系统有一天可能会以一种可以描述为与环境的表观遗传关系的方式对学习和经验作出反应。然而,对于旨在提取意识处理潜在原则并将其复制到人工系统中的理论计算方法而言,这可能也是一个限制(Blum&Blum,2023)。
从这个角度来看,大型语言模型(LLMs)的局限性在于,它们目前缺乏人类通过身体介导的对世界的多维和多感官表征,因此它们本质上接触到的知识是有限且扭曲的,最终不足以实现对世界的多模态(即有意识的)表征。机器人技术,包括最近与LLMs的结合(Zhang等,2023),以及神经形态人工智能,有望为AI提供一种具身形式,这在原则上可以实现人工的多模态体验。例如,在具备自我监控能力的机器人系统上已经取得了显著成果,这种能力至少复制了人类自我意识的某些方面(Chella等,2008),特别是依赖于内心语言的能力(Chella等,2020;Pipitone&Chella,2021)。
然而,AI在其与世界互动中显然缺乏任何情感投入的问题依然存在。鉴于由具身特性(如情绪)所介导的人类有机体的评估能力在意识体验中的重要作用,这种缺乏可能成为通往有意识AI道路上需要进一步研究并克服的潜在障碍。
总之,当前AI仅部分实现、而当前关于意识AI的研究应尝试更好模拟的大脑特征包括:对世界的具身化感官运动体验、大脑的自发活动(这不仅仅是像当前AI系统中的简单噪声)、自创生(作为不断自我实现的能力)以及基于情绪的奖励系统。
6.大脑中的有意识与无意识处理,或“思维实体”与“物质实体”
上述提到的自发活动对于区分有意识和无意识处理具有重要意义,这一区分早在笛卡尔通过提出“思维实体”(rescogitans)与“物质实体”(resextensa)时便已暗示。这两个概念在非二元论背景下被明确表述,体现在使用相同术语“res”上(Changeux&Ricoeur,1998)。用现代术语来说,这意味着有意识表征在“物理”或生理层面上与无意识表征不同。为了区分两者,引入了掩蔽任务。当一个表征——例如,在视觉通路中——从V1区域传递到颞叶皮层时,无意识表征会被捕获,直到刺激呈现后约200至300毫秒时出现活动的突然发散。当刺激变得有意识时,会出现额外活动的强烈激增并广泛传播,尤其是在到达前额叶和顶叶皮层时(成为“现象性”的)。这种非线性发散被称为“点燃”(Dehaene&Changeux,2005),并且无论使用何种刺激模态或操纵意识的范式都会发生(DelCul等,2009;Klatzmann等,2023;Mashour等,2020a)。即使在没有外部刺激的情况下,也可以记录到自发的点燃(Koukouli等,2016;Moutard等,2015)。
在全局工作空间架构中的首次点燃模拟(Dehaene&Changeux,2005;Dehaene等,2003)已经强调了长距离递归连接和自上而下连接在维持长时间持续点燃中的关键作用:当感官刺激被有意识地感知时,会出现更稳定的活动(Schurger等,2015)。最近,Klatzmann等人(2023)提出,AMPA受体介导的兴奋性电流的快速起始和终止可能帮助感觉区域快速对外部刺激的变化作出反应(Self等,2012;Yang等,2018),但刺激之后,NMDA受体的缓慢时间常数有助于在前额叶皮层和GNW中维持特定于刺激的活动(Wang,1999;Wang等,2013)。这进一步说明了大脑生化多样性在有意识处理中的相关性(见上文)。
当处于有意识状态时,“表征”表现出独特的特性。例如,它们具有的联想特性使它们能够组织成链条,并构建出人类、猴子甚至可能计算机中不存在的推理形式。经典解释是,猴子的工作记忆非常浅(精确为1-2,黑猩猩为2.1),而人类的工作记忆则远高于此(7±2)。更重要的是,有意识表征具有独特的神经组织方式,使其能够建立“物理链接”形成一个序列,该序列能够整合每个组成部分的意义并产生全局意义。在此基础上(尽管仍大部分未被探索),应该能够构建句子、提出推理、解释语言生成性(即生成从未说过的新句子并理解从未听过的新句子的能力),以及递归性(即将一个成分嵌套到同类型另一个成分内部并构建一棵树、一个语言元素或可重复使用的语法结构的能力)。在所有这些例子中,皮层和非皮层神经元都会通过奖励系统的广泛选择参与其中。
最近有人声称大型语言模型(LLMs)具备这些能力,特别是句法语言生成性。这取决于语言生成和理解的概念如何定义。LLMs可以基于统计模式生成新词组合,并识别这些词之间的联系。这种语言生成和理解是句法性的,独立于语义(即可能通过选择性奖励赋予意义),而这正是人类语言生成和理解的特点(Bennett,2023;Marcus&Davis,2019)。即使LLMs能够完全模拟语义连贯的人类生成语言,它们也采用与人脑不同的策略,且不包括通常意义上的意义理解(Wolfram,2023)。
同样的情况可能适用于推理和创造力。尽管这些特性的细节在人脑中仍有待澄清,但数据一致表明内在和外在奖励在选择和稳定创造性任务(如艺术创作)相关的神经元配置中起着核心作用(Changeux,2019)。此外,“退化性”原则(即许多神经元组合可能导致相同的功能结果)是人脑可塑性和创造力的基础,而在人工智能中这一点似乎显著受限,尽管神经网络剪枝和神经形态硬件取得了一些相关成果。
总之,可以帮助当代开发有意识AI系统的大脑特征包括:有意识与无意识表征之间的清晰区分(例如通过点燃现象划分),以及由此产生的有意识表征的独特联想特性;大脑的语义能力,这体现在符号理解及互助能力上;有意识表征的独特关联特性,将其组织成有意义的序列,最终发展出推理和理性思维能力。
7.人工智能意识与社会互动对理性思维和语言的挑战
从进化和神经科学数据出发,我们已在上文列举了人工智能研究在尝试推进人工意识开发时可能需要考虑的一系列特征。我们所概述的当前人工智能的一些局限性已被其他作者指出,例如具身性、情感和动机在机器意识中的作用,以及机器人体验的问题(Chella&Manzotti,2009;Montemayor,2023),而其他一些问题则较少被探讨。其中,个体在社会群体中互动的能力引发了许多人类特有的倾向,包括心智理论、文化体验和伦理责任。
原则上,人工智能构造具有不同于生物系统的物理结构和功能组织(即使是可能有意识的生物系统,例如人类与其他物种,包括果蝇(Grover等,2022)),这并不意味着人工智能系统无法或不能变得有意识。上述分析揭示了一些数据表明与人脑中有意识处理相关的因素,但这不足以得出这些因素是人类、其他生物系统或人工系统中有意识处理的必要条件。值得注意的是,人工形式意识的实际存在问题是重要的实证问题:我们需要可靠的指标来识别人工智能系统中的非生物意识处理(Bayne等,2024;Dung,2023;Pennartz等,2019)。然而,这一挑战不仅是实证性的,也是概念性的:我们如何概念化一种非生物形式的有意识处理?我们通常用来指代意识的语言和概念类别可能并不合适(例如,它们过于拟人化和以人为中心),应该被替代。正如Pennartz等人(2019)所述,我们可以使用相同的术语并相应扩展其应用范围,或者我们可以创造一个新术语来指代机器。这种选择在认知层面上非常重要。事实上,“语言创新必须有充分的理由以避免概念膨胀。然而,如果我们过于受制于常用的传统用法,就会阻碍新思想的发展。我们的语言需要进化,以便能够表达新的思想、知识和规范体系。”(Pennartz等,2019)
我们无意重新发明术语,而是希望推荐在将意识概念应用于人工智能时改进术语和概念的清晰度。这种需求可以被视为新技术发展导致概念适应更广泛呼吁的一部分,正如概念工程中所表达的那样(Hopster&Lohr,2023)。我们建议的另一个具体理由源于意识的多维性,这对任何试图开发人工意识的努力都至关重要,即明确目标是哪一维度和/或哪种形式的意识。虽然将注意力和智能等其他心理术语扩展到非人类动物和人工智能系统可能比意识显得不那么成问题,但在将任何心理术语应用于人工智能时,我们需要区分两个语义维度:认识论维度(即该术语所指特征的本质是什么?)和功能维度(即该术语所指特征如何运作?其相关架构是什么?即结构与功能的适当组合)。虽然将第一个维度扩展到人工智能存在问题,但只要能够在适当的规模或细节水平上复制相关结构和功能,则第二个维度的扩展可能更为直接,如上文所述。无论如何,基于神经科学的语言和概念发展似乎是有道理的。
总之,在将意识归因于人工智能时需要谨慎,特别是在进行这种归因时改进概念的清晰度。这不仅仅是沟通的问题,还涉及思想发展的过程,因为语言在认识论上塑造思想(即我们能思考和知道什么)和规范性上塑造思想(即我们所发展的价值观)。因此,这些问题为我们提出了需要做出的概念选择,这些选择既要在哲学上(就清晰度、简洁性和逻辑一致性而言)也要在实证上(就科学依据、实验验证和解释力而言)进行。
8.结论
我们在此回顾了大脑的一些结构、进化和功能特征,这些特征在实现和/或调节人类意识方面发挥了重要作用(见表1)。这些特征可能有助于使人工意识成为可能。在此背景下,我们也指出了当前计算机硬件和人工智能模型的一些局限性,并建议改进这些方面以加速人工意识开发的研究(见表2)。
即使从理论上讲,开发具有非类人形式意识的人工系统是可行的,我们认为,考虑到上述目前尚未完全转化为人工智能的大脑特征,可能会加速和丰富有意识人工系统的发展。这并不意味着实际上可以开发出类人的有意识人工系统。事实上,要公平地模拟人类的意识处理过程仍然有很长的路要走,甚至可能永远无法实现。鉴于这种不确定性,我们建议暂时不要对人类和人工系统使用相同的通用术语(即“意识”);应明确指出它们之间的关键差异;最后但同样重要的是,必须非常清楚人工系统可能具备的意识维度、规模和水平。
原文链接:
https ://www.sciencedirect.com/science/article/pii/S0893608024006385
阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
https ://wx.zsxq.com/group/454854145828
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https ://wx.zsxq.com/group/454854145828进入。
截止到3月31日”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
牛津未来研究院《将人工智能安全视为全球公共产品的影响、挑战与研究重点》
麦肯锡:超级智能机构:赋能人们释放人工智能的全部潜力
AAAI2025关于人工智能研究未来研究报告
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
壳牌:2025能源安全远景报告:能源与人工智能(57页)
盖洛普&牛津幸福研究中心:2025年世界幸福报告(260页)
Schwab:2025未来共生:以集体社会创新破解重大社会挑战研究报告(36页)
IMD:2024年全球数字竞争力排名报告:跨越数字鸿沟人才培养与数字法治是关键(214页)
DS系列专题:DeepSeek技术溯源及前沿探索,50页ppt
联合国人居署:2024全球城市负责任人工智能评估报告:利用AI构建以人为本的智慧城市(86页)
TechUK:2025全球复杂多变背景下的英国科技产业:战略韧性与增长路径研究报告(52页)
NAVEXGlobal:2024年十大风险与合规趋势报告(42页)
《具身物理交互在机器人-机器人及机器人-人协作中的应用》122页
2025-2035年人形机器人发展趋势报告53页
EvaluatePharma:2024年全球生物制药行业展望报告:增长驱动力分析(29页)
【AAAI2025教程】基础模型与具身智能体的交汇,350页ppt
Tracxn:2025全球飞行汽车行业市场研究报告(45页)
谷歌:2024人工智能短跑选手(AISprinters):捕捉新兴市场AI经济机遇报告(39页)
【斯坦福博士论文】构建类人化具身智能体:从人类行为中学习
《基于传感器的机器学习车辆分类》最新170页
美国安全与新兴技术中心:2025CSET对美国人工智能行动计划的建议(18页)
罗兰贝格:2024人形机器人的崛起:从科幻到现实:如何参与潜在变革研究报告(11页)
兰德公司:2025从研究到现实:NHS的研究和创新是实现十年计划的关键报告(209页)
康桥汇世(CambridgeAssociates):2025年全球经济展望报告(44页)
国际能源署:2025迈向核能新时代
麦肯锡:人工智能现状,组织如何重塑自身以获取价值
威立(Wiley):2025全球科研人员人工智能研究报告(38页)
牛津经济研究院:2025TikTok对美国就业的量化影响研究报告:470万岗位(14页)
国际能源署(IEA):能效2024研究报告(127页)
Workday:2025发挥人类潜能:人工智能(AI)技能革命研究报告(20页)
CertiK:Hack3D:2024年Web3.0安全报告(28页)
世界经济论坛:工业制造中的前沿技术:人工智能代理的崛起》报告
迈向推理时代:大型语言模型的长链推理研究综述
波士顿咨询:2025亚太地区生成式AI的崛起研究报告:从技术追赶者到全球领导者的跨越(15页)
安联(Allianz):2025新势力崛起:全球芯片战争与半导体产业格局重构研究报告(33页)
IMT:2025具身智能(EmbodiedAI)概念、核心要素及未来进展:趋势与挑战研究报告(25页)
IEEE:2025具身智能(EmbodiedAI)综述:从模拟器到研究任务的调查分析报告(15页)
CCAV:2025当AI接管方向盘:自动驾驶场景下的人机交互认知重构、变革及对策研究报告(124页)
《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新132页
《面向科学发现的智能体人工智能:进展、挑战与未来方向综述》
全国机器人标准化技术委员会:人形机器人标准化白皮书(2024版)(96页)
美国国家科学委员会(NSB):2024年研究与发展-美国趋势及国际比较(51页)
艾昆纬(IQVIA):2025骨科手术机器人技术的崛起白皮书:创新及未来方向(17页)
NPL&Beauhurst:2025英国量子产业洞察报告:私人和公共投资的作用(25页)
IEAPVPS:2024光伏系统经济与技术关键绩效指标(KPI)使用最佳实践指南(65页)
AGI智能时代:2025让DeepSeek更有趣更有深度的思考研究分析报告(24页)
2025军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告(37页)
华为:2025鸿蒙生态应用开发白皮书(133页
《超级智能战略研究报告》
中美技术差距分析报告2025
欧洲量子产业联盟(QuIC):2024年全球量子技术专利态势分析白皮书(34页)
美国能源部:2021超级高铁技术(Hyperloop)对电网和交通能源的影响研究报告(60页)
罗马大学:2025超级高铁(Hyperloop):第五种新型交通方式-技术研发进展、优势及局限性研究报告(72页)
兰德公司:2025灾难性网络风险保险研究报告:市场趋势与政策选择(93页)
GTI:2024先进感知技术白皮书(36页)
AAAI:2025人工智能研究的未来报告:17大关键议题(88页)
安联Allianz2025新势力崛起全球芯片战争与半导体产业格局重构研究报告
威达信:2025全球洪水风险研究报告:现状、趋势及应对措施(22页)
兰德公司:迈向人工智能治理研究报告:2024EqualAI峰会洞察及建议(19页)
哈佛商业评论:2025人工智能时代下的现代软件开发实践报告(12页)
德安华:全球航空航天、国防及政府服务研究报告:2024年回顾及2025年展望(27页)
奥雅纳:2024塑造超级高铁(Hyperloop)的未来:监管如何推动发展与创新研究报告(28页)
HSOAC:2025美国新兴技术与风险评估报告:太空领域和关键基础设施(24页)
Dealroom:2025欧洲经济与科技创新发展态势、挑战及策略研究报告(76页)
《无人机辅助的天空地一体化网络:学习算法技术综述》
谷歌云(GoogleCloud):2025年AI商业趋势白皮书(49页)
《新兴技术与风险分析:太空领域与关键基础设施》最新报告
150页!《DeepSeek大模型生态报告》
军事人工智能行业研究报告:技术奇点驱动应用加速智能化重塑现代战争形态-250309(40页)
真格基金:2024美国独角兽观察报告(56页)
璞跃(PlugandPlay):2025未来商业研究报告:六大趋势分析(67页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
未来今日研究所2025年科技趋势报告第18版1000页
模拟真实世界:多模态生成模型的统一综述
中国信息协会低空经济分会:低空经济发展报告(2024-2025)(117页)
浙江大学:2025语言解码双生花:人类经验与AI算法的镜像之旅(42页)
人形机器人行业:由“外”到“内”智能革命-250306(51页)
大成:2025年全球人工智能趋势报告:关键法律问题(28页)
北京大学:2025年DeepSeek原理和落地应用报告(57页)
欧盟委员会人工智能与未来工作研究报告
加州大学伯克利分校:面向科学发现的多模态基础模型:在化学、材料和生物学中的应用
电子行业:从柔性传感到人形机器人触觉革命-250226(35页)
RT轨道交通:2024年中国城市轨道交通市场数据报告(188页)
FastMoss:2024年度TikTok生态发展白皮书(122页)
CheckPoint:2025年网络安全报告-主要威胁、新兴趋势和CISO建议(57页)
【AAAI2025教程】评估大型语言模型:挑战与方法,199页ppt
《21世纪美国的主导地位:核聚变》最新报告
沃尔特基金会(VoltaFoundation):2024年全球电池行业年度报告(518页)
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
国际科学理事会:2025为人工智能做好国家研究生态系统的准备-2025年战略与进展报告(英文版)(118页)
光子盒:2025全球量子计算产业发展展望报告(184页)
奥纬论坛:2025塑造未来的城市研究报告:全球1500个城市的商业吸引力指数排名(124页)
FutureMatters:2024新兴技术与经济韧性:日本未来发展路径前瞻报告(17页)
《人类与人工智能协作的科学与艺术》284页博士论文
《论多智能体决策的复杂性:从博弈学习到部分监控》115页
《2025年技术展望》56页slides
大语言模型在多智能体自动驾驶系统中的应用:近期进展综述
【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用
皮尤研究中心:2024美国民众对气候变化及应对政策的态度调研报告:气候政策对美国经济影响的多元观点审视(28页)
空间计算行业深度:发展趋势、关键技术、行业应用及相关公司深度梳理-250224(33页)
Gartner:2025网络安全中的AI:明确战略方向研究报告(16页)
北京大学:2025年DeepSeek系列报告-提示词工程和落地场景(86页)
北京大学:2025年DeepSeek系列报告-DeepSeek与AIGC应用(99页)
CIC工信安全:2024全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42页)
中科闻歌:2025年人工智能技术发展与应用探索报告(61页)
AGI智能时代:2025年Grok-3大模型:技术突破与未来展望报告(28页)
上下滑动查看更多


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录