时间:2024-08-31
张昌盛
(中国社会科学院 哲学研究所,北京 100732)
对于当下方兴未艾的人工智能科技热潮,哲学可以扮演什么样的角色?按通常的说法,哲学可以促进我们理解人工智能,尤其是可以通过人工智能的伦理问题的研究,对人工智能的产业政策制定、产品设计和实际使用提供规范性的建议,并规避随之而来的安全风险。但是,这样的思考是不够的。我们需要在更基础的哲学层面上考虑人工智能的本性和界限等问题。这一方面是对人工智能的局限性的深度反思,另一方面是要为人工智能的发展方向和可能性提供哲学的思想灵感。
本文主要从现象学的角度探讨对人工智能进行哲学思考时所面临的主要问题、研究进路、主要主题,以及在人工智能科技中可以发挥的作用。这种探讨中也伴随着主体主义与自然主义的对话,也会设想如何能结合现象学的方法与逻辑分析的方法来促进人工智能的研究的可能性。
对人工智能的哲学研究尤其是现象学研究并非新近才开始,早在20世纪60年代,美国哲学家德雷福斯(Hubert Dreyfus)就从海德格尔的现象学的角度探讨了人工智能的限度问题[1]。由于人工智能与意识、脑的问题密切相关,后来的人工智能哲学更多地与心灵哲学、认知科学哲学的研究交织在一起。例如,塞尔等人从分析哲学角度对人工智能进行阐释,提出了强人工智能和弱人工智能的概念区分;20世纪90年代,查尔莫斯区分了意识的难问题和容易问题。与此相关的人工智能哲学问题是基于功能主义的强人工智能是否可行,即所谓人工意识是否可以由算法加芯片实现。
人工智能哲学首要的问题是如何从哲学层面理解人工智能。从科技的层面看,所谓人工智能(AI)通常也叫机器智能,是一种试图以机器的算法模拟产生的智能来代替部分乃至全部人类智能的科技分支,甚至也有人设想未来可以构造具有类人意识的AI。人工智能的基本原理是基于对事物的形式化、符号表达,以相应的算法模拟事物的特性和关系,以计算机硬件和软件结合,来实现机器视觉、自然语言理解和交流、认知与推理、机器学习、机器人等领域的功能,甚至有人设想将来有一种通用人工智能(Artificial general intelligence),可以统一地处理与智能和认知相关的众多领域的问题。
按照通常的观念,人工智能主要是一种多学科交叉的前沿科技,侧重于技术和应用层面,甚至被看作是工程问题。但是,人工智能并非仅仅是一种前沿技术也并非只是算法和硬件的组合,而是以对主体的目标和价值体系、环境的特性和因果链条,以及二者关系的理解为前提的;更涉及到智能的本性,与脑科学、意识问题密切相关;不同的人工智能的观念和假说,背后涉及到对意识、心灵、主体、自由意志、主体和人等基本哲学主题的基本观念;而这些基本概念不仅属于认知科学哲学、心灵哲学和现象学研究的基本领域,也是近代以来整个哲学的基本主题。可以说,人工智能的问题实质上逼近近现代哲学核心的区域,因为它关涉到我们如何理解意识、主体乃至人性等的本质。因此,人工智能的本性和极限等问题构成了对现代哲学乃至整个哲学基本观念的根本挑战。
由于人工智能与脑、认知、意识等领域的问题高度相关,尤其是当下的仿生的机器学习与脑科学研究密切关联,而后者又与意识研究相关,因此我们需要在一种跨学科的视野中考察人工智能。相应地,对人工智能的哲学研究也需要结合认知科学和意识问题等领域的哲学研究。因此,人工智能的哲学研究是一种多重意义上的跨学科研究:不仅是在科学层面跨不同学科分支的研究,而且在哲学层面也涉及不同的研究领域,是跨科学-哲学的研究。
人工智能科技的研究涉及意识、脑、身体、他者和环境等方面,因此与认知科学、意识哲学天然地具有内在的密切关系,尤其会涉及意识、语言、认知、逻辑、数学等学科领域。这些领域都是现象学研究的重要主题,因此人工智能、人工智能哲学和现象学之间能够建立重要的联系。
从现象学的视角研究人工智能的哲学问题的优势在于,可以从主体主义的视角把智能、认知和意识问题统合进行综合而系统的研究。
从现象学角度思考,人工智能科技的哲学问题主要分两个方面:一是探寻人工智能(AI)的哲学基础,涉及到大脑、意识和智能三者之间的关系,尤其是最终会追问人工智能的极限问题;二是在此基础上,从现象学的方法和理论中寻求促进人工智能科技的可能进路。前一方面是关于人工智能的基础性、理论性和终极性问题的研究,而后一方面相对而言是带有应用性质的、局部的、相对具体的问题的探究。这两个方面具有内在相关性,前者是奠基性的,后者以前者的研究为基本理论前提。但它们之间的关系又是开放式的、双向的、动态的,因为这种研究并不是一种传统的从基本理论前提开始的演绎,而是与人工智能科技关联的跨学科研究,而人工智能需要不断接受经验的检验而修正基本理论设定和应用的方式。
在人工智能的基本哲学问题中,终极的问题就是人工智能的极限问题。强人工智能认为机器智能能够实现类人智能,而弱人工智能则认为机器智能可以局部接近但整体上始终达不到人类智能的程度。
AI的智能基于图灵机的算法模拟,而后者以形式化的符号表达为前提。因此,从理论上讲,凡是可以形式化表征的认知和行为,都可以被AI实现。关于AI的一个主要哲学争论是:形式化模拟的极限在哪里?
按照德雷福斯和塞尔等人的观点,人工智能尤其是传统的符号计算进路的人工智能无法模拟人类的智能,更无法实现人工的意识。塞尔甚至指出:“计算机不只是理解能力破碎、不完整(就像我理解德语一样),而是它的理解能力为零。”[2]419因此,强人工智能是无法通过任何计算机的算法模拟来实现的。
功能主义、联结主义、生物自然主义和现象学基于各自的基本理论立场,对于机器智能的极限问题有不同的观点。其中,前三者都主张人类的智能是基于人脑的神经元组织的功能,而后者认为智能和意识以及具身主体是密不可分的。功能主义主张强人工智能,而后三者都主张弱人工智能,但因各自的哲学预设不同而有不同类型的弱人工智能主张。
基于物理主义的功能主义主张强人工智能,认为人类大脑或生物大脑并不是实现智能的必要条件,断言智能是可以多重实现的,也就是说智能的核心在于演绎的算法,而其物理实现的平台是次要的,大脑是实现智能的充分条件,但硅基的半导体也可能实现类似于人类的智能,甚至可以全面地超越人类智能。
联结主义认为人类的智能基于大脑的神经元组织,因此机器智能来源于对人脑的仿生。假设大脑的神经元组织的运行是一种广义的算法,那么人工智能就可以以算法模拟人类大脑的智能机制来实现类似于人类的智能。凡是持弱人工智能立场的学者大多主张这种“仿生”人类大脑的人工智能,如德雷福斯认为:“我们应当以建立大脑模型,而不是建立心灵关于世界的符号表述的模型的方式来创造人工智能。”[3]421由于这种算法模拟的困难,机器智能只能逐渐逼近和局部实现类人智能,并不能全面达到比肩于人类的智能。
生物自然主义也主张人工智能需要仿生大脑的认知模式,这一点类似于通常的联结主义;但不同在于,它特别强调人类的智能与人的意识不可分割,而且断言意识是大脑的属性,因此大脑是人类的智能的必要条件。人工智能的局限在于软件只能局部模拟人类大脑的算法,而人类大脑的另一些算法是基于人脑的独特的神经元组织结构的,而后者是无法由硅基芯片加软件实现的;也就是类人的智能只能由类人的功能性组织实现,而且这种功能性组织只有在生物平台上才能实现;因此也不能排除一种理论的可能,一旦可以以硬件加软件的方式模拟出人脑的组织性功能,则不仅类人的智能可以实现,而且类人的意识也可以实现,这种意义上的人工智能是一种基于生物平台的人工智能。
二元论者也主张弱人工智能,但所依据的理论前提是二元论。如查尔莫斯等人认为,强人工智能之所以无法实现,并非因为大脑的功能无法模拟,而是因为人的智能跟意识密切相关,而意识是机器无法完全模拟的。
而从现象学的角度看,人的智能与主体性的维度,尤其与是意识活动密切相关,而主体性的维度是无法彻底还原为物理-生物的机制的。另一方面,主体性又是具身的,身、心并不二元对立地存在,因此从生物的大脑机制探索人类的意识、智能有其合理的一面。就现象学的进路而言,在探讨人工智能极限的问题中,可以暂时悬置意识的产生与大脑工作的物理和生物机制之间的关系,而集中关注主体性、意识的活动模式。这样,机器智能的极限问题就转化为计算机的算法加硬件可以在何种程度上可以模拟主体性的认知模式尤其是意识活动的模式的问题。
德雷福斯对于人工智能极限的思考有两个基本的预设:第一,AI的算法模拟是基于形式化、符号表征基础上的机械算法;第二,人类的智能、意识等的特征、行为并非都是可表征的,即只有部分可表征。除此之外,德雷福斯应该还有一个隐含预设:凡是可表征的意识、行为都是可以形式化地计算的。
德雷福斯对于表征的含糊用法遭到塞尔的批评。塞尔区分了认知的表征和逻辑的表征,表征不一定是心智的,任何拥有条件的事物都对应着表征。塞尔认为,德雷福斯和海德格尔意义上的现象学的局限就在于限于主体视角的认知,而忽略了对象领域的逻辑结构[4]。
根据塞尔的看法:第一,我们的很多认知和行为都有意向性贯穿其中,也未必像德雷福斯认为的那样是不可表征的,所谓表征并不一定伴随着体验,只要能够刻画心理或者行为的状态的满足条件就可以;第二,逻辑表征和认知表征有重要区别,很多在认知层面未被表征的特性可以在逻辑表征层面被揭示出来;第三,囿于现象学的主体主义视角和方法局限,对于表征的揭示较为有限,但通过逻辑分析方法,可以揭示认知和行为的整体逻辑结构。
总之,在塞尔看来,如果超出现象学的主体主义视角,就可以看到人的认知和行为的很多方面都包含有表征,可以用综合的方法揭示其中的满足条件,那么关于人的意识、认知和行为的可表征及其可刻画的范围就要比现象学所认为的宽广得多;相应地,人工智能的算法模拟的范围也要比现象学的第一人称方法所限定的范围广得多。
当然,如果还有现象学方法之外的方法可以揭示主体的更多表征特征和条件,那么人工智能的应用范围也许比德雷福斯等人一开始预想的要乐观得多。
另外还有一个相关的重要问题是:凡是表征都可以被形式化表达吗?这里首先要区分表征和表征的刻画两个问题:(1)凡是表征都能被语言刻画吗?(2)凡是被语言刻画的表征都能被形式化吗?塞尔强调表征的广泛性,区分了认知表征和逻辑表征,前者是在意识中的表征,后者是在逻辑层面,对应的是状态的满足条件的集合。
按照塞尔的观点,原则上,逻辑表征是可用逻辑分析方法揭示,进而被命题化表达,因此可以对问题(1)进行肯定的回答。塞尔似乎认为所谓逻辑分析可以完全不依赖意识表征而被单独使用;具体而言,他借鉴了语言哲学的逻辑分析方法:“我把超越语句与言语行为的逻辑分析方法扩展到分析信念、愿望、意向、感知经验和意向行动的满足条件;而且,扩展到与现象学在很大程度上(尽管不完全)是不相关的这项事业。但是,如果你不超越现象学,你将不会揭示这些现象的逻辑结构。”[5]7但这里的逻辑分析方法本身并没有被清晰地界定,而是借用了语言哲学中逻辑分析的概念。所谓逻辑分析通常是基于对对象领域的整体认知,而且还伴随着某种理论模型的假设,即便被塞尔作为逻辑分析典范的摹状词理论,也并不纯然是逻辑分析的结果,而是一种理论假说。问题(2)即凡是被语言表达的表征(也就是满足条件)是否都可以被形式化?这个问题依然是很难肯定回答的,也许即使对那些我们可以描述的表征,也许只有其中的一部分可以被形式化表达。
需要重申的是,虽然说广义上无论是我们的认知、行为还是外部世界的事物都涉及表征问题,但此处关注的表征主要是关于主体的认知和行为模式的表征,因为人工智能的目标在于模拟人类的智能,即使是对外部对象和环境的表征,也是基于机器智能与环境的交互过程。这种对主体性特性和功能的表征,一方面是对与认知和行为相关的大脑、身体行为的物理-生物层面的活动的表征,另一方面还有对人的意识活动以及相关的机制等主体性维度的表征。目前,仿生的人工智能主要关注前者,而基于现象学视角探讨人工智能的机制时则主要关注后者。
另一个主题是算法。因为表征和形式化是为算法服务的,只有使主体下认知和行为的物理-生物/意识活动过程可以被算法模拟,相应的机器智能才能实现。
狭义算法建立在形式化表征基础上,而广义的算法则指自然界中、生活中可以用有限步骤完成的过程,未必都是计算机的形式化、数字化的计算。由此产生的问题是,广义的算法有多少可以被形式化模拟?特别地,假如作为人类智能基础的大脑的生化运行机制被看作广义的算法,那么机器智能可以在什么程度上模拟大脑智能?从人脑、人的意识以及人的行为被形式化表征到实现对它们的算法模拟依然有很大的鸿沟需要跨越:因为计算机模拟是基于数字化表达的,所以机器智能只能模拟那些离散数据的过程,由此推出的机器智能所能模拟的人类的认知、意识和行为只限于那些可以处理为离散的、数字化的片段。但是,人脑的神经元组织的活动尤其是人的意识过程是否都可以被看作是离散的集合?到目前为止,这些问题依然存在争议,这也是机器智能要逼近人类智能可能面临的关键困难之一。
对于现象学进路的意识模拟而言,这个问题在初步阶段层面并不构成困扰。这是因为现象学并不关心意识的心理过程,而关注意识行为及其相关项,任务是描述其本质结构,至于心理层面的意识活动是否连续并不重要。塞尔也认为心理状态的直观层面并不重要,而那些可以用逻辑分析刻画的状态满足条件才是重要的。当对意识行为的模拟深入到原初的意识之流时,则对内在时间意识的延绵状态的准确、系统的描述才会成为现象学方法面临的严重挑战,这是现象学的非对象性的原初层面,反思的直观受到一种限制,而试图对这种时间意识之流的符号模拟似乎超出了现象学方法所能延伸到的有效范围。
前述第二个问题实际上是探寻现象学的方法和理论可以为人工智能的发展提供什么帮助。一个可能的方式是借助现象学对意识结构、主体与世界关系等的描述,采用算法模拟方式来发展人工智能的认知方式。
众所周知,到目前为止,人工智能最主要的进路是基于逻辑演绎的符号计算模式和模仿人脑的仿生模式,占据主流地位的是联结主义的仿生进路的机器学习,这是对之前的逻辑-符号表征进路的人工智能的突破而取得的。仿生模式的人工智能和脑科学研究密切相关,可以说主要是奠基在脑神经科学基础之上。
目前,人工智能的一个重要进路是模拟大脑的智能模式,具体而言是试图从脑科学对亚个体层面的神经元组织的研究中获取灵感。自然主义者认为智能主要是人脑的功能,因此主张人工智能科技主要奠基于脑科学、认知神经科学。目前,脑科学研究已经揭示了很多人类的感知、认知的生物机制,因此基于神经科学研究的仿生的人工智能对人工智能的发展非常重要。
但是,仿生的人工智能研究并非仅仅局限于模拟神经元组织活动的层面,它还可以对人类的个体层面和群体层面的认知和行为模式进行借鉴和模拟。目前的人工智能主要是用数学统计模式代替原来的逻辑演绎模式,但依然具有很大的局限性。
目前的人工智能的产业化和宣传看似如火如荼,但实际进展仍然缓慢。机器学习无法像人类一样举一反三,无法灵活地适应变动中的环境,不具备人类的基本常识,无法完成很多基本的日常任务。虽然近些年脑科学研究进展迅猛,但迄今为止所取得的成就依然不足以给人工智能的研究模式以重大革新。事实上,人工智能如果只是延续目前的方法和思路,那么人工智能要实现距离代替人类的很多工作例如科研、执行危险任务以及照顾老人小孩等目标就会遥遥无期。因此,我们必须不断反思研究思路的问题和方法,找到新的突破口。
比如,有人工智能专家对比了鹦鹉和乌鸦的智能,发现鹦鹉很善于模仿人类的语言,类似于目前的聊天机器人,“二者都可以说话,但鹦鹉和聊天机器人都不明白说话的语境和语义,也就是它们不能把说的话对应到物理世界和社会的物体、场景、人物,不符合因果与逻辑”[6]。而乌鸦要比鹦鹉聪明,“它们能够制造工具,懂得各种物理的常识和人的活动的社会常识”[6]。可见,人工智能的进步确需要仿生的研究,不仅要探究神经元层面的活动模式,而且更需要从宏观层面对人和动物的认知、行为模式的研究中汲取推进人工智能的思想灵感,甚至需要考察生物的社会认知和群体行为模式。
现象学是从主体角度来理解人和世界的,尤其在研究人的意识、认知和行为、主体间性、社会认知以及主体与世界的关系方面有大量的成果积累。因此,现象学的理论,现象学对主体性和主体间性层面对主体的意识、语言和行为的研究可以为上述所设想的主体性层面的人工智能进路提供重要的支持,推动人工智能突破目前困境,探索新的革新道路。
这种主体性进路的模式也是一种“仿生”的模式,不过模仿的对象不是人脑而是人的认知模式和行为模式。与脑科学侧重于脑神经系统的生理-物理微观机制研究不同,这种主体性的仿生模式主要是对认知和意识的特征、模式的模拟。
人工智能的目标是设计具有类人智能的机器,即希望“智能机器有自主的感知、认知、决策、学习、执行和社会协作等方面的能力,并符合人类情感、伦理与道德观念”[6]。因此,我们需要先澄清人类所具有的这些方面的能力所需要的满足条件和结构模式,而这些问题的澄清需要一个基本背景框架,即我们需要先理解人与世界打交道的方式。对于这些问题,从人类的主观性维度切入是便捷之路,也是任何人工智能绕不开的必由之路。
这种基于现象学的描述方法的研究进路可以与脑科学的研究相互参照。这种主体性的仿生模式,需要在现象学、经验科学和人工智能科技之间建立一种“翻译”机制,实现彼此之间的理论转化和方法的互补,也就是需要把现象学的第一人称视角的描述方法与脑科学和认知神经科学的第三人称视角的方法结合起来,深化对意识、智能和脑之间关系的深度探索,从而深化和丰富“仿生”进路的人工智能研究。例如,前面所提到的人工智能中的表征、形式化、算法如何与现象学中对意识结构、认知方式和行为模式等的理论成果对接起来,形成一种双向的相互参照和阐释。
以前面讨论表征问题为例,表征可以是呈现在第一人称视角中的认知表征,也有不依赖于意识行为的逻辑表征。现象学所擅长的是把握和描述意识体验中的认知表征,例如胡塞尔现象学揭示了意识和行为中具有普遍性的意向性结构,这是带有主观性特征的表征结构。而逻辑分析方法则擅长刻画意向状态的满足条件意义上的逻辑表征,相对而言这是对认知行为的客观的、静态的揭示。这两种方法具有互补性和依赖性。逻辑分析方法需要以直观描述方法提供的基本经验内容为前提才能进一步深入地分析。两方面的描述和分析的结果需要相互补充和相互校对才能更全面和准确。对于人工智能的表征而言,最主要是把握主体表征的根本特征和基本模式。这除了外在的观察实验和建模之外,还需要参照主体维度的认知成果和直观经验内容:现象学的描述提供了主观性角度的直观方式和经验内容,而逻辑分析提供了对表征满足条件的揭示。
这些方法在人工智能领域的综合应用总是有限度的。关于意向性的逻辑表征的内容容易转化为符号表征,但意向性的主体性特征并不能够被带入到人工智能中,也就是说机器人也许具备类似我们的感知能力,但可能始终无法和我们一样“主观地”感知世界,这也是传统“意识的难问题”(the hard problem of consciousness)在人工智能领域的体现。
如前所述,现象学是在主体性维度研究人的意识、认知、行为、主体间性以及与世界的关系等问题,这些主题如主体间性以及人与世界的关系等问题是一般性的、总体框架层面的问题,其他问题都是重要的基本专题。因此,现象学可以在总体理论框架和重要的专门主题这两个方面为人工智能的研究提供理论思想资源。
第一个方面,总体框架层面的问题尤其是人与世界的关系问题对人工智能而言是基础也很重要,因为这是一切人工智能的具体理论展开的前提理论。当然,主体间性问题即与他者的关系问题也是基本的,很重要,但它涉及到人、意识、身体、他者和世界等多方面的关系,是更复杂、深入、高阶的问题,需要在对前一个人与世界关系问题的探讨到一定程度后才能逐步逼近的问题。
如何理解人与世界的关系?这涉及到人、世界以及二者的关系等三个方面的问题。物理主义、自然主义和现象学因为各自的立场和方法都不相同,故对这些问题的理解有很大的差异。主流的人工智能往往持物理主义或自然主义的立场,预设了世界是一个遵循物理规律的,由物理事物构成、因果链条关联起来的世界,主体是一个由物理-生物规律所决定的生物体,主客之间的关系是生物系统和物理系统之间的交互作用关系。有学者认为生物的特征在于具有“智能物种与生俱来的任务与价值链条”[6]。人和动物具有共性,“动物的行为都是被各种任务驱动的,任务由价值函数决定,而后者是进化论中的phenotype landscape,通俗地说就是进化的适者生存”[6]。因此,站在这种立场上,“说到底,人工智能要变成智能科学,它本质上必将是达尔文与牛顿这两个理论体系的统一”[6]。这种观点的问题是,人是否可以被简单地看作是受本能驱动的动物?这些物理主义、自然主义的观点显然忽略了人的自由意志问题。因此,这种进路的人工智能的基础在于认知科学,相关的人的主观性维度,如自由意志、情感、体验等方面的难题有待于未来的认知科学、脑科学来解答。
但现象学对主体、世界及二者间关系提出了另外一种系统的看法。首先,不仅人的高级意识具有一种主动性,而且在感性层面的被动意识中也有一种主动的成分,即便是熟练技能的操作看似有无意识的特征,但实际上也是由意志驱动的;主体的精神有一种自发性,而且贯穿于主体的所有行为中;即便身躯也不仅是生物学意义上的对象,而是具身性的。因此,现象学给予人工智能的启发之一是不能把主体视为一种笛卡尔式的物理学-生物学意义上的机器,如果忽视人的主体性维度,那么可能无法把握人类认知和智能的根本特征。
其次,从现象学的角度看,世界是主体间性的生活世界,也就是我们所理解的世界其实渗透着群体的共主体性的因素。由于人工智能不是物理学,而是要处理以世界为背景的认知和行为,因此如果忽略我们认知和理解的世界都是基于人与世界打交道的方式(用海德格尔的表达式是“此在在世界中存在”),那么人工智能可能永远也不具有类似主体的认知能力和行动能力。
第三,对于主体间性问题,也是人工智能需要处理的最重要的问题之一。因为人工智能不仅是与世界打交道,更多地是与人打交道,因此也需要理解人之间的行为方式,才可能识别和理解人类的社会行为,使机器人、智能机器协助人类的工作或者服务于人类生活。
前述人工智能哲学的第二个方面问题,是借用现象学对人的认知和行为的重要方面的研究来为人工智能的专题性研究寻求灵感。此第二个方面问题的研究必须以前述第一个方面的基本研究为基础。例如,人工智能可以借鉴现象学对意识、身心关系、主体间性以及主体与环境之间的关系等方面的研究成果,可能帮助人工智能理解人与世界、自我与他者的基本关系;现象学对意向性、注意力、联想机制、动机引发、具身性、主体间性、情感、价值、伦理、主体与世界的关系因果等的揭示,也可能启发人工智能发明一些相应的新拟人算法。
另外,还可以借鉴以往现象学对于意识和认知的研究思路和成果,设计人工智能算法。例如,胡塞尔在《经验与判断》[7]等研究中对于认知的逻辑谱系有很深入的研究,不仅研究了经验的和先天的普遍性判断,还研究了意向构成的基本视域(包括构成对象的内在视域)、前谓词经验的构成机制和方式,涵盖了认知经验构成的整个谱系。这种对经验和知识的从下到上,从感性到理性、由特殊到普遍的逻辑谱系的描述,揭示了认知的逻辑发生机制,这对于发展机器智能具有重要的启示。
例如,早期的逻辑演绎的符号主义的人工智能面临的最大问题是所谓“框架问题”(frame problem),即为了认知一个对象,需要对作为背景的环境的整体规律有个框架式的设定和概要表述,才能推演出关于此具体对象的认知。而近年来的基于数学统计的机器智能则尝试发展无监督的学习,即希望智能机器能够尽量少依赖预先的训练和海量数据,学会在开放的环境中逐渐学习而识别对象。胡塞尔的逻辑谱系学所揭示的这种从底层开始的逻辑的发生构成机制可以启发涉及智能机器如何去从少量的数据输入开始从环境中学习识别对象,这才是真正模拟人类的认知方式。因此,可以为主体性“仿生”模式的算法模拟提供很好的研究思路。
如前所述,人工智能的算法模拟基于形式化,那么对于主体性尤其是意识而言,形式化的极限在哪里?
首先,从显现和把握的方面来看,现象学的描述方法可以把握人的主体性维度,也就是揭示意识、认知和行为的主观性维度中的本质特征和根本结构等。但现象学的方法是基于现象在直观中的原初给予,那些对直观而言未显现、未在场的部分,虽然也通过现象学的“共现”(apprasentation)的方式直观把握,但具有直观的明见性的领域始终是有限的,这也是第一人称视角本身所无法克服的问题。例如,用现象学的方式探索非对象性、非谓词领域时,一直存在的一个争论就是有人认为反思行为可能会干扰被反思领域的原初状态。另外,对原初意识之流的直观已经逼近现象学方法极限,而更为深邃的无意识领域包括在具身性领域的无意识行为,并不能被明见性地察觉。还有,对于具身性主体的无意识层面的探究,是现象学描述方法的盲区,除非像塞尔所认为的,一切主体维度的无意识的行为最终会显现在意识中,从而被意识所把握。但这即便是正确的,也依然是相对的,能够进入意识层面的无意识行为总是有限的,总有一些与身体相关的感性论层面是晦暗不清、无法被考察和描述的。
其次,即便是可以被现象学的基于直观的描述方法所把握到的主体性特性,也未必能够以符号化的方式加以描述。例如:胡塞尔所说的前谓词的经验、非对象性的意识尤其是原初的意识之流的层面的意识等,虽然可以被反思把握,但必能够以语言描述出来;海德格尔所谓的此在的存在论结构未必可以被现象学的语言描述方法对象化地、系统地把握。即便它们可以被语言描述出来,也未必可以用符号表达式、形式化方式描述出来。这些并不是现象学方法的问题,而是由主体性本身的特性所决定的,或者也可以说是计算机的形式化表达和算法本身的局限性所决定的。
最后,现象学的描述方法可以与逻辑分析方法互补来扩充其使用范围。前面以意向性论题为例讨论表征的刻画问题时,已经略述了塞尔主张的所谓逻辑分析方法。塞尔认为语言的逻辑结合和意识的基本特征具有对应性,因此以语言哲学中的逻辑分析方法类比意识研究中的逻辑分析方法。虽然塞尔对上述逻辑分析方法并没有给予清晰的阐明,甚至这种方法分析得出的结论也带有理论设想的成分,但其刻画意识状态的满足条件的思维可以配合现象学的描述,拓展对于各种意识、认知和行为模式的揭示。也就是说,在现象学的方法遇到困难的地方,可以借助不那么具有“明见性”的逻辑分析的经验来补充。因为人的认知、意识等机制极端复杂,我们不期望可以对人的意识和认知等特征进行完备无缺的描述,也更不可能在人工智能中进行复制式的严格模拟,而只能对其主要特征近似地把握,为人工智能提供灵感;因此我们并不需要严格遵循现象学的明见性原则,而采取现象学描述和逻辑分析相结合的方式进行这种主体性进路的揭示和模拟。
如前所述,功能主义认为智能的核心是算法,甚至意识都能在非生物的平台例如芯片加算法基础上实现。而无独有偶,在认知科学领域,生物自然主义认为意识是大脑的功能性组织的特性。生物自然主义虽然认为意识是人脑的产物,但并不能够由硅基芯片加算法实现;因为生物自然主义固然承认大脑神经元组织的运行广义上也遵循着种种“生物算法”来实现,但却认为这种广义的“生物算法”必须依赖大脑的生物平台,并不一定能够以数字化的方式进行模拟。
但是,如果接受人的意识是广义的“生物算法”的产物,那么在理论上人脑的部分功能还是可能以由计算机的算法部分模拟的,乃至未来有可能发明基于脑科学和计算机科技的生物计算机,以高度逼真的方式模拟人脑的运行方式,从而实现类人智能甚至某种程度的类人的人工意识。
因此,从现象学的角度看,主体性的特性尤其是意识具有感受性质(qualia)、自我觉知(Self awareness)等特性,这些问题对于认知科学依然是难题。意识最原初层面的原初意识之流、内在时间意识机制、记忆等问题对于现象学和整个哲学也是难题。而人工智能的算法模拟需要建立在哲学以及科学对于意识的内在机制的揭示之上,因此所谓“人工意识”的问题很长时间之内很难真正成为人工智能的研究主题。
人工智能作为一种前沿科技,涉及多种科学学科乃至哲学,需要一种跨学科的广阔视野,在多种科学-哲学的学科交叉中不断开拓前进的道路。哲学对人工智能的意义最主要是在方法论的层面,其次才是哲学理论的洞见对技术的启发,从而开辟多种可行的发展进路。现象学的主体性视角、描述方法在研究主体尤其是意识方面的独特优势,会成为人工智能研究的重要推进力量。可以预期,在未来很长的时期,现象学的研究会伴随着人工智能的发展,也会促成自身的深化发展。现象学进路的人工智能哲学必须深入到人工智能科技的进展中而展开,尤其是灵活应用现象学的描述方法,结合逻辑分析的方法,以可操作的方式不断给予人工智能以方法和思路上的启示。现象学并不停留在抽象的理论层面,而是一种工作哲学,“像胡塞尔常说的那样,哲学必须有能力将它的普遍命题的大票面钞票兑换成接近实事的细致分析的小零钱”[9]12-13。这也是让哲学的理论和方法直面科技前沿的经验和实践的严峻检验,赋予哲学以更多的经验材料和思想灵感,使哲学更好地与时代精神接轨,从而激活哲学的内在生命力。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!