当前,人工智能技术的发展依赖于计算机作为推动自动化技术进步的重要载体。基于数据的人工智能技术可以通过各种自动化设备替代人类的多种生产活动,从而提升社会的整体发展效率。然而,人工智能的巨大效能提升也伴随着相应的风险。我们必须认真评估人工智能将为我们带来怎样的未来,以及这些风险是如何产生的,如何开展相关的研究和防范措施。
机器是否会取代人类?
让我们回顾人工智能发展过程中的一些重要事件和引起公众讨论的话题:1997年5月,IBM的“深蓝”计算机首次战胜国际象棋大师卡斯帕罗夫;2016年3月,人工智能AlphaGo击败了韩国围棋大师李世石;同年,富士康在江苏昆山工厂用4万台机器人替代了6万名人类员工;2017年10月25日,首位机器人公民“索菲亚”获得沙特国籍,成为合法公民。这些事件加深了人们对人工智能未来的担忧与思考,随着技术的进步,人工智能逐渐被视为同类,电影《她》中描绘的人工智能伴侣也在逐步成为现实。这促使我们开始思考AI发展的潜在风险。我们将从三个方面进行讨论:人工智能的风险范畴、风险的形成机制,以及人工智能发展的边界问题。
首先,我们需要探讨人工智能的风险范畴,这可以追溯到乌尔里希·贝克在20世纪90年代提出的“风险社会”概念。他指出,科技在促进社会发展的同时,也对生态环境和人类生存构成威胁。“在风险社会中,风险已取代物质匮乏,成为社会和政治议题关注的核心。”换句话说,社会风险成为了底层逻辑之一,而技术风险则是其中影响最深远的类型。与传统社会不同,现代社会的风险是人类制造出来的,源于对科学与技术的无限制追求,导致结果和目的的不确定性。因此,技术风险既是技术内在属性的反映,也是人类行为选择的结果,这为我们理解技术风险奠定了基础。
需要注意的是,尽管人工智能的风险属于技术风险的范畴,但与传统技术风险存在显著差异。通常情况下,技术风险源于外部因素,如环境、生态、经济和社会风险等。这些风险是由于技术与社会因素相互作用而产生的。然而,人工智能技术则可能带来更深层次的内在风险,挑战人类存在的地位,以及人类边界的复杂性。许多电影和文学作品中反映出人类对AI的最大担忧,正是源于人机关系模糊及其精湛程度的加深。换句话说,基于人类价值尺度的判断风险显著增加,而目前所有关于AI的研究都强调以人类根本利益为风险评判的目的和原则,绝不能以牺牲人类利益来追求技术的发展。
在《人类3.0》一书中,泰格马克提到AI发展的三个阶段:第一阶段是AI模仿人类并完成交付的工作,此时机器具备初步智能,人类对AI拥有完全控制力;第二阶段是合作阶段,人类协助AI完成大量工作,AI根据有利于人类的目标设计;第三阶段是竞争甚至取代阶段,AI在大规模应用中超越人类控制,出现依赖、竞争或被控制的情况。换言之,人工智能的风险包括两个方面:一方面是客观现实的物理层面,人类能力逐渐被替代,外部技术性风险增大,如失业率上升;另一方面是主观认知层面,人类心理风险增加,随着机器人逐渐具备人类形态和认知,人类可能逐步认同机器人的同类关系,带来伦理问题。
风险背后的逻辑
接下来,我们分析人工智能风险形成的基本机制,正如马修·谢勒所言,“行为的自动化是人工智能与人类早期科技的最大不同,人工智能系统能够在没有人类控制或监督的情况下运行。”可以看出,人工智能技术为人类社会带来的收益与风险是双刃剑。一方面,AI通过替代人类劳动,解放生产力,使人类活动拥有更多时间和空间;另一方面,AI的替代作用使得人类面临失去控制的风险,人类主体地位在某种程度上被让渡。更深层次地看,人类通过技术提升了身体能力,现代技术的潜在动力源于人类对技术放大性的追求。人工智能技术整合了多种技术,体现了人类对技术放大意愿的实现。但与此同时,人类也可能在技术放大的过程中逐渐失去自我,技术朝向脱离人类意愿的方向发展,进而使技术风险成为现实。
如果说康德的“人为自然界立法”论断标志着人类脱离自然界的控制,确立了主体性地位,那么AI的发展正威胁着这一主体性地位,AI通过其类人特质的成长,逐步增强替代人类活动的能力。换句话说,技术自身具有不确定性,尽管人工智能技术原本旨在促进人类发展,但在发展过程中可能成为增加人类生存风险的障碍,这一点值得警惕。
除了技术本身的特质,我们还需关注伴随技术革命而来的资本力量。从工业革命以来,现代技术的发展与资本密不可分。资本追求利润,而技术则旨在满足人类的物质需求,因此,技术能够最大程度地实现资本的目标,二者存在一定程度的同构性。换句话说,资本逻辑与技术逻辑之间形成了共谋,资本在价值增长过程中扩散技术优势。资本作为有效的资源配置方式,能够将资源最大化地配置到最佳的技术路径上;而技术则能够将外部事物纳入自身规范,利用自身的力量推动和改变存在者。简单来说,技术产生的力量是人类无法控制的,正如乘坐某种工具一样,人在技术的要求下不受限制地开发自然、掠夺资源,同时也将自身视为技术所需的资源,最终被技术支配而无法脱离。这是海德格尔对现代技术本质的讨论,也是理解人工智能带来的风险的重要视角。同时,由于资本(钱财)具有超越具体事务的特性,可以根据人类需求改变自然。因此,关注AI技术发展中数字鸿沟可能带来的社会公平问题同样至关重要。
技术的边界
理解人工智能带来的风险后,我们需要讨论人工智能技术发展的边界,只有明确边界,才能更好地理解风险。实际上,人工智能相较于传统技术风险的主要问题在于对智能的理解边界产生了分歧。人类是目前唯一具备智能的实体,人工智能的出现引发了智能边界的问题。我们可以从三个方面来理解这一概念:
第一,人工智能的“智能”是通过计算机技术将信息转化为知识发展而来的,因此存在可计算的边界。目前,计算机主要侧重于逻辑运算,而情感无法被计算。当然,我们也看到马斯克等企业家通过脑机接口等技术尝试实现对人类思维的解读,为AI赋予新的智能模式。然而,考虑到我们对大脑的认知(尤其是与意识和情感相关的部分)仍然非常有限,我们暂时无法预见AI产生自我意识和概念的可能性。如果技术进步使得人工智能具备意识,那么无疑将产生系统性风险,人类将不得不与之共存,相关的生存空间矛盾也将难以避免。
第二,人工智能技术的边界正在挑战技术的社会属性。一般而言,技术具备自然属性和社会属性。自然属性源于技术产生和存在的内在原因,即符合一定的物理规律;社会属性要求技术符合社会规律。人工智能技术的发展正在改变社会的伦理和制度,这是人类区别于人工智能的关键因素之一。目前,人工智能仍然以功能性个体或群体形式存在,并不具备社会性质。因此,它无法被视为物种或群体。正如马克思所言,“以一定方式进行生产活动的个人,发生一定的社会关系和政治关系。”这些社会关系反过来制约劳动方式,直接决定人类本质。换句话说,人的本质是所有社会关系的总和。人工智能基于计算,而社会关系无法通过计算获得。反之,如果人工智能能够从人类群体中学习社会关系知识并形成所谓的集群智慧,成为“超级智能”,那么人类的危机和风险将被放大,社会危机将难以避免。
第三,我们需要关注人工智能技术可能推动的“后人类”时代的风险,即通过与人类结合后产生有别于人类的物种,形成“赛博格”。后现代主义技术哲学家唐娜·哈拉维提出“情境知识”的概念,将自然与文化视为动态和异质的范畴。所谓赛博格(CyboRg)是通过控制技术来掌控有机体,实现人与技术的深度融合,形成共生体。通过这一技术范式,有可能打破机械与有机、物理与非物理之间的界限。
[[[IMG_1]]]
[[[IMG_2]]]
[[[IMG_3]]]
