盛煌注册

业务范围你的位置:盛煌注册 > 业务范围 > 人工智能和国际关系的未来 | 国政学人

人工智能和国际关系的未来 | 国政学人

发布日期:2024-08-26 05:48    点击次数:59

图片

人工智能和国际关系的未来

图片

作者:Toni Erskine,澳大利亚国立大学教授,剑桥大学 Leverhulme 未来智能中心副研究员

来源:Toni Erskine,“AI and the future of IR: Disentangling flesh-and-blood, institutional, and synthetic moral agency in world politics”. Review of International Studies. Vol.50,No.3,2024,pp.534-559. 

导读

未来50年,人工智能(AI)即机器模仿人类智能行为这一能力的不断发展,或将继续扰乱世界政治的方方面面。这种颠覆将包括对全球劳动力的不平等影响,资源和财富分配差距的加剧;政府监测、控制和判断本国公民及干预他国政治能力的增强;以及人工智能对战争行为、国家诉诸武力决策的影响等。从算法系统到自动机器人,智能机器已经可以创造图像和诗歌、引导偏好、辅助决策,甚至杀人。如何理解这些日益复杂的人工智能,既是世界政治所面临的紧迫现实挑战,也是研究世界政治学科时一个常被忽视的理论难题。

道德能动性、人工智能和国际关系理论的局限性

当前,国际关系理论受到四个方面的限制。其一,国际关系中的主要理论均采用了一种众所周知的狭隘能动概念,这种概念将人类个体理想化为独立、统一和拥有完全理性的行为者,将国家视为“国际社会鲜活的个体”。因此,在“理论化”的名义之下,世界政治中具有多样性的行为体之间的区别被主观地忽视或忽略。

其二,主张国家为主体的概念被辩护得不够充分。尽管长期以来,古典现实主义、新现实主义、新自由制度主义以及一些建构主义方法均长期依赖于将国家作为其自身主体的大胆概念,但同样的立场并不关注对这一地位的辩护或探讨其独特之处,因为理想化的能动形象很难通过这种方式来捍卫和区分。

其三,国际关系在识别和维护国际政治中那些有资格作为目的性行为体的机构方面缺乏一致性。其中,许多理论方法盲目地接受了国家的作用,却忽视或明确拒绝了其他具有同等能力的机构的作用,如政府间组织往往被视为国家的“工具”和国家在其中追求利益的“结构”,而非有目的的行动者。

其四,国际关系学一直未能认真对待其对某些相关实体作为复杂的目的行为体的承诺所产生的伦理影响。

那么,在试图解读新兴人工智能实体的道德地位时,国际关系理论在阐述能动性方面的局限性和可能性会让我们面临何种处境呢?

当我们从人工智能的本体论和道德地位的角度来审视这些局限性时,每个缺点都会被放大。首先,人工智能不仅比国际关系理论所声称的代表者更接近纯粹理性行动者的狭隘模型,而且还揭示了我们需要一种更加细致和多样的能动性理解,以允许我们直观地认识到存在的重要差异。其次,对人工智能的关注,挑战了“人造”与“自然”行动者之间的常见区别,并表明如果能动性的复杂表现形式可以有多种形态,那么我们需要了解它们的定义和区别特征,而不是依赖单一的、以人类为中心的模式。再次,对人工智能实体的考虑加强了世界政治中不同形式的企业行动者之间的连贯性和共性,提醒我们它们与个体人类行动者的不同之处。最后,除了个体人类之外,还存在具有复杂能力的目的性行动者这一国际关系理论的核心假设,为质疑我们周围日益智能的机器的道德地位提供了强有力的推动力。

重温国际政治中的血肉和机构道德能动性

在能动性的门槛方面,一般来说,人类个体是我们理解道德主体的典范。然而,并非所有人都有资格成为道德主体。有充分的理由证明,正式组织是机构道德主体,其具有审议、反思和行动的能力,它们造成和补救损害的能力远远超过任何个人。具体而言,这些组织机构具有审议能力,体现在高度发达的信息收集和分析机制以及决策程序中,并产生了类似于意图的东西,并且这些机构还具有反思能力。

在“自然”与“人工”主体方面,人类通常被描述为“自然”主体,与之相对的是“人工”主体,如国家(或人工智能)。事实上,我们的社会环境和角色直接影响着我们获取信息和资源的能力、独立于其他主体的能力以及制定和实施自己计划的能力,无论积极还是消极。

在道德能动性和道德耐心方面,尽管有血有肉的道德主体和机构道德主体都跨越了自然与人工的鸿沟,但在另一方面,它们却有着截然不同的区别。“道德病人”这一哲学概念,也适宜被引入国际关系的讨论中。“道德病人”是道德关怀的对象,是负有责任的实体,是本身具有价值的实体。只有有血有肉的道德主体同时才是“道德病人”,所有人类个体都被理解为“道德病人”,但机构道德主体并不是“道德病人”。与人类不同,机构道德主体不具有使其成为道德关怀对象的内在价值,其价值体现在其工具价值上。尽管形式组织因其复杂和综合的审议、反思和行动能力而能够成为道德义务的承担者,但它们不能成为道德关怀对象。

合成道德在世界政治中的前景

在确定某些集合体是否可以成为道德主体时,我们要看它们在多大程度上可以被认为是独立的行为体。就人工智能的形式而言,其主要障碍是自主性,或者说是实体自主想象和行动的能力。只有当人工智能能够评估和修改其程序所包含的复杂代码和算法时,它们才能被合理地理解为本身就承担着道德责任,并因未能履行这些责任而受到指责。换言之,机器的作为和不作为只有在它们能够真正选择不这样做的情况下,才能被认为是它们自己的行为,并且是基于它们自己的理由行事。除非机器能够独立地反思和改变指导人工智能实体的计划和偏好,否则仍将由其各自的人类工程师、程序员和操作员进行设计。简而言之,人工智能作为道德主体所需的自主性必须是反思性的,而不仅仅是反应性的。

算法代表了创造算法的个人和机构的共同理解和社会习俗的特定静态快照。因此,人工智能体现的是社会世界的一个有限的、经过策划的和固有的保守版本。如果有可能合成道德能动性,根据定义,他们将能够反思、拒绝和修改这些算法代码。然而,它们仍将远离那些细微的、动态的、尤其是人类的规范、社会结构和意义系统,而这些规范、社会结构和意义系统正是有血有肉的、制度化的道德主体的角色。

与机构道德主体一样,若把尚未假定的人工智能称为合成道德主体,那它也不是“道德病人”。尽管机构道德主体和合成道德主体都不具备“道德病人”的资格,但它们之间存在着另一种相应的差异。也就是说,只有前者是由“道德病人”(以其个体人类成员的形式)部分构成的。尽管正规组织缺乏道德地位,但这一现实却限制了我们对待它们的方式。

在探讨如何理解未来人工智能实体的潜在能力和道德地位时,对日益自动化的武器所带来的危险的反应很有启发性。这些回应可分为三类:其一,要求维持所谓的“有意义的人类控制”,或对自动化系统完全独立地选择和攻击目标的能力进行人为的限制;其二,具有前瞻性地禁止开发、生产和使用可以绕过这种控制的自动化武器,从而使这个潘多拉盒子保持关闭状态;其三,设计出既“自主”又能履行道德责任的致命智能机器。

克制的道德主体与战争中的错位问题

人工智能正在渗透到世界政治的每一个领域,而其对战争的影响或将尤为深远。有血有肉的道德约束者和机构道德约束者的例子不胜枚举。就前者而言,士兵是最明显的道德约束者。而机构道德约束者主要包括大多数国家,它们拥有强大的战争能力和诉诸战争权,只有在特定条件下才能发动战争。联合国、北约和非盟等政府间组织也是潜在的道义克制力量。人们期望它们将诉诸武力限制在集体自卫的情况下,或在所有和平选项都已用尽的情况下保护人类。

要达到这种理想的卸责效果,一种方式就是将责任转嫁给一个根本不是道德主体的实体。这种情况常见于国际政治中,当责任被隐晦地宣称为“国际社会”的责任时,由于“国际社会”是一个无定形的集体,无法采取统一的、有目的的行动,而不是针对或由相关的机构道德主体承担,这些机构能够回应具体的行动呼吁和对不法行为的指控。

还有一种倾向认为,当责任与其他行为者分担时,责任的分量就会减轻。在这种情况下,责任被理解为被分割和分配,但却没有其他道德主体能够承担所分配的责任。其结果是,唯一的责任承担者会产生危险的误解,认为自己的负担减轻了,因为“做正确的事”的任务是共同承担的,而不是自己的。

在某些领域,机器的认知速度正在迅速超越人类。此外,机器学习过程必然是不透明的,且往往是不可预测的。那些操作智能机器并接受其指导的人往往不了解这些机器是如何做出决策的,也经常无法掌握它们的局限性。人工智能驱动的决策缺乏透明度,会在许多不同情况下产生一系列负面影响。算法会暗中延续不平等,强化社会偏见,对招聘和保险决策、警务实践和福利分配产生影响。人工智能自动化武器的使用将自动化的偏见带入战场,利用机器学习算法向政府提供诉诸武力决策的建议也不会太远。智能决策支持系统可以通过估计威胁、预测潜在对手的动向、预报伤亡和预测任务成本等方式指导敌对行动的发起,这将有可能在作战室和诉诸战争权的考虑因素中引入自动化偏见。没有理由认为机构决策不会同样受到自动化偏见的影响。同样,国家和政府间组织的相关决策机构也可能认为自己放弃了克制的责任,因为他们在决定是否参战时会听从算法的意见。

任何令人信服的道德责任归属都必须考虑到其所针对实体的具体能力和局限性。对尚未假定的合成道德主体的克制期望,如果只是基于我们对人类能力和局限性的理解,要么是异想天开,要么是鲁莽行事。要应对这种责任错位的情况,就必须防止妄自尊大,并从对世界政治中现有和潜在道德主体的比较分析中汲取预设的教训。

结论

未来50年,人工智能实体或将以我们尚无法想象的方式继续介入世界政治,因此有必要重新评估我们对国际关系中的复杂能动形式的隐含假设,以便制定所需的理论框架来描述、规定和评估与这些新兴技术相关的决策和行动。

从以上分析中得出的第一个教训是,在道德能动的最低能力与界定世界政治中道德能动的特定类别的特征之间存在着至关重要的区别。虽然从人类身上可以帮助我们提炼出我们所理解的、可以承担责任和分担责任的机构的决定性特征,但这并不意味着人类已经穷尽了道德主体的类别,也不意味着人类代表了一种理想,其他潜在的变体都应据此进行评判。第二个教训是,即使是具有复杂的决策、反射和执行能力的主体,也有可能具有截然不同的道德主体特征,因此我们在赋予道德责任时必须考虑到这些差异。如果没有掌握这两条经验,就会出现问题,这种失误被称为“责任错位”,这些分析都将为今后的研究提供更紧迫的领域。我们对新出现的人工智能实体的错误假设会如何影响或侵蚀世界政治中目前已确定的规范,并产生深远的地缘政治影响,将成为一个重要的问题。

词汇积累

Anthropocentric 

 人类中心主义的

Reflexive Autonomy

 反思自主性

Recidivism

 再犯

Moral Agency 

 道德能动性

译者:赵伶卓,国政学人编译员,山东大学东北亚学院国际政治与经济系,研究兴趣为国际组织与国际传播。

校对 | 孙溶锴  戴璐璟

审核 | 施榕

排版 | 赵小娟

本文为公益分享,服务于科研教学,不代表本平台观点。如有疏漏,欢迎指正。

图片

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。

Powered by 盛煌注册 @2013-2022 RSS地图 HTML地图

top