律所动态

资讯详情

人工智能时代的刑事责任体系不必重构

  • 分类:学术研讨
  • 作者:冀洋,东南大学法学院讲师,法学博士
  • 来源:《比较法研究》2019 年第4期
  • 发布时间:2020-06-09 18:40
  • 访问量:

【概要描述】人工智能时代的刑事责任体系不必重构

人工智能时代的刑事责任体系不必重构

【概要描述】人工智能时代的刑事责任体系不必重构

  • 分类:学术研讨
  • 作者:冀洋,东南大学法学院讲师,法学博士
  • 来源:《比较法研究》2019 年第4期
  • 发布时间:2020-06-09 18:40
  • 访问量:
详情

一、问题的提出

自然科学的发展不断影响着社会科学的思考对象与思考方式,促使人们世界观的改变,如互联网法学、医事法学、交通法学的勃兴为日常交往提供了诸多新规则。语言哲学大师维特根斯坦指出,只有“自然科学的命题”才能成为哲学的谈论对象,“凡是不能说的事情,就应该沉默”。理论法学家则认为,法学研究应该从哲学立场再后退一步:“法律发展和法学研究首先应当以当下现实生活及其可能性共识为前提,对于科学技术领域的远期预测性命题则应保持适当距离,以避免对法律的稳定性造成不必要的冲击、与法律的保守性形成不必要的紧张关系”。若法律学者关注现代自然科学领域的“人工智能(体)”乃法学观照社会现实的当然体现,如该怎样认定人工智能产品致人损害的民事责任、如何分配人工智能创造物的知识产权、如何建构对人工智能技术开发如自动驾驶的行政管理制度等,那么作为“保障法”、“最后法”的刑法在观照社会现实时,更应在其他部门法之后慎重表态。然而,当前我国刑法学者比其他学科学者更加热衷人工智能,以“将机器人纳入刑事责任主体”为代表的主题文献在2018年呈现井喷式增长。当前置法对人工智能的法律主体资格毫无定论、人工智能涉及的权利义务内容模糊不清的情况下,肯定人工智能的刑事责任主体地位、断言人工智能可以与自然人一样接受独立的刑罚处罚(如删除数据、修改程序、永久销毁等刑种),未免走向了令人匪夷所思的一端(以下称之为肯定论)。这种肯定论是刑法学研究的“最前沿”,还是法学面对科技发展的一种“急不可耐”,抑或仅仅是学者不甘寂寞地寻找着参与流行话题的“存在感”、抢占“高端话语权”?当人工智能致人损害时,果真存在既有刑法体系上的归责障碍?什么才是人工智能对刑法的真正挑战?这些都值得继续追问。

与肯定论相比,我国人工智能刑事责任否定论虽然已提供了不少有益论证,但尚处于绝对劣势,主要有如下困境:其一,否定论总体数量极少、声音极弱,且未对日益更新的肯定论进行系统跟进,以至于存在批评滞后的局面;其二,否定论并未结合前置法理论,没有在整体法秩序内考察肯定论的刑法后果,因而相关论述过于孤立;其三,当前的否定论聚焦不足,仍然置于刑事法治的宏观架构中与其他论题一并讨论,因而论证力有不逮;其四,有否定论仍然将讨论范围局限于弱人工智能,但肯定论本身从不认为弱人工智能可以成为犯罪主体,否定论并未与肯定论形成对立,造成了“误把共识当分歧”、“批评无对象”的方法论弊端。有鉴于此,本文以“人工智能时代的刑事责任体系(主体与类型)”为省思对象,及时梳理、回应肯定论的观点并有针对性地提出新的具体的商榷意见,尤其在整体法秩序内确立刑法之于人工智能技术的应然立场。

 

二、人与人工智能:整体法秩序内“主客体关系”的确证”

只有当电力进入人们的日常应用、电子计算机被发明之后,‘人工智能’的想法才可能被实现”,如在20世纪50年代,人与机器之间能够通过电脑指令实现彼此对话,越来越多属于人类的能力自此时起被电子设备所施展。在人工智能应用中,“与人类进行对抗性游戏最为典型”,如1996年“深蓝”首次击败世界象棋冠军、2011年人工智能程序Watson在电视节目中击败两位智力纪录保持者、2017年DeepStack程序战胜了世界顶级职业扑克玩家;再如,“围棋被认为是人类在游戏上保持优势的最后堡垒”,但人类最优秀的棋手却被AlphaGo接连击败。仅仅这几起标志性事件,就让“智能机器人将取代人类、我们作为一个物种将面临灭绝”这一看法再次攒动起来,不断刺激着各路专家包括刑法学者的神经。

(一)人工智能“服务于人”的客体性

究竟什么是人工智能?不少自然科学家都曾对它下过定义。例如,贝尔曼(Richard E. Bellman)认为,人工智能涉及的是“与人类思维联系在一起的自动化行为,如做出决策、问题求解、自主学习”;郝格兰德(John Haugeland)指出,人工智能“从完全的字面意义上说就是‘会思考的机器’”;库兹韦尔(Ray Kurzweil)认为,人工智能是“能够执行(本来)需要人类来执行的智能功能的机器”。从这些定义可以看出,人工智能的两个定义成分是:“像人一样思考”以及“机器”。可以说,人工智能体的外观是机器设备、内核是电子程序,即便他们与人类玩家“一起对弈”、甚至比人类更聪明,人们充其量也只将之视为“机器(人)”而非“人”。

当前的人工智能及其应用尚停留在“弱人工智能”阶段,甚至弱到只有“大脑”而无“形体”,此时人类与弱人工智能是“人与工具”、“主体与客体”的关系,这种关系模型在人类起源的远古时代就早已形成。例如,早在人类诞生之初人们就开始寻找各种工具以让日常生活变得更为便捷,石器时代以石头为工具、后来以金属为工具,莫不如此;再如,视力障碍者使用人工智能眼镜辅助行走、驾驶甚至观察天象,这与近视者佩戴普通防近视眼镜没有什么区别。“弱人工智能”的这种客体性,在整体法律体系上有两个方面的表现:一方面,正是由于人工智能的工具有用性,这种工具本身便成为人的一种“财产”或“利益”。在法律体系上,宪法确立了公民合法财产权不受侵犯(《宪法》第13条)、民法规定公民依法享有物权(《民法总则》第114条)、《治安管理处罚法》与《刑法》对侵犯财产权利的行为分别设定了行政处罚和刑罚。另一方面,客体性人工智能对他人人身财产权利的侵犯,并不会引发对工具本身的处罚,而是由其“主人”即所有权人或使用管理人承担责任。例如,《侵权责任法》规定因产品缺陷造成损害的,被侵权人可以向生产者或销售者请求赔偿”(第43条);机动车交通事故致人损害,由交强险保险公司以及过错方承担责任(第48条);医疗器械致患者损害的,可以向生产者或医疗机构请求赔偿(第59条)等。所以,当前的人工智能如智能机器人、智能汽车(如无人驾驶、自动巡航)、人工智能医疗设施等“人之工具”致人损伤的,一律由人类主体承担责任。

在“强人工智能”(Strong AI)阶段,人类创造人工智能的初衷也永远是制造有利于人类的“客体”而不是创造新生命体,更不会情愿被人工智能所主宰。弱人工智能“对输入刺激表现得十分迟钝而无趣,没有自己的想法,它们只能产生常备反应……未来的一些机器是‘超临界’的(super-critical),他们有自己的思想……如果将来超级智能(super intelligence)在技术上获得实现,人们还会选择发展它吗?毫无疑问,答案是肯定的。……因为人们需要更好的电脑和更智能的软件,希望强人工智能机器能够帮助产生更多利益:更好的医疗药品、从无聊或危险的工作中重解放人类的劳动力”。强人工智能之所以被认为具有所谓的“思想”,首先是因为它们能够从“深度学习”中获得答案或给出自己的行动方案,如AlphaGo“使用了与所有传统人类思想流派相悖的战术”、“人类选手已经开始学习AlphaGo发明的打法”。尽管如此,计算机科学界对“强人工智能”能否实现以及何时实现始终存在明显的学派对立。此方面的探究并非笔者之专长,本文只是要提出一种质疑:当科学家都难以预断,肯定论者又何必急于对强人工智能盖棺定论?同时,本文也旨在提醒一种现实:“人工智能”不是“天然的”(natural)智能而是“人造的”(artificial)智能,那么二者之间就如同“真牛皮与人造牛皮”的关系一般直白,人工智能与人始终是两个异质体。更何况,强人工智能的研发也是人类为了证明人的智能、为了方便人的生活、为了丰富人的娱乐活动而研发的一件“机器”或“玩具”。无论人工智能具有何种等级的智慧,它都不等于“人的兄弟姐妹”,也不是“人的集合”。正如有些人类的宠物可能比某些人更聪明、更善于自我获取一些技能、更懂得感恩图报,但它们始终是牲畜、是人的玩偶罢了,对于它们的损害行为,其饲养者、管理者适用的是“饲养动物致人损害责任”而非独立的动物主体责任。

(二)权利与义务分离:AI法律人格的否认

颠覆人与人工智能之间“主客体”、“人与物”关系的前提是,在整体法秩序内系统理解人类对它究竟有什么权利、它自身是否应该以及如何像人类那样被作为权利主体看待。其实,人工智能并不能获得法律人格,义务与权利的分离彻底排除了人工智能的主体性。

美国学者在近百年前曾指出,“成为法律上的人就是成为权利和义务的主体,赋予法律权利或者承担法律义务,就是赋予‘法律人格’(legal personality)。如果通过有效的制裁,社会或其代理组织强制A作出行为或支持B的行为,那么B就拥有权利、A就负有义务。因此,……权利和义务决定了法律人格”。时至今日,人在法律上依然是根据权利和义务来定义的,一个被法律承认的“人”受权利和义务约束,“享受权利和履行义务的能力是衡量法律人格的唯一标准”。人工智能若能成为法律责任的主体,其在法律体系内就是权利义务的统一体,如此才能达到成为法律上的主体的适格性。

自然人是无可争议的天然法律人格主体,在与自然人比较之后即可看出人工智能的“法律人格”的虚假性。当人工智能被赋予法律人格之后,它在整体法体系内与人类的法律关系将变得非常棘手。例如,(1)人们对未来强人工智能享有什么民事权利?(2)当强人工智能成为法律主体时,它还能否成为物权的客体?设计者、使用者如何对它行使支配、处分的权利?(3)当人工智能致人损害而被苛以刑事责任,那么人类将其拆解、断电、销毁、赠予他人是否需要征求人工智能的同意?如果在生产时,研发者就设定了“默认同意程序”即取消了人工智能的意志,那么承认这种独立主体的意义又何在?如果没有预先设置此种程序,当人工智能不同意人类对之进行处分,岂不是会产生人类对人工智能体的民事侵权甚至犯罪?(4)人们是否需要为了人工智能的健康运转而为其寻找“医生”诊治?(5)随之而来的问题是,具备何种知识或者取得何种证书才会拥有这种“行医资格”?(6)人工智能的使用者擅自使用工具给人工智能机器人进行维修,是否属于“非法行医”?(7)在行政法上,行政机关应当如何建构针对人工智能的“研发—销售—维修(医治)—报废”的行业准入制度?这种针对人工智能的“医疗事业”是否也应纳入社会保障体系?(8)人们因维修成本过高或者因系统过时而放弃对之的修理、升级,是否构成遗弃、故意或过失杀害机器?当人们为人形机器人换上一个狗头,这是否构成对该机器人的侮辱?(9)作为法律主体的人工智能受损时,谁才是向法院提起诉讼的适格原告或适格代理者?(10)当人工智能被“断电”时,它究竟是“休克”、“睡眠”还是“死亡”?当恢复动力时,它是“重新复活”还是“睡醒”了?断电期间是否还有主体资格,断电期间还受法律保护吗?这些因“法律主体”所引发的一系列看似荒唐的问题,其实都是整体法秩序内(包括刑法与其他法、实体法与程序法等)正常的、无可回避的连锁逻辑。

再以人工智能是否拥有财产为例,刑事责任肯定论在此存在如下虚伪性:一方面,主张人工智能是法律主体,却仍然称之为“产品”,用对待非智能机器设备的“安全标准”来规制它的生产、制造、运行,这显然将之视为所有权的客体而非具有法律人格的“主体”,那么它拥有财产的能力存疑。“人工智能拥有财产的能力与它的人格以及它偿还债务或支付赔偿的能力有明确的联系”,财产权利能力缺失注定其失去了承担责任的一个重要基础。另一方面,不少肯定论主张建构强制保险制度、建立赔偿基金等以弥补机器人造成的损害,可如果人工智能是法律主体,那么为何需要另一个主体(人类)为之缴纳保险费或基金?智能机器人连独立的财产权都没有,其在致人损害时如何承担义务?还有学者提出,“用机器人收入的一定比例作为资金,以保证任何损失或损害的赔偿”。但是,谁来为机器人保存这些收入?如果它们具有完全的法律行为能力,为何需要别人管理其财产?机器人是否总是有收入?谁来为那些根本不具备收入能力的机器人承担这种义务?到头来,这些责任还是要被推到人类自身,这与当下的产品致损责任并无不同,何必兜一个圈子。

可见,肯定论漠视了法律人格要求的权利义务统一性,对人工智能附加刑事义务的同时并未同等注意其权利问题,没有意识到在他们的逻辑中人类也沦为人工智能的客体。当这种所谓具有独立责任能力的法律主体致人损害时,由其他主体为之承担损害赔偿,这种株连责任完全违反责任主义。肯定论实际上并没有承认机器人的法律人格,或者他们所言的“人格”只是一种没有法律意义的、纯粹拟人修辞而已。正如民法学者所言,这种所谓的人格“仍然是物的范畴”。因此,人工智能在法律体系上没有主体地位,既缺少权利能力又不具备义务能力,“机器人”只是机器而不是人,它不是人类的主体而只是人类的客体。

 

三、人工智能的罪责能力之阙如

人类的惩罚法发展至今,广为接受的一条经验是:不法(Unrecht)与罪责(Schuld)是构筑刑法体系的基本材料。其中,“罪责”是指对某一主体造成社会危害行为的谴责,内含着“非难”的特殊意义,能够为“非难”奠定基础是“他行为可能性”,即:能够回避符合构成要件且违法的行为,但仍然实施该行为。“人工智能的刑事责任”之讨论系由技术的法益侵害风险所引起,因而问题之关键不在于客观不法而在于罪责能力。

(一)人工智能与法人的不可比性

“既然说责任就是非难,那么以‘他行为可能性’为内容的意思自由就一定要被承认。而这种意义上的自由,恰好和刑法上的责任之间处于表里关系(没有自由,就没有责任)”。可以说,“责任——自由”这种思考模式代表了一种平衡定律,正如“法哲学通常用义务来定义权利”,凡是主张对某一物体如人、动物以及人工智能适用法律责任,就不能突破“责任——自由”、“义务——权利”这对关系前提。于是,人工智能是否具有承担责任的“能力”(责任),其转换的问题表述其实是:人工智是否享有对应的“权利”(自由)。如前所述,人与人工智能体的主客体关系仍然是不可颠覆的,人工智能永远不能像“人”那样保持这种平衡定律。但是,考虑到法人“既没有灵魂也没有肉体,但自中世纪以来法人的刑事责任便已存在”、“单位犯罪使得生命体不再是刑事主体的必要条件”,肯定论便毫无例外地将重心转向了法人,认为人工智能可以像法人一样具备罪责能力。

例如,肯定论指出,“智能机器人能否成为刑事责任主体,与法人能否成为刑事责任主体具有几乎相同的理论逻辑”,赋予“法人”鲜活生命的“法律拟制”将成为立法者解决机器人权利来源的技术性措施。甚至主张,与单位相比,智能机器人的意志“自由的程度更强”,“如果法律能够尊重单位的自由意志,那么便没有理由否认智能机器人的自由意志。智能机器人是介于普通机器人与人之间且是由人所创造出的‘人工人’,从法律属性上看,智能机器人比单位更接近于法律意义上的人”。国外也有学者坚持这种观点:“直到1635年,英国法院才敢对公司追究刑事责任……但公司既没有实体也没有灵魂……刑事责任的概念在法律上没有实质性区别地适用于公司和人工智能实体,不让人工智能像公司那样受制于法律是离谱的”。本文认为,这些看法值得商榷,因为法人承担法律责任的原理仍以自然人为中心,人工智能对此不能企及。

法人的法律人格原理有三:其一,拟制论(Fiction Theory),认为法人不是物理性存在,它只不过是一个“法律建构”(legal construct)即抽象概念、人工创造,它的人格是纯粹为了促进商业贸易而被法律强制赋予的。其二,集合论(Aggregate Theory),认为法人不是一个拟制的实体或法律本身的创造,而是一个由自然人组成的组织或协会,除了人类成员之外,法人本身不能真正地“行动”、“决定”或“谋划”,没有他们就没有法人自己的特征或实现其目标的能力。也即,“公司的法律行为都应理解为其全体成员的行为”。其三,真实存在论(Real Entity Theory),认为法人人格是真实的而不是虚构的,国家只是承认了存在的事实而不是创造了它。据此,法人与其内部个人是不同的、分离的,员工的来去不会影响组织本身的连续性或身份。拟制论的地位在19世纪中期发生了变化,因为它给人的印象是,法人的注册设立只是一种形式而已,将法人人格的基础推给法律本身,这并未提供实质的支持内容。19世纪后期出现的集合论能够揭示出法人意志的来源,但它消除了法人(如有限责任公司)与其组成人员在权利、义务方面的区别,“若法人组织能够完全通过其组成人员来予以描述的话,这种法人就不应存在了”。真实存在论有助于说明法人的有限责任,但法人成员违反有关规则而需要“刺破法人面纱”、让自然人承担连带责任时,该理论又不能为之提供依据;且既然法人与自然人一样都是在法律之前真实存在的,那么为何它们享有的权利差别如此之大,这也是不清楚的。本文之目的不是重述这些争议,而是要说明法人人格之真相的探究有赖于分析者的视角。当面对不同情形时,法人的下述情形都可能存在:法人根据法律(如公司法)注册成立、法人的活动需要自然人的决策与执行、法人的责任既可能独立于自然人也可能与自然人共同承担。所以,法人是多维的,我们很难采用某一单个理论作为法人人格的基础。就刑事责任而言,需要根据单位犯罪的实证法规定来确定刑法领域究竟采用哪种理论。

我国刑法第30、31条规定了单位犯罪及其刑事责任,本两条的核心问题是:如何确立单位的犯罪意思、如何理解单位犯罪的双罚制。其一,单位意思是区分单位犯罪与单位内部自然人犯罪的重要标准,单位意思之本质仍是决策之自然人的意志体现、其执行者也是自然人。单位犯罪是单位为本单位谋取非法利益或以单位名义为本单位全体成员或多数成员谋取非法利益,由单位的决策机构按照单位决策程序决定,由直接责任人实施的,且刑法有明文规定的犯罪。换言之,单位意思是单位决策机构成员如董事、股东等按照决策程序讨论研究后作出的整体意志,它仍然不能超脱于自然人的意志,单位的犯罪故意就是自然人的故意,这反映了上述集合论的逻辑。其二,我国刑法规定了对单位与自然人双罚制,如果法人与自然人一样是一个完全独立的、真实的、前法律的存在,那么在单位与其主管人员不构成共同犯罪的情况下,为何要额外处罚自然人?按照责任主义原理,某一犯罪主体只对自己实施的行为负责,真实存在论在此并不能说明单位的相关责任人何以对其他主体(单位)负责。按照责任主义,单位犯罪双罚制的根据并不能脱离自然人本身,即单位犯罪对自然人的处罚是基于单位犯罪本质中包含了自然人的不法与罪责,这是单位犯罪的基本特征。所以,无论从单位犯罪意志还是单位犯罪责任承担方式看,我国刑法对单位法律人格更侧重的是集合论:单位犯罪的背后是单位内部自然人集体研究决定,即自然人的集合意志,这种意志的自由程度与自然人一样高,不存在肯定论所言的“人工智能的意志自由度比单位高”;单位构成犯罪时,对单位只适用罚金刑、对单位主管人员或直接责任人适用自由刑,这种双罚制表明单位的刑事责任不是独立的,而是与部分自然人共同分担的,即此时不是采用“真实存在论”。

总之,我国刑法中的单位犯罪之禁令指向的是单位背后的个人,单位不是没有“灵魂”而是“灵魂时刻归于自然人”,单位不是没有“鲜活的生命”而是“生命力”完全通过自然人予以体现,它比机器人更智能(因为单位的大脑就是人脑),这与人工智能通过自己的程序进行计算决定是根本不同的。肯定论者的前述论断——“肯定法人犯罪就应当肯定人工智能犯罪”——根本不是一个正确的“当然解释”,而是对法人犯罪性质的严重误解,从法人刑事责任原理中完全得不出人工智能犯罪主体资格之结论,恰恰相反,它直接加剧了对人工智能承担刑事责任的正当性疑问。

(二)如何看待机器之“思考”:辨认、控制能力的否认

如何认定某个人或某个机器“会思考”,这涉及“如何认识思考”这一问题。早在1950年图灵(Alan M.Turing)就提出,“机器能思考吗?这应该从定义‘机器’和‘思考’(thinking)的含义开始”。在“深蓝”战胜人类冠军时,也有学者提出了“智力(intelligence)究竟是什么”的疑问:“‘深蓝’可以被称作是‘有智力’或‘有创造力’吗?它在思考些什么?我们是否需要对上述词汇的意思达成共识?人们应当如何定义‘智力’、‘创造力’以及‘思想’?”对此,不同的语境会产生不同的答案(如动漫中的小猪佩奇也会“思考”),断言某一物体是否会思考,这本身不是事实科学问题而是评价问题,即它是需要“被定义的”。

在刑法学视域,与“思考”相联系的是“辨认和控制自己行为的能力”,这是认定某一主体具有责任能力、能够承担刑事责任的前提。肯定论主张:能够在设计和编制的程序范围外实施行为的智能机器人不需要像单位那样通过其他主体(自然人)作为表达媒介,其本身就拥有辨认能力和控制能力,因而更接近于“人”,更有理由成为刑事责任主体。这至少存在以下问题:其一,无法从正面直接论证机器人的辨认控制能力,而总是千篇一律地借由与单位(法人)的类比来证成机器人的独立性,这暴露了肯定论说理上极不充分的软肋。其二,单位犯罪故意本身就来源于“人类智能”、本质仍是“人的犯罪”,而不是单位主体借助于其他主体,如前所述,人工智能的认识控制能力不能与之相比,肯定论通过这种类比而推出的结论也是靠不住的。其三,从罪责能力本质上看,断言人工智能具有辨认和控制能力,也难言妥当。辨认能力是认识自己行为的内容、社会意义与结果的能力,因而也可称为认识能力;控制能力是支配自己实施或不实施特定行为的能力,因而也可称为意志能力。以故意犯罪为例,犯罪主体之所以要承担故意的罪责,是因为其明知自己的行为会发生危害社会的结果,并且希望或者放任这种结果发生。这里的“明知”代表的是一种实质故意概念,即不是认识到行为与结果的单纯事实,还必须认识到行为的社会意义和危害性质(实质违法性)。所以,罪责能力的本质是“正确认识社会要求并以该认识而行为之一般能力”,“如果缺乏社会适应能力,完全不具备符合义务的动机构成,不能期望其符合规范的行为,提出行为的罪责问题也就没有多大意义”。若人工智能能够在特定场景下对外界的情状作出“辨认”如认为车间工人会对其产生威胁并进而作出伤害该工人的行动“控制”,这一流程也仅仅是一种单纯的、机械的排除妨害之反应,这种“智能”只是由人类特定指令、符号组成的计算程序所引发的决定,它无法理解自己行为的外部意义或社会价值。

当人们以“图灵测试”来肯定机器具有“智能”时,也绝不能忘记与此相对的“中文房间理论”(Chinese Room Argument)。通过“中文房间”,心智与语言哲学家赛尔(John Searle)认为,一个完全不会说中文的人(类比计算机)借助查找语言手册(类比计算机代码)用中文成功回答他人(程序员或其他外部存在)输入的中文问题,这并不能证明他理解了中文的含义;相反,这证明不具有中文相关认知思考能力的回答者(计算机输出)所显示的“智慧”,仅是向人们传递的一种假象。由此,“中文房间”展示了一个场景,即一个系统有我们理解但系统不理解的符号,“这样一个系统就不能理解它自己的话语,因而它就不能理解它自己的认知状态……也就不可能是智能的。……如果我们发现表面上的智能行为实际上是通过欺骗或某种条件反射实现的,我们就会放弃系统是智能的这一信念”。由于对“思想”的定义并不是纯粹的自然科学问题,从人类哲学的角度论证“何为智能”、“何为‘思考’”更贴近问题的本质,因而这一思想实验对机器“智能”的反驳十分有力,赛尔也因之被认为是“最伟大的人工智能批评家”。其实,“智能”一词本来就是专属于人类的一种能力,“人工智能”仅仅是一种比喻、一种语言上的修辞,人工智能“在人类情感和意志等方面的模拟将难以实现根本的突破”。人工智能要么不能理解行为的实质违法性、要么其所对一些刑法规范甚至人类伦理的知晓也是源于人类专家输入、设定的运行程序,“即使一个自治系统通过了图灵测试,它本身也不会产生任何法律责任”,当它缺少对行为意义的认知,便不能被称为“有思想”,缺少故意犯罪的要素。

其实,人工智能的那种所谓辨认、控制能力,一些动物也具备,但不能被评价为有刑法意义。以黑猩猩为例,在美国纽约最高法院的一起“为黑猩猩申请人身保护令”诉讼中,法院收到了一项重要的科学专家证据:人类和黑猩猩的DNA几乎有99%是相同的;他们和人类在大脑结构和认知发展方面有相似之处,包括交流技能的平行发展;黑猩猩也表现出自我意识,能在镜子、照片和电视上认出自己,并有能力对自己的行为进行反思;他们表现出同情他人的能力,与他人的经历和情感相协调,并模仿他人;他们的行为方式反映了道德倾向,当他们的社区或家庭成员去世时,他们表现出同情和沮丧;他们有合作的生活,从事想象的游戏、表现出幽默感。可见,在自然意义上的辨认外界环境以及控制自身行动上,黑猩猩表现出了十足的“类人性”,其认知能力、意志能力甚至比某些状态下的人类还要强。但是,法院最终否认了黑猩猩的法律人格,不承认其是权利主体或责任主体,这正是因为它还不能像人类那样理解行为的规范意义,它表现出来的辨认和控制性不是源于社会意识,对之赋予权利或科处责任没有规范意义。人类成为法律责任主体并不仅仅因为计算能力,还在于其谋算能力(包括情感、灵性、精神等因素),黑猩猩、人工智能均不能与自然人或单位相似,不能与现有刑事责任主体同日而语。

总之,责任能力、规范意识是哲学、法学等语境下的判断而不是自然科学的判断,人工智能即便能够取得物理或仿生学上的辨认和控制能力,也不能说它在法律上具有认识、意志力,“人工智能的‘犯罪行为’很难同刑法中关于犯罪一方必须有犯罪意图的一般要求相协调”,其罪责能力根本阙如。

四、人工智能承担刑事责任的刑罚悖论

 

面对人工智能,计算机科学家认为,“现在应当发起有益的讨论,以使机构和个人对人工智能的影响做好准备”;以此相比,法学家的一项有益讨论应当是:为“肯定人工智能成为刑事责任主体”的影响做好准备。本文以这种后果论考察为指导,发现“赋予人工智能刑事责任主体地位”并不可行,肯定论在若干命题上经常陷入顾此失彼、前后矛盾、自我否定的悖论之中。

第一,“技术失控——技术可控”之间的悖论。肯定论认为,“当智能机器人在设计和编制的程序范围外实施行为时,其行为已超出研发者或使用者的控制范围……此时的智能机器人已经具有了独立的辨认能力和控制能力,其实施的行为并非根据程序的指令,其实现的意志也不是研发者或使用者的意志。在这种状态下,智能机器人实施的是自主决策且为了实现自身意志的行为”。可见,论者之所以要赋予人工智能以独立的犯罪主体地位,是因为这种机器人不再受研发者的制约,它已经取得了超脱于人类的独立意志。换言之,此时的人工智能已经不再受研发者的技术控制,通过事先的设计对此类人工智能的安全运行进行程序规划被认为是失败的,人类无法通过技术手段完全掌控人工智能,人工智能存在设计编制程序外的完全独立意志和独立行为,人类也无法知晓人工智能在“黑箱”下将要如何行动。然而,肯定论又提出了针对人工智能的专有刑罚种类,这些刑罚措施均是技术性措施,这旋即产生了从“技术不可控不可靠”到“技术可控可靠”的悖论。

肯定论主要提出了三个刑种,即删除数据(通过技术措施删除人工智能负面数据)、修改程序(修正运行程序数据以维持在安全范围内)、永久销毁(类比死刑)。除了永久销毁或许可以仅通过蛮力完成之外,其余两种刑罚均只能借助于高超的计算机技术以改造人工智能的“大脑”。那么,这里的龃龉就很明显了:既然人类的技术能够对人工智能的犯罪能力做出有效的限制、能够通过这种先进技术刑罚将其框定在安全轨道,为何还会存在人工智能超脱类人控制的情形?肯定论提出的技术刑罚不正表明人类的人工智能技术可以实现对人工智能的控制?若此,就永远不会存在人工智能脱离人类管制而产生“自我行动”的情况。当上述刑罚所体现的技术,能够从数据程序上消灭人工智能的犯罪能力,为何人类不在研发阶段就在做出这种干预?肯定论以人工智能脱离人类技术管制为讨论前提、以技术手段组建刑罚措施为最终结论,一方面断言存在人工智能不可控的情况,另一方又在刑罚上追求并主张“人工智能的数据和程序是能够被操作”,这存在先承认“技术设计失败”又承认“技术设计可靠”的悖论。如果通过删除数据、修改程序等方式能够保证人工智能不犯罪,那么肯定论所提出的“人工智能可以超越人类而获得意志自由”之情形其实就是不存在的,他们所有的论证都只沦为一场虚无罢了。

第二,“特殊预防无效——特殊预防有效”之间的悖论。肯定论主张赋予人工智能犯罪主体身份,是为了给予其一定的刑罚,这种刑罚处罚有自身之目的。肯定论为了强化结论的正当性,将所有刑罚目的如报应论、一般预防论、特殊预防论等汇集一身,但这种论证基本苍白无力,因为任何所谓的刑罚都可以借助于既有刑罚目的论被重新表述一番,从而相关论述仅仅是套用了一个叙述模板而已。例如,国家性的报应(retribution)是阻止复仇行为(revenge)的一种“宽大量刑措施”,报应与“复仇的量”(即犯罪的损害)之间保持着一定比例,复仇被认为比官方报应给犯罪人带来更多的痛苦。“由于机器没有经历痛苦,所以对它们在复仇和报应之间进行选择毫无意义”。至于一般预防论,对单个机器人施加删除数据等刑罚何以对其他所有机器人产生威吓预防效果?删除数据、修改程序等更何以会对机器人发生以训练规范忠诚为导向的积极一般预防?这些根本问题肯定论也避而不谈。从前述三种刑罚种类可以看出,肯定论其实无心设计报应刑、一般预防刑,而仅执着于针对特定“犯罪机器人”的特殊预防刑——“矫正”:通过删除数据、修改程序等技术手段“剥夺其实施犯罪行为的可能性”;如果人工智能无法被矫正,那么就可以直接永久消灭之。这是针对人的特殊预防论的完全翻版:矫正可以矫正的罪犯,不能矫正的罪犯不使为害。

但是,智能机器的运行不像人类那样具有先天的、自然的行动力,它是通过精密的程序计算来实现的,这一点毋庸置疑。于是,一个可能的技术操作便是,直接在设计时在人工智能的“大脑”中预设危险避免措施、消除犯罪条件。这种计算方式的精准性恰恰是人类在评估自然人人身危险性时所期望达到而永远难以实现的最理想状态,因而在犯罪的特殊预防中,人类何不发扬人工智能设计、运行的此种巨大优势?如果通过数据编程能够实现特殊预防,何不在研发时直接添加这种消除犯罪能力的程序规则?为何要等到犯罪之后再介入?质言之,如果设计编程可以实现特殊预防,那么在研发过程中植入这样的控制程序才是最可靠的;如果人类没有这种编程,那么在犯罪后修改数据也同样是不可实现的。因此,在“技术失控——技术可控”的悖论之后,肯定论在刑罚目的及其实现路径上面临又一悖论:以消除犯罪能力为目的,在能够采取特殊预防措施的情况下,故意不采取措施而坐等犯罪之后才大谈矫治之道。

第三,“刑罚设计——非刑罚性”之间的悖论。何种惩罚措施才能被称为一种“刑罚”?如上所述,刑罚具有报应与预防的功能,人工智能刑罚尤其注重特殊预防,但上述功能却并非刑罚所专属,即不是具有上述功能的处罚措施都可以称为刑罚,其他法律的行政处分、民事赔偿等措施也分担着这些功能。例如,我国《食品安全法》中的吊销营业许可、责令停产停业,《道路交通安全法》中的暂扣驾驶证、吊销驾驶证、终生不得重新取得驾驶证以及《民法总则》中的损害赔偿、惩罚性赔偿等。但刑罚、行政处分、赔偿损失在本质上是完全不同的:“刑罚的本质是从国家立场出发对犯罪进行非难的体现即是一种报应,而行政处分是行政取缔上的保安处置,损失赔偿则是损失的公平分担”。所以,吊销证照、损害赔偿等都不是刑罚种类,即便这些措施被规定在刑法典中,它们也只能被称为“非刑罚措施”。例如,《刑法修正案(九)》在刑法第37条“训诫、责令具结悔过、赔礼道歉、赔偿损失等”之后设立了“禁止自刑罚执行完毕之日或假释之日起从事相关职业”,这便是基于再犯危险性考量(特殊预防)所作出的“非刑罚措施”。

如上所述,刑罚的本质是从国家立场出发对犯罪进行报应,但“只要惩罚是建立在受苦的基础上,报应就不会和惩罚机器人有很大关系,这对于传统和现代的报应论来说都是正确的”,正如有些人在汽车突然抛锚时,他们基于愤怒会踢汽车,“通过所谓的‘报应’惩罚机器人(从汽车到高度精密的人工智能机器人),就像踢汽车一样,这可能会减轻一些人的愤怒,但仅此而已”。肯定论设计的删除数据、修改程序、永久销毁等所谓“刑罚种类”,根本不需要以“人工智能是犯罪主体”为前提,即便在当前阶段甚至几百年前,只要机器设备(无论木水车、蒸汽机还是电子计算机)出现故障,通过删除拆解某些部件(硬件或软件)、修改某项设计甚至直接将之报废,根本不需要什么法律甚至刑法上的正当化根据,更无需大费周章地经过司法程序予以实施。当机器(如汽车)出错,修理抑或销毁从来都是一个天然选项、人之常识。如果将上述措施提升到国家权力层面,那么这些由国家机关决定是否予以实施的删除数据、修改程序、永久销毁等,充其量也只是一种行政上基于人工智能的特殊管理目的而发生的技术管理手段,这与上述“赔偿损失”、“从业禁止”以及第18条中的“责令家属严加看管”、“政府强制医疗”等非刑罚措施在性质上并无二致,根本不具有刑罚属性。正如皮勇教授所指出的,“处罚人工智能系统的规定在本质上不是刑法,而是人工智能系统处置法”。将简单问题复杂化之后,肯定论由此自我织造了“刑罚——非刑罚”的悖论:以设计新刑罚为目标,而最终提出的“刑种”只是人们在设备养护上的三项常规操作而已,不具有丝毫的刑罚实质;以刑法为出发点,最终将刑法变为技术管理法甚至“机器维修手册”(能修就修,不能修就报废)。

第四,“AI主体性——AI工具性”之间的悖论。肯定论将人工智能作为刑事责任主体,将之与自然人、单位并列,这意味着承认了三者均为权利义务统一体,那么与自然人、单位一样,人工智能既可以作为被告人,还可成为被害人

在被告人层面上,肯定论将之作为承担义务的法律主体看待,但不承认“法律面前‘人机’平等”,这明显存在自相矛盾。例如,学者一方面指出,“法律的功能是将社会现实中纷繁不同、各具特点的人,以统一的标准人、制度人的方式抽象构建”,“机器人在各方面均能够媲美甚至超过人类,其不仅可能获得主体地位,甚至可能会成为人类的‘主人’”。但另一方面又认为,“即便未来有一天机器人真的能够成为‘其他人’,法谚‘法律面前人人平等’也不应适用于自然人与机器人之间”。在现实中,各类主体因身份不等、贫富不均等原因存在客观上的不平等性,但法律的强大之处就在于将这些主体抽象化为“法律人格”,这种规范性拟制保证了法律主体在法律框架(司法程序)内的规范平等性、强行弥合了事实上的不平等,这就是平等原则的基本法意义之所在。如果两个刑法主体在法律上都不平等,那么二者将在任何时空都不会平等,二者就不可能并存于某一法律主体系统内。因此,肯定论面临着尴尬:(1)人们本来是为了生产生活的便利化而研制人工智能,但赋予其刑事主体地位就等于必须承认拥有一定的平等权利空间,那么就对人类权利的行使便提出更多的前所未有的限制,这实际上“给自己树立了一个争夺利益的对手”,导致研发者、使用者无时无刻需要注意保障人工智能、为人工智能的健康运转而服务,结局是:为了方便生活而加重个人生活成本和社会整体负担,最终消解这种便捷性。所以,肯定论也没有认同这种平等性。(2)若认为二者在法律上不平等,那么他们就不可能成为并列的刑事责任主体,只能区分为“主体+工具”,这种表面上承认“AI主体性”的观点,实际上仍然固守着“AI工具性”。

在被害人层面上,肯定论将侵害人工智能的行为作为财产犯罪处理,这也与其宣称的“法律主体性”相冲突。肯定论认为,“侵害单位财产权利的,则可以构成相应的财产犯罪……对于破坏智能机器人的机器躯体或者程序的行为,可以按照刑法中相关的财产犯罪加以处理。……但由于智能机器人没有肉体也没有生命权、人身自由权等人身权利,所以抢劫智能机器人财产的行为不应构成抢劫罪,而仍属于抢夺罪或者盗窃罪的范畴”。然而,(1)若破坏机器人躯体构成财产犯罪,那么就存在“机器人是谁的财产”之疑问。既然机器人是独立承担责任的主体,那么机器人的躯体或程序就是该主体之所以存在的“内在组成部分”,机器人的身体构成(如躯体、元件、信息、名誉)等就不是他自身的动产而是与自身浑然一体的“人格”范畴;即便其拥有一定财产权,这种财产权对象也是机器人“主体之外”的动产或不动产,而非其自己的身体,正如自然人的肢体不是其财产权客体。盗窃自然人的银行存款,其被害法益主体是自然人;破坏单位的生产机床,被害法益主体是单位;若破坏机器人躯体构成故意毁坏财产罪,那么这里的财产主体仍然是“人类”——机器人是人类的财产,那么最终机器人又变成了人类的客体与工具。(2)抢劫罪是以暴力、胁迫或其他方法强取公私财物的行为,其犯罪核心在于“压制被害人反抗”如通过殴打、恐吓、麻醉等,这种压制的强度“不要求事实上压制了对方反抗,更不要求具有危害人身安全的性质”。既然肯定论反复强调人工智能具有意志自由、具有独立行为能力、感知被恐吓的能力(如感知威慑预防)等,那么对人工智能实施抢劫,当然可以实现对人工智能“意志”的压制并使其丧失反抗能力,为何反而主张不构成抢劫罪?如果这种抢劫只构成盗窃或抢夺,那么肯定论反而否认了人工智能的意志自由。如此,人工智能的责任主体性又荡然不存。

第五,“消减风险(追求责任体系严密化)——加剧风险(转移人类责任)”之间的悖论。美剧《西部世界》展现了外表形象、肢体行动、语言交流等与人类毫无差别的智能机器人,当它们因内部自我意识觉醒而超脱人类掌控之时,恰是人类遭遇屠杀之时。因此,肯定论心系人类安危的立场的确值得称道:“冀望在未出现‘机器人犯罪’的现阶段,做好一定的风险防控,防患于未然,让人工智能技术真正造福于人类而不至于危害社会”。人工智能致人损害的传统情形是人类利用机器人实施犯罪,如若故意设计一个机器人杀手并在某项指令下实现了杀人,研发者此时就要承担杀人罪相关责任。如果人类在制造这些机器人时设定的是“与人无害”模式,但在后期运行中机器人超越了人类控制、在编程外实施法益侵害行为,这难道不正表明人类的技术依然不成熟吗?人类为机器人设定的框架很容易被突破,继而在失控之后发生法益侵害,被非难对象难道不正是人类自己?如果我们把机器人的失控看作传统的产品缺陷或管理过失,即将责任归之于人类(研发者、使用者),则更有助于实现肯定论孜孜以求的“风险防控”。

例如,《侵权责任法》第41条产品缺陷责任规定的是无过错原则,即受害人无需就产品设计者的过错进行举证,后者也不得以没有过错为由主张免责或者减轻责任,民法正是以此升级对产品生产设计者的责任、降低产品缺陷及其损害风险。再如,刑法分则第三章规定了多种产品刑事责任如第146条生产不符合安全标准的产品罪,虽然刑事责任以过错为原则,但只要该类产品责任的主体仍然是人类(自然人)或人类之集合(单位),那么就表明刑法始终对人类生产人工智能产品存在规制,人类在设计人工智能产品过程中就仍然会受到刑罚威慑效果的影响,刑法在人工智能风险应对上仍是有所作为的。然而,当人工智能致人损害而由其自负刑事责任时,人类的上述产品责任便被转移(如,有期徒刑被删除数据等技术操作轻松替代),为机器人研发者推卸责任提供了绝佳的借口。机器人由人类设计生产,而设计生产者、销售者以“机器人已经有自我意识,其法益侵害行为与我无关”作为挡箭牌成功推卸掉刑事责任、民事责任之后,如何期望他们严格控制人工智能研发风险?只有将机器人失控之情形仍然作为产品缺陷范畴,才能够促进人类谨慎研制人工智能、不断提升人工智能技术,主动减少技术造福人类时的风险。所以肯定论存在如此悖论:以风险防范、促进AI技术发展为由造就的“人工智能刑事责任主体”,实际上加剧了源头风险;刑事责任体系表面上因新犯罪主体的加入而更加严密,事实上这恰恰宽纵了人类之义务,违背初衷、得不偿失。

 

五、结语

科技的发展确实导致了不同类型的风险,很多人主张现代社会的刑法需要有所改变——“威胁”不再是一种“不幸”(Unglück)而是一种“不法”(Unrecht),因而“越来越多的生活领域受到了刑法的管制……但需要指出的是,用刑法解决棘手的社会问题和冲突是值得怀疑的”。当计算机科学家们对人工智能的发展前景尚有迟疑,当哲学家们对人工智能与人类的关系尚在冥想,当理论法学家、民法学家们对人工智能的权利义务尚无定论,刑法学者们却率先赋予人工智能罪责能力、试图引入新的犯罪主体成员,这一切“展开得过于迅速,以至于盲目和凌乱”。刑法不是社会管理法,更不是人工智能技术发展的指导手册,以如此高昂且有限的资源应对人工智能时代的问题,应首先明确我们是否真正需要刑法的介入、既有刑法体系是否已经存在运用障碍。在人工智能技术与刑法学的互动中,有必要作出两种努力。

其一,认清修辞。人工智能之所以会被认为具备独立意志,是因为人类为之设计了算法,若技术果真成熟,即便其外形不是“人”而是一条狗、一头猪、一个机械手臂甚至单单一台没有形体的计算机主机,这种“思考能力”也不受影响,而人类若只有大脑、无身体则不能存活,但人们只愿将他们称为“机器人”,总是追问“机器人(而非机器狗、机器猪)是否需要承担刑事责任”。这种拟人修辞是成功的,如肯定论指出,“‘人’也不过是一台有灵魂的机器而已,为什么我们认为自然人具有认知功能,而智能机器就不能呢”。当祭出类似的修辞时,还有什么值得反驳?修辞的魅力之一就是通过无比强大的语言让人难以断言其“错”,谁能证明“有些人死了但他还活着”、“死亡就是对生命的肯定”是不正确的?机器之所以被认为需要负刑事责任,是因为人们认为它们“像自己”,就像1266年法国丰特奈玫瑰县(Fontenay aux Roses)的法官在审判一只猪时先给它穿上了人类的衣服。若将问题转换成“一堆破铜烂铁是否可以接受刑事审判”,或者将机器的外形替换为一只动物、一支会说话的麦穗,那么肯定论是否还如此热衷于将其纳入犯罪主体?我们可能会像对待汉代张汤审判老鼠、西方主教法庭审判象鼻虫、法国法官审判猪那样一笑置之。

其二,告别想象。当代著名人类学家拉图尔(Bruno Latour)的告诫值得深思:“人工智能的背后恰恰都是人,人们总是喜欢自己吓唬自己,但同时又看不到真正的危险在哪里。我们目前的人类社会确实已经非常危险,但我们的危险绝对不是来自AI”。几乎所有肯定论都会以当前人工智能制造的事故(如第一宗机器人杀人事件等)为“引论”,认为人工智能时代充满风险与挑战。但是,这些弱人工智能伤人行为完全可以在既有刑事责任体系内得到解决,上述事件与传统生产领域过失犯罪的处理并无二致,因而扩散此种忧患尚不足以支撑肯定论的“问题意识”。或许未来的强人工智能更让人恐慌,但这种讨论完全借助于对超远未来的想象,而非当前或不久之后所要面临的情境,它对刑事责任体系提出的“重构要求”,属于一种“伪问题”、“伪风险”、“伪挑战”。本文通过梳理肯定论的逻辑,证明了人工智能不具有权利与义务统一性、与单位犯罪原理无法类比、所谓的“辨认控制能力”不具有刑法意义、肯定AI犯罪主体地位会引起很多悖论。所以,“人类的主体性是任何技术都代替不了的”,以人类自我为中心的刑事责任体系具有恒久适应力。肯定论的“未雨绸缪”可谓无比超前,甚至他们比科学家走得还要远:科学家想到的,他们想到了;科学家没有想到的,他们也想到了。这不亚于探究“外星人是否需要承担刑事责任”,比较实际的态度应当是:先找到外星人再说吧。

地址:成都市青羊区人民南路一段86号18层K单元

电话:18683785575

邮箱:yb@scybls.com

二维码

版权所有◎1999 - 2020 SICHUAN SILVERBOND LAWFIRM
万维科技 提供技术支持

蜀ICP备19003875号-1