当前位置:论文网 > 论文宝库 > 法学法律类 > 刑法 > 正文

人工智能刑事主体地位分析与刑法应对

来源:UC论文网2020-09-23 09:04

摘要:

  摘要:人工智能技术的不断进步,既带来了新的社会福利,也带来的新的社会风险。刑法当具有前瞻性,及时调整《刑法》规范以应对新的刑事风险,但也应当具有保守性,以谨慎的态度应对人工智能领域技术创新,特别是强人工智能,其研发的合理性本身值得商榷。人工智能的行为不是《刑法》意义上的行为,也不具有刑事责任能力,所以出于法律稳定性和社会伦理的考量,不宜赋予人工智能刑事主体地位。在行为人利用人工智能的故意犯罪中...

  摘要:人工智能技术的不断进步,既带来了新的社会福利,也带来的新的社会风险。刑法当具有前瞻性,及时调整《刑法》规范以应对新的刑事风险,但也应当具有保守性,以谨慎的态度应对人工智能领域技术创新,特别是强人工智能,其研发的合理性本身值得商榷。人工智能的行为不是《刑法》意义上的行为,也不具有刑事责任能力,所以出于法律稳定性和社会伦理的考量,不宜赋予人工智能刑事主体地位。在行为人利用人工智能的故意犯罪中,应当追究行为人的刑事责任,不考虑人工智能的能动性。在人工智能过失犯罪和人工智能失控造成的犯罪中,应当根据行业义务严格设定研发者和使用者的注意义务。


  关键词:人工智能;刑事责任能力;刑事主体地位


  中图分类号:D914文献标识码:A


  一、人工智能刑事主体地位问题的缘起


  1950年,阿兰·图灵发表了《计算机器与智能》一文,从九个方面论证未来机器人是可以思考的智能机器人,是人工智能领域的开山之作[1]。1997年,IBM公司开发的深蓝计算机击败了国际象棋世界冠军卡斯帕罗夫;2016年,阿尔法围棋战败了围棋冠军李世石,体现了人工智能非凡的能力。人工智能以优越的性价比进入家家户户,智能窗帘、智能扫地机、智能音箱乃至无人汽车等,给人类社会带来极大便利。


  但是,风险也离人们更近了一步。2018年3月,Uber的一辆无人车在行驶时识别系统故障,致一人死亡[2]。这并不是第一例无人车伤人事件,早在1957年就发生了类似的事件。技术的不断革新并不能避免人工智能因故障带来的风险,人工智能随时有可能脱离人的控制,造成人身、财产的损害,甚至危害公共安全。


  在这种情况下,人工智能本身能否承担刑事责任,即人工智能是否能够是刑事责任主体成为刑事立法的重要问题。有学者提出,智能机器人不是人,但必须当人看[3]。还有的学者将智能机器人进一步按强弱划分,并认为强智能机器人应该具有刑事主体地位,承担刑事责任[4]。弱人工智能因具有深度学习能力,其脱离控制而实施的危害行为具有机器人自身的能动性,影响到刑事责任的分配问题[5]。人工智能技术的发展,必然会给现有的法律制度和法律理念带来冲击,人工智能该具有何种刑事法上的法律地位,《刑法》应当如何应对人工智能带来的新刑事风险,都值得进行进一步的研究。


  二、人工智能不能成为刑事责任主体


  人工智能本质上还是人类一系列算法的產物,其行为不能构成《刑法》意义上的行为,不具有刑事责任能力,贸然赋予其刑事主体地位会对现有法律理论造成破坏,因此人工智能不能成为刑事责任主体。


  (一)人工智能的行为不是《刑法》调整的行为


  《刑法》中的行为究其源头是黑格尔的哲学[6],关于《刑法》中行为的理论,典型的有因果行为论、目的行为论、社会行为论和人格行为论。不同行为理论对《刑法》上行为的理解不同,但是其共同点在于,行为是人支配自由意志的行为。有学者指出,应当注意应然层面和实然层面的不同,《刑法》未涵盖但是符合《刑法》中行为的内涵和特征的行为,立法者应选择合适时机将该行为纳入《刑法》规制的行为范畴[5]。在上述行为理论提出的当时,人工智能还只是设想。因此,人工智能的行为虽不是《刑法》中的行为,但是并不妨碍对人工智能所实施行为在《刑法》应然层面的探讨。


  笔者拟将人工智能行为的性质分两类讨论。第一种情况是人工智能的行为没有超出人类的控制能力和预见能力,造成一定危害的情况。此时,人工智能是人类的工具,是人类行为的延伸,其行为本质上仍然是人类的行为。


  第二种情况是人工智能超出人类控制范围,在程序设定之外实施的活动。人工智能实施了超出人类计算和预期的行为,也就是所谓“强人工智能”的自主行为。有学者主张,在这种情况下,因为人工智能具有独立的意识,不能仅因为其不是人,而否定其行为是《刑法》意义上的行为[7]。这种观点假设的是人工智能失控或者超出人类的控制后,实施严重的危害人身、财产乃至公共安全的行为,特别是未来的强人工智能,拥有超出人类程序范围实施行为的能力,“完全有可能自主实施与自然人实施的行为具有同等社会危害性的行为”[5]。


  笔者在此提出质疑,人工智能“为所欲为”的能力是否真的可能存在,亦即“强人工智能”时代是否如学者想象的那般具有“独立意识”?笔者坚持认为,未来人工智能技术不管多么发达,都不可能拥有和人类一般的“独立意识”,其超出人类控制范围实施的行为也不能是《刑法》意义上的行为。首先,人类的意识并不限于独立的思考、判断能力,况且诸如潜能、人脑的运作原理等方面,科学还未能探其究竟。人们有理由相信,在科学探索出人脑的奥秘之前,强人工智能只是个想象。其次,人工智能不会因为深度学习获得的类似人类的独立的判断能力而达到《刑法》中“自由意志”的要求。如前所述,人工智能的“判断能力”是人类通过编程和算法赋予的,那么究其本质,它只能是一种模拟人脑的算法。正如有学者指出的“人类制造机器并决定其特性和功能,人类思维和AI永远是模拟与被模拟、操控与被操控之间的关系,人类大脑是AI可以无限接近但不可逾越的地平线”[8]。


  那么该如何评价人工智能超出人类控制的行为?笔者首先要提出的是,为了便利,努力研究制造一种可能超出人类控制的智能机器人是十分危险的。它将挑战人类在社会中的地位,越是智能,对人类可能的威胁越大。人工智能的行为本质上来源于人类的设计、制造,人工智能实施的危害行为不论是否超出控制,人类都难辞其咎,若将人工智能失控的行为归罪于机器人自身,那么将会无形中降低人类的注意义务,人类创造的风险,却由机器人承担,其后果不难预见。


  (二)人工智能没有刑事责任能力


  关于刑事责任能力的本质,道义责任论认为,责任能力的本质在于意思决定能力,或者说是一种犯罪能力;社会责任论认为,责任能力的本质是刑罚适应能力,或者说是一种刑罚能力[9]。


  笔者认为,人工智能无论是采取道义责任论还是社会责任论的思路,都不能得出其具有刑事责任能力的结论。道义责任论认为,刑事责任能力的本质在于自由的意识。小野清一郎指出,行为人的道义责任是以行为人具有意识伦理性法的规范、根据该意识决定自己和行动的能力[9]。在这个方面,如前所述,人工智能的意识来源于研发者输入的程序,是非标准,也是研发者事先输入的,这种意识究其根源还是人类意识的体现,纵使在人工智能超出人类控制的情况下,也不能与人类的意识等同。人类不会创造出一种可以产生新思想的机器,人工智能只是一种通过算法的模拟。所以,根据道义责任论的观点,人工智能不具有刑事责任能力。


  如果采用社会责任论的思路,刑事责任能力的本质是一种处以刑罚的有效性、刑罚适应性。刘宪权认为,强人工智能具有感知刑罚痛苦的能力,并且能够在犯罪的“快感”与刑罚的“痛感”之间进行理性权衡,所以智能机器人可以作为刑事责任主体[7]。笔者对此持怀疑态度,费尔巴哈的“心理强制说”主张的“快感”与“痛感”是一种人类情感,而人工智能的感知是一系列算法的“程序输出”。而且对机器人加以处罚,不论是销毁还是监禁,对人类来说只是在处理一个机器而已。因此,笔者认为不论采取哪种观点,人工智能都不能承担刑事责任。


  除此之外,假如承认人工智能的刑事责任能力,会造成《刑法》理论的混乱。人工智能本为便利人类而出现,它的本质是一种工具,若承认人工智能“自主”犯罪的情况下的刑事责任能力,势必要承认相应情况下的权利,这样人类创造的人工智能将不仅是一个工具,而是一跃成为和人类地位相等的主体,这在无形中减轻了研发者和使用者的责任,人类自己创造了危险,却试图让危险自身担责,其后果可想而知。


  三、人工智能犯罪的《刑法》应对


  (一)行为人故意利用人工智能实施犯罪行为


  人工智能的发展可能会导致新的犯罪方式的出现,即人工智能作为一种隐蔽的、精准的犯罪工具。研发者可以为了犯罪设计人工智能,使用者可以通过设定某种程序让人工智能“巧妙”地完成犯罪,成为行为人脱罪的手段。这种情况下,人工智能发挥的是一种工具性的价值,因为它的“使命”就是犯罪,它实现的是研发者或者使用者的意志,而不是人工智能自己的意志,其行为在人类的控制范围内,也是不自由的。所以,行为人故意利用人工智能实施犯罪的,应由行为人承担刑事责任。


  (二)人工智能研发者和使用者的过失责任


  人工智能虽然智能,但是不可避免地会出现一些脱离原本运行计划的情形,甚至因此而造成严重的危害后果。根据刘宪权学者的分类,现有科技水平研发的人工智能仍然是弱人工智能,不能彻底脱离人类的掌控,研发人员和使用人员仍需负有监管人工智能使之正常运行的注意义务。比如,2018年3月Uber的无人驾驶汽车因为识别故障导致一名妇女死亡。根据美国在线新闻平台BusinessInsider的报道,肇事车辆为半自动驾驶的车辆,事发前工程师关掉了其无人驾驶汽车的紧急制动功能,事发时驾车司机也没有依道路情况及时制止汽车的闯黄灯行为,最终导致车祸发生[2]。本案中,一方面,肇事车辆本身有技术性缺陷,其紧急制动系统被工程師于数月前关闭了,这是研发者的技术过失;另一方面,司机对于半自动驾驶汽车没有履行人类驾驶员的监管义务,是使用者的过失。二者的过失共同导致了人工智能交通肇事案件的发生。


  一般情况下,研发者、生产者设计、生产有质量缺陷的人工智能本应属于经济法上涉及产品缺陷责任的法律规范范畴。但是,笔者认为,缺陷的人工智能产品具有巨大的潜在社会危害性,刑事法律不能袖手旁观。刑事立法对于人工智能的研制、生产的规定应当是严密谨慎的,如果将人工智能应用于社会,那么设计者就应当竭尽全力地反复试验、排除致害因素,对社会公共安全负责。故因人工智能质量问题及技术因素造成运转的故障导致严重危害社会的实害结果,且研发人员和使用人员违反了注意义务的,应承担相应的过失责任。


  一般认为,过失是对注意义务的违反,这种注意义务包括结果预见义务与结果回避义务[10]。在人工智能过失犯罪中,这一理论同样适用。所以判定研发者和使用者的过失责任,关键在于对注意义务的厘定。关于人工智能过失犯罪的注意义务来源有法定义务说[11]、行业义务说[12]以及包括社会义务在内的综合义务说[13]。笔者认为人工智能领域是一个新兴的领域,行业义务较之其他更加具体、专业,更有针对性,而且与法定义务和社会义务相辅相成,应当是研发者、使用者的义务来源。


  至于对于预见可能性的判断,传统《刑法》理论的通说认为,预见可能性是对具体危害结果预见的可能。笔者认为,目前其深度学习功能一般不会超出人类的控制,人工智能具有很强的不确定性,应当在具体危害结果预见可能性的基础上适当降低预见标准,具体的危害结果的预见不要求具体到危害结果的样态,而是一种笼统的危害结果,换句话说,是对具体于抽象的行为危险而又略抽象于具体结果的危险的预见,并且这种预见要求会随着人工智能技术的水平的提高而扩展,根据研发使用当时人工智能的技术水平所能预见到的可能后果判断研发者、使用者的预见义务,并不要求现有技术已经实际研制出避免该可能后果的有效手段。


  (三)人工智能失控造成严重后果


  当人工智能通过深度学习,形成独立的分析能力时,很可能出现脱离人类掌控的情形,在这种情况下,如上文所述,有学者认为,未来人工智能可以依据自己独立的意志,实施自由的行为,应当未雨绸缪,在强人工智能时代到来之前以及其他条件成熟时,以《刑法》明文规定的形式,确立人工智能的刑事主体地位,肯定其行为的性质,由人工智能对自己的行为承担刑事责任[11]。


  笔者对此持一贯的否定态度,正如上文论证的,人工智能的行为因其工具的本质,不能拥有和人类意识等同的意识,其行为不是《刑法》意义上的行为,也不具有独立承担刑事责任的价值。对于支持《刑法》重构的学者所设想的人工智能因自主行动能力超出人类控制而造成危害社会的严重后果的情形,笔者依然主张追究于此失控并造成损害有关的研发者、使用者的刑事责任,理由如下:


  第一,人类努力研究拥有自主行动能力、但可能脱离人类控制的人工智能的合理性本身就是有待商榷的。强人工智能的确会给人类带来便利,但是弊端可能会更大。从社会层面上分析,它们一旦出现,会危及人类的主体地位,颠覆现有社会秩序,因为人类社会现有架构都是以人为本的。从法律制度上讲,倘若人工智能成为法律主体,承担刑事责任,则根据一贯的权利义务相统一原则,势必发展出相应的机器人权,诸如生命权、财产权(机器人创作的财产)之类,这将是对法律体系的颠覆,对人权的威胁。从人工智能的实际效用分析,如果研制出可以独立思考的、具有独立行为能力的人工智能,一旦超出人类的控制,给人类生活会带来更大的不便和危险。设想若全自动驾驶的汽车问世,纵使程序严谨,仍然是个行走的不确定危险,甚至大于人类驾驶的汽车的危险。所以从以上三个层面分析,强人工智能时代未必是人类的福音,强人工智能能否问世,取决于人类自身。人类应当权衡利弊,就如克隆技术一般,禁止人工智能技术在某些领域的研究。所以,强人工智能还是个未知数,而在可预期的未来,人工智能并不能完全脱离人类的掌控,所以呼吁赋予人工智能刑事主体地位未免有些杞人忧天。


  第二,允许人工智能分担刑事责任有减轻人类自身责任的嫌疑。赞成人工智能成为刑事责任主体的学者已经考虑到了利用弱人工智能犯罪时行为人对危害行为的实际作用问题,以及强人工智能与自然人共同犯罪及责任划分等问题,因为不论是当下的弱人工智能还是未来可能出现的强人工智能,其自主性的融入使得行为人的作用看起来不再是100%了[5]。对于人工智能能动性的融入,笔者持否定态度,若承认当代弱人工智能在人类控制下实施危害行为的独立贡献,例如承认智能武器受行为人支配的情况下实施犯罪行为的能动性,那么相当于无形中提升了人工智能的地位,意味着其发挥的不再是犯罪工具的价值,也意味着行为人刑事责任的降低,还意味着这部分事实上人类创造的风险转由人工智能承担。承认强人工智能与自然人共同犯罪的观点亦是值得商榷的,如果人类制造的机器人可以独立地进行犯罪,甚至可以和人类共同故意犯罪,那么研发者和使用者将难辞其咎。


  人工智能的发展将使得犯罪形式更加复杂、多样,对此《刑法》规范的调整应当注重对人工智能犯罪的预防,提升研发者和使用者的注意义务,在人工智能超出人类控制的情况下,谨慎地认定人工智能失控造成的意外事件,而非将刑事责任推给机器人。


  四、结语


  人类不能赋予人工智能包括刑事法律在内的法律主体地位,根据社会契约论的观点,人们将与生俱来的权利转让给国家,而订立这个契约的不包括人类制造的机器。人类的法律应由人类遵守,不能轻易把机器纳入法律主体中。机器不论多么智能,依然是人类制造出来的“物”,应当是客体的地位,若仅因为这个“物”具有一些小聪明就赋予其与人类同等的地位,在笔者看来是不合理的。人工智能的最高境界是知识的排列组合,而智慧高于知识,并且由人类独有。人类通过一系列算法赋予人工智能的是“人工的”智能,可以说是知识,但并非人类的智慧。如果贸然地重构《刑法》,将造成《刑法》理论和规范的混乱。而且一旦人工智能拥有刑事责任能力,那么为了法律上的平等,势必要讨论赋予人工智能相应的权利,包括实体权利和诉讼权利等,于是人类就会陷入一个法律怪圈中。所以,在人工智能超出人類控制的情况下,笔者依然主张追究研发者、使用者等相关人员的刑事责任,以工具的性质看待人工智能发挥的作用,谨慎地认定人工智能失控造成的意外事件。


  刑事立法应该给火热的人工智能研发注射一针“镇定剂”,让人类冷静地看待人工智能。笔者对于人工智能犯罪的相关问题以较为保守的观点贯穿始终,在刑事立法方面,笔者主张通过刑事立法,限制人工智能的过分发展,特别是慎重对待“自主意识”的开发,尤其不能赋予人工智能刑事主体地位;在人工智能过失犯罪方面,研发者和使用者的注意义务是人工智能过失犯罪追责的重要标准,笔者分析尚浅,这一问题仍然值得学者深入研究。

核心期刊推荐