否定与建构:人工智能时代的刑法应对
来源:用户上传
作者:牛天宝
摘要:人类正经历第四次科技革命时代。新的科技革命带来了生产力的发展,也带来了社会关系的变革,刑法作为社会治理法应积极应对人工智能带来的新变化。但是,刑法是保障法。應保持立法克制。人工智能机器人本质上属于人类的创造物。不能独立承担刑事责任,对其施加“刑罚”没有意义,赋予其刑事主体地位尚不具有现实可能性。人工智能机器人的操控者(制造者、所有者、入侵者)利用人工智能机器人实施犯罪行为应承担故意犯罪刑事责任。此外,人工智能机器人的制造者未尽到必要的安全注意和结果回避义务,其所有者未尽到保证人的监管义务,均应承担过失责任。
关键词:人工智能;机器人;刑事责任能力;否定;应对
中图分类号:DF611文献标志码:A
DOI:10.3969/j.issn.1008-4355.2020.01.09
一、引言
人类正大踏步进入以人工智能为代表的第四次科技革命时代。第四次科技革命给社会的发展带来了革命性变化,人工智能技术将应用到人类生活的方方面面,目前在部分领域已经有相应的人工智能产品,如谷歌公司战胜围棋世界冠军的阿尔法狗、特斯拉公司生产的自动驾驶汽车和美国的人工智能“律师”罗丝等。科学技术是一把双刃剑,其可以为人类服务,给人类的生活带来极大的便利,也可能带来灾难性的风险。人类最担心的问题之一就是:当人工智能发展到一定程度时,可能形成属于自己的意识而选择伤害自己或者做出伤害人类的行为。面临未知的风险,我国刑法学者未雨绸缪,基于人工智能发展带来的挑战,提出了一系列解决方案。有学者提出了比较前瞻的观点,主张“强人工智能产品具有独立人格和刑事责任能力。可以将其实施的严重危害社会的行为认定为犯罪行为并给予刑罚处罚。”同样,也有学者坚持“人工智能不具备独立于人类的权利和价值,将人工智能拟制为犯罪主体的设想不具有合理陛,且将加剧‘有组织的不负责任”’。
当前最具时代特点的科技进步当属人工智能技术的迅猛发展和广泛应用。由此带来法律调整的问题及挑战。反映在刑事领域,核心争议之一就是人工智能机器人的刑事责任能力问题。学界对于弱人工智能的刑事责任问题没有较大争议,一般认为其仅具有工具属性,不具有独立的刑事责任能力。而分歧主要是针对强人工智能是否具有独立的刑事责任能力。本文拟讨论的人工智能机器人的刑事责任能力及其侵害法益后的刑事责任归属,是在强人工智能这个前提下展开的。所谓人工智能机器人是指具有感觉、反应和思考能力的机器人,能识别周围环境状态,根据所得到的信息,思考出采用什么样的动作,对外界做出反应。基于此,即使是与人类外形相似,具有高度的实践能力,但是只有靠人的操纵才能移动,就不能称之为人工智能机器人。即使是单纯的机器人清扫机,如果是利用自身能力,认识和判断障碍物并自主进行清扫的机器,也可以称之为法律上的人工智能机器人,即本文所讨论的强人工智能意义上的人工智能机器人。
本文认为,人工智能机器人本质上属于人类的创造物,不能独立承担刑事责任,不应赋予其刑事责任能力,对其施加“刑罚”没有意义,基于现有的刑事法律规范与理论,尚可解决人工智能机器人肇事的刑事责任归属问题。
二、人工智能机器人刑事责任能力之否定
如前所述,关于人工智能机器人的刑事责任能力问题,有两种相互对立的立场。与否定说相比,肯定说的论者更有责任论证人工智能机器人具有刑事责任能力,而作为否定说的论者只是对传统刑法的坚守,只需要提出肯定说的论证路径存在瑕疵,不具有完全的说服力,即可否定人工智能机器人的刑事责任能力。本文对赋予人工智能机器人刑事责任能力持否定态度,虽然人工智能技术的飞速发展,使得人工智能机器人具有某些类人的能力,但是人工智能机器人在本质上是人类创造、应用和管理的对象,不应因其表现出类人的智能,就将其视为人类社会的主体并赋予法律主体地位。现阶段,肯定说的论证尚不具有充分的说服力,要赋予人工智能机器人独立的刑事主体地位,尚不具有现实可能性。
(一)人工智能机器人具有刑事责任能力的论证不充分
肯定人工智能机器人具有刑事责任能力的论者需要充分的理由论证人工智能机器人具有刑事责任能力,他们主要从人工智能机器人的辨认和控制能力人手,提出类比法人拟制为刑事责任主体,并提出人工智能机器人具有受刑能力,针对其特点构建了刑罚体系。然而,本文认为肯定说的论者虽然提出了新颖的论证观点,但是依然未能充分论证人工智能机器人具有刑事责任能力。
1.无法从人工智能机器人具有辨认和控制能力路径论证其具有刑事责任能力
有论者指出,刑事责任主体的核心要件是辨认、控制能力。强人工智能机器人具备刑事责任主体的核心要件一辨认、控制力,因此强人工智能机器人能够成为刑事责任主体。人工智能机器人可能在一定程度上具有辨认和控制能力,但是我们不能忽略其辨认和控制能力的来源——来源于人类,且人类可以左右其辨认和控制能力。其次,还要考察人工智能机器人的辨认和控制能力服务的对象——依然是人类,人工智能机器人自身并没有独立的价值追求。行为的目的乃是行为的基础,当人工智能机器人没有独立于人类之外的独立行为目的,其动作也就无法称之为刑法意义上的行为。再次,辨认和控制能力是刑事责任主体的核心要素,但并非刑事责任主体的全部,其只是刑事责任主体地位论证的必要条件,而非充要条件。换言之,无责任能力是排除责任事由,并非因具有辨认和控制能力而具有刑事主体地位,恰恰相反,是因为不具有辨认和控制能力而排除了其承担刑事责任的可能性。最后,人类具有刑事责任主体地位,是人类在漫长的社会发展进程中不断进步发展而取得并经立法予以确认的,而不是靠别的种群赐予的。假使人工智能机器人靠人类的恩赐获得了刑事责任主体地位,并没有任何现实意义,实质上依然是处于被人类制定法支配的客体地位。
2.无法类比法人拟制路径论证人工智能机器人具有刑事责任能力 类比法人拟制人工智能机器人的刑事责任能力,依然具有难以克服的障碍。有论者从法人的角度出发,认为法人最初也没有刑事责任主体地位,但是立法把法人拟制为和人类一样的刑事责任主体。那么,人工智能机器人具有辨认和控制能力,也应当可以像法人一样拟制为刑事责任主体。人工智能体的法律人格可以“借鉴‘单位’这一主体设定的理念。将现阶段刑法中刑事责任的主体扩充为自然人、单位和人工智能体”。虽然法人和人工智能机器人都不是自然人,都不具有人类的生理构造与伦理观念,但法人与人工智能的重大区别在于,法人总是“通过”人类来运营,由人来组成董事会,且董事会的行为被归结为单位的行为。人工智能机器人的行为是人工智能机器人在一定程度下独立自主的行为,并非由人直接决定和执行,从这一点来看,存在根本性的差异。法人是以自然人为主体组合的人合性组织,其本质上依然是自然人的联合体。法人的行为决策是由其决策机关依法定程序而做出,其决策机关的组成人员是自然人,相当于法人的决策实质上依然是自然人所作出的。即使如此,在特定情况下还可能会否定法人的刑事责任主体地位,如设立的目的就是为了犯罪或者成立后的主要业务属于犯罪等。而人工智能机器人,其智能虽然类似于人类,但是其在设计者完成相关编程以后,就与其辨认和控制能力予以适当分离,其执行的是没有生机的编程指令,或者是基于特定算法而产生的自我学习能力,其与自然人的辨认和控制能力依然具有本质的区别,也不同于法人的辨认和控制能力,所以人工智能机器人也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。
3.无法从受刑能力路径论证人工智能机器人具有刑事责任能力
刑罚的本质是痛苦,刑罚只与犯罪相联系,是施加给犯罪人的痛苦。有论者提出,人工智能机器人具有感知刑罚痛苦的能力,将其纳入刑罚处罚范围能够实现刑罚目的,也符合主体拟制的刑事立法规律,并设计了三种方式对智能机器人进行刑罚处罚:删除数据、修改程序、永久销毁。而事实上,人工智能机器人究竟是否具有感知刑罚痛苦的能力,仅仅是建立在作者猜想的基础之上,并没有展示明确的科学依据。所谓刑罚,是对犯罪的反作用,是对实施了犯罪的人所作出的制裁,其目的在于通过科处刑罚而抑制乃至预防犯罪。首先,刑罚设计的基础是受刑主体要有感知痛苦的能力,并基于刑罚的痛苦与犯罪所带来的快乐的对比,趋利避害,从而做出适法的行为。如果不能论证受刑对象具有感知痛苦的能力,也就谈不上通过科处刑罚而抑制和预防犯罪。其次,人工智能机器人主要用来服务人类,与制造它的主体、拥有它的主体以及使用它的主体之间存在诸多利益关联,销毁人工智能机器人或者其中的数据、程序等行为势必会损害与其紧密相关的其他主体的利益。再次,对人工智能机器人施加“刑罚措施”,看似处罚人工智能机器人,实际上却是对人工智能机器人使用者或所有者利益的减损。机器人无论以何种方式承担责任,最终的责任承担者都是人。而人工智能机器人侵害法益,归根到底是使用者、所有者、制造者在利用人工智能技术过程中违法犯罪,因而理应由人来承担刑事责任。最后,删除数据、修改程序、永久销毁等预防人工智能机器人侵害法益的合理对策,能有效抑制人工智能机器人侵害法益。但是,删除数据、修改程序、永久销毁等措施,在无法论证人工智能机器人具有刑事责任主体地位的情况下,与其说是刑罚措施,不如说是在紧急情况下为了保护人类的利益对物采取的行政强制措施。
(二)赋予人工智能机器人刑事责任能力与其他规范存在冲突
法律是社会控制的主要手段,但并非社会治理的唯一手段。法治现代化的基本要求之一就是法治系统内部与外部的协调统一。刑法也不例外,在外部需要与伦理道德等协调一致,在内部还需要与其他法律规范协调一致。法治社会的法律变革牵一发而动全身,不能只从刑法方面讨论人工智能机器人的刑事责任能力问题,还需要考虑与其他规范的协调一致。如果暂时无法做到协调一致,刑法应秉持适当的保守性。刑法作为保障法的性质决定刑法需要与其他规范保持一致,随着其他规范的变化而变化,而非强求其他法律规范适应刑法的理论创新。
1.赋予人工智能机器人刑事责任能力与伦理规范存在冲突
在现有的立法体系以及刑罚归责路径阻却下,将机器人作为刑事责任主体,有违人类对基本伦理的现有认知。首先,承认人工智能机器人的刑事责任主体地位,将导致人与人工智能机器人的关系难以厘定。如果承认人工智能机器人的刑事责任主体地位,则意味着对人工智能机器人可以与人类一样平等适用刑法规范。即使学者针对人工智能机器人设计了不同于自然人的刑罚,也依然是同一部刑法。现在罪刑法定原则的思想基础之一为民主主义,根据民主主义的要求,犯罪与刑罚必须由国民代表机关制定的法律来规定。如果将刑法适用于某一主体,该主体应当享有参与刑事立法的权利。那就意味着人工智能机器人应与人类有平等的立法权。要想参与刑事立法,必须具有与自然人一样的公民身份和平等的宪法地位。如此一来,人工智能机器人与人类的关系应如何定位,人工智能机器人是否也应享有选举权与被选举权,是否可以当选为国家机关领导人,是否可以领导人类的发展,都是需要破解的伦理难题。很顯然,从现在人工智能发展的阶段来看,赋予其公民身份和立法权还很不现实。其次,既然人工智能机器人难以取得公民身份和立法参与权,却将人类制定的刑法适用于人工智能机器人。本质上来讲,还是没有承认人工智能机器人的主体地位,在我们内心深处依然下意识地把其视为人类的工具,人工智能机器人仍处于可供支配的客体地位。既然无法接受人工智能机器人与人类的平等地位,那么在理论上与实践上承认其刑事责任主体地位将面临一道难以跨越的鸿沟。
2.赋予人工智能机器人刑事责任能力与其他法律存在冲突
一般认为,刑法学是处于后置地位的保障法,保障民事法律规范等前置法律规范的实施。实际上,刑法与其说是一种特别的法律,还不如说是对所有其他各种法律的认可。刑法学的发展不是自我想象,而是需要基于自然科学和社会科学的成果,尤其在基础概念方面需要与前置法律规范保持一致。刑法学的讨论,不能脱离民法学的研究,相反应当以民法学的研究为基础。其一,在民法学领域,将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。说到底,人工智能机器人的人工类人格仍然不是人格,仍然是物的属性。人工智能机器人虽然有人的外观形象,有人的一些功能,可以实施某些类似于人的行为甚至有一定自主性的行为,但它的基本属性仍然是物。民法学者尚且认为人工智能机器人不具有独立的人格地位,不满足人格的基本要素,其在本质上只是人类的创造物,刑法上就承认其主体地位未免显得突进。其二,假设人工智能机器人可以成为刑事责任主体,那么就应当对人工智能机器人与人类同等保护起来。如果毁坏了人工智能机器人,是应当认定故意伤害罪还是故意毁坏财物罪?在民事侵权领域,其赔偿标准是适用于物的标准还是需要单独设立特定的标准,是根据其价值评估还是根据其预期使用年限来确定赔偿金额?刑法不只是惩罚,更应是保障。对刑事主体地位理论的革新是一个系统工程,刑法不能忽视其他法律规范而单枪匹马,孤军深入。再次,上文谈到的伦理障碍,也是宪法障碍。国家是基于社会契约而成立的,国家的目的在于保障人们的相互自由。宪法规范体系一般是遵从社会契约论的基本思想构建起来的。宪法作为国家的根本大法,如果刑法承认人工智能机器人的刑事主体地位,也应以宪法赋予其主体地位为前提。研究法律问题特别是刑法问题不能基于可能的情况,而应基于现实的情况。但是,就目前的情况来看,不管是宪法还是民法,就连刑法自身都没有构建完整的规范体系,此时下结论要赋予人工智能机器人的刑事主体地位,或是时间太早了点。 (三)赋予人工智能机器人刑事责任能力缺乏根本依据
除了无法论证人工智能机器人存在刑事能力的基础以及赋予其刑事责任能力的后果无法协调一致以外,赋予人工智能机器人以刑事责任能力还面临其自身属性和科学依据的根本性障碍。就目前而言,人工智能机器人在本质上只是人类的创造物,人工智能机器人的“智力”来源于人类,拟制其具有刑事责任能力的研究大多是建立在论者的设想之上,尚缺乏明确的科学依据。
1.人工智能机器人本质上仅是人类创造物
对犯罪人追究刑事责任的哲学根据在于行为人具有相对的意志自由,或者说自由选择能力,即行为人能选择非犯罪行为却选择了犯罪行为,因而才追究其刑事责任。人工智能与人类智能并非一回事。人类有目的和意识,而机器并没有目的和意识。机器仍然只是机器,虽有智能,但也是比较单一的信息处理能力,综合智商远远比不上人类甚至其他动物。人工智能辅助人,而不能完全代替人。人工智能机器人存在的根本目的是为人类服务,其存在的终极意义仍然是一种工具价值,不会也不应有追求自在价值的自由意志。其次,人类设计人工智能的目的,在于利用其在生产、生活、国防等领域代替人类从事一定的活动。人工智能并没有独立于人类的权利和价值,而只有利益附属性。人工智能机器人没有独立的价值追求,只有依附于人存在才能实现其价值。再次,人工智能机器人的控制和辨认能力来源于程序与算法,不同于自然人的辨认和控制能力。人工智能归根结底是思维模拟,并非人的思维本身,决不能把机器思维与人脑思维等同起来。最后,人工智能就本质而言,是对人的思维信息过程的模拟。也有学者从意识的广延性、统一性与非逻辑性等属性的角度,认为机器人超越人脑形成独立意识是根本不可能的。本质上,机器人不是人,无法拥有人类的自我意识,更不具备人所拥有的社会自主适应能力。与机器人不同,人能够区别自身与其他事物及其他人的不同,能够在成长过程中形成自身与其他事物具有相对稳定的联结关系但又与所有这些事物相区别的主观感受实体。即自我意识——“我”。机器人永远只是人类创造的工具,其功能即使比人类意识的某些方面还要强大,也只是人类意识“自主性”的延伸。
2.人工智能机器人具有刑事责任能力缺乏科学依据
论者在论述人工智能机器人相关的问题时,充满主观假想的色彩,比如有论者提出:“科学技术的发展究竟会带来怎样的人机关系,目前我们无法预知,笔者有如下设想。”还有论者在关于强弱人工智能的分类与是否存在思考能力时认为:“……强人工智能产品通过学习,产生脱离程序的独立意志,具备独立思考能力”。人工智能机器人发展的未来充满未知,将刑事理论建构在设想和主观认为之上,据此认为人工智能机器人具有刑事责任能力,缺乏说服力。再如,关于同一问题的论述,可能会有截然不同的说法,如有论者认为“智能机器人与动物不同,其与人类的沟通并无障碍,并具备意思表达的能力”,还有论者指出,“至少在目前,我们人类和机器人之间的主观交流和探讨的基础尚不存在”。这些充满主观性的词语,正如国外论者所言,最终论点更多地停留在科幻小说领域,而不是实际的法律分析。如果没有明确的自然科学依据作为研究的支撑,那么赋予人工智能机器人以刑事责任能力多少有点刑法学领域部分学者自说白话的感觉。
(四)从人工智能机器人的未来发展预测不应赋予其刑事责任能力
在当前科技发展水平以及可预测的未来,人工智能仍将长期处于弱人工智能发展阶段,无论基于算法运行的人工智能多么强大。形式理性层面对规则的推理都无法实现像人类运用超规则之上的价值判断。对人工智能机器人不能赋予主体地位,恰恰相反,应当处于人类的掌控之中,应有足够的智慧将强人工智能的发展限制在维护人类基本利益的范畴之内。⑩人工智能技术不可能无限发展,人类必须在可掌控的范围内限制其无节制的发展。人工智能机器人归根到底来源于人的智能,其智能来源于人类也应受制于人类。人工智能机器人如同风筝一般,不管其飞得再高,都不能脱离人类控制的线索。人工智能机器人一旦脱離了人类的控制,那么人与机器人的关系很可能会被改写,最终人类很可能是自掘坟墓。
综上而言,人工智能机器人本质上属于人类创造的物,其存在的价值在于为人类提供便捷、高效、安全的服务,仅仅具有工具属性,对人工智能机器人施加刑罚措施也没有现实意义。目前,赋予人工智能机器人刑事主体地位,缺乏科学依据做支撑,也与其他法律规范难以协调一致,且具有伦理障碍,目前肯定说对人工智能机器人具有刑事责任能力的论证尚不具有充分的说服力。因此,在现阶段承认人工智能机器人具有独立的刑事责任能力,赋予其刑事主体地位尚不具有现实可能性。
三、人工智能机器人侵害法益相关的刑事责任归属分析
人工智能机器人侵害法益案件随着人工智能技术的发展而日益增多,如深圳高交会机器人“小胖”伤人案件、国内首例“特斯拉自动驾驶”车祸致死案和利用人工智能犯罪案件等。目前人工智能机器人还只是一个计算机程序,当出现人工智能机器人侵害法益的案件时,其制造者或所有者承担相应的民事责任并不存在法律障碍。但是,随着人工智能技术的进一步发展,本文所探讨的人工智能机器人因被利用或自身错误启动很可能严重侵害人们的生命健康权。应追究的不再仅仅是制造者和所有者的民事责任,还要考虑相关案件发生后的刑事责任归属问题。
要解决人工智能机器人侵害法益案件的刑事责任归属问题,首先要明确人工智能机器人侵害法益案件发生的原因。从人工智能的独立性角度,可以把涉人工智能机器人侵害法益的案件分两大类型:第一,人类将人工智能机器人作为犯罪工具实施侵害法益的行为,行为主体可以是制造者、所有者以及人工智能机器人系统的侵入者;第二,人工智能机器人超出人类意志侵犯法益。关于第一种类型,人工智能机器人仅仅被作为实施特定犯罪的工具,在实践中也不难认定。关键在于第二种类型的侵害法益案件,随着人工智能机器人研发的快速发展,与前一种类型相比,后一类型将造成更严重的后果。 本文排除了人工智能机器人独立承担刑事责任的现实可能性,但这并不意味着人工智能机器人所引发的危害社会的结果没有相关主体承担责任。基于现行刑事法律规范而言,也可以对人工智能机器人侵害法益的刑事责任予以合理归属。本文将基于涉人工智能机器人侵害法益案件的类型,围绕涉人工智能机器人侵害法益案件的相关主体——制造者(人工智能机器人的生产制造一般包含设计、研发和生产制造等流程,此处讨论的制造者也包含设计、研发者)、所有者(此处讨论的所有者为广义上对人工智能机器人具有监督管理责任的所有者和对人工智能机器人负有监管义务的使用者)、非法侵入者逐一分析相关刑事责任的归属。
(一)人工智能机器人被作为犯罪工具使用侵害法益相关的刑事责任归属分析
人工智能机器人被作为犯罪工具使用的情况下,人工智能机器人的实际操控者实施了侵害法益的行为,应当由实际操控者承担刑事责任。此时,其操控者可能是输入编程和算法的制造者,可能是人工智能机器人的所有者,也可能人工智能机器人系统的非法入侵者。
其一,当制造者在制造设计人工智能机器人时,就把其视为犯罪工具将相应的指令输入编程和算法,即人工智能机器人的制造者故意利用人工智能机器人实施侵害法益的行为。比如,制造者在制造人工智能机器人的时候,在程序中提前写进实施犯罪的程序编程,人工智能机器人在特定的场景下就会做出侵害法益的举动。此时,人工智能机器人只是制造者实施犯罪的工具,对于人工智能机器人的制造者应根据其实际侵犯法益的情况,按其涉及的罪名依法追究刑事责任。其二,在人工智能机器人交付所有者使用以后,所有者利用人工智能机器人的特性从事违法犯罪活动,比如绍兴警方破获的全国首例利用人工智能实施犯罪的案件,犯罪嫌疑人利用一种叫“快啊”打码平台进行机器快速识别验证码,从而达到迅速批量匹配账号密码的目的,进而实施犯罪。对于此种类型的侵害法益的犯罪行为,应对所有者依法追究相关责任。如果利用人工智能机器人伤害他人,则构成故意伤害罪;如果利用人工智能机器人实施诈骗,则构成诈骗罪等等。其三,还存在非法用户入侵人工智能机器人的操作系统,操控人工智能机器人实施侵害法益的犯罪行为。例如,黑客攻击作为重要人物安保的人工智能机器人系统,破坏其既有的程序编程,写入对安保对象实施攻击的编程,打算操控人工智能机器人对安保对象实施攻击。这种情况下,黑客没有获得授权而非法入侵并控制计算机系统,可以成立非法控制计算机信息系统罪。如果侵入的是国防建设、尖端科学技术领域的计算机信息系统的,还可能构成非法侵入计算机信息系统罪。更严重的是,如果侵入人工智能机器人系统并控制人工智能机器人对安保对象实施了故意伤害或者故意伤人的具体犯罪行为的,则应按其实际触犯的罪名承担故意伤害或故意杀人的刑事责任。
总之,对于将人工智能机器人作为犯罪工具而从事犯罪活动的相关主体,除了涉嫌计算机系统方面的犯罪以外,应按其实际侵害的法益情况确定其罪名,依法追究相应的刑事责任。
(二)人工智能机器人超出人类意志侵犯法益的刑事责任归属分析
一般而言,人工智能机器人都会在既有的编程或者使用范围内实施特定的行为,但是人工智能机器人有可能失控而做出超出人类的意志实施侵害法益的举动。在现行法律体系中,尚未针对人工智能机器人侵害法益案件单独设立相应的罪名。那么,基于现行的刑事法律规范体系,作为人工智能机器人的制造者和所有者是否应对人工智能机器人引发的事故追究刑事责任,则是我们首先考虑的选项。由于人工智能机器人在人的意志以外实施了侵害法益的行为,则排除了制造者和设计者的主观故意。讨论人工智能机器人在人类操控以外侵害法益引发的刑事责任归属。则需要厘清与此相关的主体对危害后果是否具有预见可能性,以及对危害后果的发生是否具有回避可能性。如果没有预见可能,或者根本无法避免,则不能追究相关主体的刑事责任。
1.人工智能机器人制造者的刑事责任
对于人工智能机器人在人类操控以外做出侵害法益的举动,一般应排除制造者的犯罪故意,那么就要考量人工智能机器人的制造者是否存在犯罪过失。成立过失犯以行为发生侵害结果为条件,还要求实行行为与结果回避可能性。过失犯的成立,要求存在对结果认识的可能性,也要有对结果的规避可能性。或许人类为了享受人工智能机器人提供的服务,自愿承担一定的风险。事实上,也不可能要求制造者和设计者能预见所有的风险并避免所有的事故。那么,在发展與风险之间,如何才能寻求一个恰当的平衡点,追究相关主体的刑事责任?人工智能机器人制造者的过失和允许的危险应认定到什么程度,这将是人工智能机器人的制造者承担刑事责任与否的基础。
(1)人工智能机器人的制造者承担刑事责任的基础
首先,需要考虑人工智能机器人制造者对于危害结果是否具有预见可能性。人工智能机器人可以自行从周围环境中收集信息,在对搜集的信息独立评价后做出应对决策,从而完成既定的任务。对于人工智能机器人收集到的信息如何解读,如何应对这些信息,制造者可能也无法完全预测。从学理上看,研发者与设计者对于智能主体而言,具有不可替代的地位和作用,甚至目前处于“独占”状态,应当是首要的“伦理责任者”与安全的“守护者”,也是智能主体所面临的刑事风险的首要来源。人工智能机器人制造者需要仔细考虑其开发的人工智能机器人的用途和属性等。并根据其用途和基本属性预见其可能给人类带来的危险。虽然说要求制造者完全预测人工智能机器人的行动是不可能的,但绝大多数可能带来法益侵害的类型都应纳入可预见的范畴。比如,开发自动驾驶汽车的制造者如果仔细考虑自动驾驶汽车的属性,其应当预见到自动驾驶汽车在道路上行驶时很可能遇到的突发状况并采取提前设计相应的程序以采取可靠的回避措施。如果仅仅推脱不能预见而否认存在过失的责任,那就会产生无法向任何人追究责任的结果。
其次,需要考虑制造者是否履行了安全注意义务。过失犯罪成立的主要原因在于应当预见危害结果可能发生而没有预见或者已经预见到危害结果可能发生而未采取有力的措施予以避免。反映在人工智能机器人领域,过失犯罪本质上是怠于履行安全注意义务,即应当将可能产生的危害后果纳入考虑的范畴而没有。因未认识犯罪事实而导致的结果的发生或者已经预见到可能发生危害后果但是没有采取恰当的措施避免结果的发生。制造者对于人工智能机器人侵害法益行为担责既需要有预见可能,也需要有对结果的回避可能性。但是,如何界定其预见的范围以及回避的能力则存在较大难度。现存刑事法律规范体系对此并没有明确界定,只能依据一般的道义、伦理、习惯等社会规范,根据具体的实际情况予以合理的界定。 我国对产品质量实行的是严格责任原则,要求产品的制造者具有严格的注意义务标准。这些标准和原则同样适用于人工智能机器人的制造者,而且应对制造者提出更加严格的注意义务。当然,人工智能技术领域属于新兴的高科技领域,对于人工智能领域的风险尚不能完全认识清楚,因此人工智能机器人的生产者最起码应按照国家安全标准生产人工智能产品。另外,如果人工智能机器人因错误启动侵害法益,应进一步考量相关案件法益侵害的严重性和人工智能机器人带来的收益之间的关系。我们如果已经做好准备接受可能伴随着危险的新技术,并且普遍能够接受使用人工智能机器人可能会带来无法预测的损失,即使最终发生侵害,也不一定强行处罚人工智能机器人的制造者。但是,如果因人工智能机器人严重侵害法益的举动危及人的生命,那么这必将是我们难以承受的风险,刑法亦应有所担当。因此,人工智能机器人制造者不可能因为人工智能机器人属于新兴的高科技产品而降低规避危害结果的注意义务,相反,人工智能机器人制造者必须承担更高的安全注意义务和结果回避义务。
(2)人工智能机器人的制造者承担刑事责任的具体分析
上文概括性地厘清了人工智能机器人承担刑事责任的基础。即人工智能机器人的制造者在生产制造阶段是否预见到人工智能机器人侵害法益的危险以及是否履行了结果回避义务。但这并不是人工智能机器人制造者的全部安全注意义务。即使制造者生产的人工智能机器人达到了法律所要求的安全性,也不可能是完美无缺的,依然可能会面临未知的风险。人工智能机器人出厂检测合格却在销售投入使用之后的缺陷则是当时尚未经历过的未知风险,这些风险是在发生一定事故或者危险之后才能发现的。因此,制造者对其生产制造的人工智能机器人发生侵害法益的风险一般是制造阶段未认识到、上市后才发现缺陷,此时应及时采取召回等必要的安全措施。接下来,本文将依据人工智能机器人在生产制造和使用阶段的不同情况进一步探究其相关刑事责任归属问题。
其一,制造者在人工智能机器人制造阶段的刑事责任。人工智能机器人制造技术,属于新兴的高精尖科学技术,对于此类产品不只是运行程序比较专业和复杂,其研发和生产同样具有高度的专业性,生产过程难免会出现难以预见的差错。制造者无法预见人工智能机器人可能发生的所有危险情况,也就不能为所有的危险情况提前做好编程设计。而且,人工智能机器人还有一定的学习能力,因此在生产阶段更难以充分预测人工智能机器人可能侵害法益的全部风险。考虑到这一点,制造者在将人工智能机器人投放市场之前,还要进行充分的测验,并对测验中出现的风险予以合理的解决。如果制造者生产的人工智能机器人符合安全技术标准并经过充分实验才投入市场,即使发生了之前难以预见的危险,也不应以出现了客观危害后果而追究制造者的刑事责任。
但是,考虑到人工智能机器人的潜在危险性和消费者的安全需求会不断增加,就不能以新兴高科技为由将人工智能机器人侵害法益的危险性全部转嫁给使用者。因此,可以通过引入刑法上的产品责任来解决该问题。《产品质量法》第49条规定,生产不符合保障人体健康和人身、财产安全的国家标准、行业标准的产品的,构成犯罪的,依法追究刑事责任。《刑法》也规定了生产伪劣产品罪和生产不符合安全标准的产品罪。单位犯罪的,对单位判处罚金,并对其直接负责的主管人员和其他直接责任人员追究刑事责任。因此,对于制造者在制造人工智能机器人过程中,明知生产的人工智能机器人不符合安全标准而投放市场的,应当依法追究其刑事责任。
其二,制造者在人工智能机器人使用阶段的刑事责任。制造者在开始生产和销售出人工智能机器人后,有责任持续观察使用者的反映和人工智能机器人的实际运行情况,并给予必要的反馈,如果出现了在生产阶段事先未预料到的损害或风险,有义务对人工智能机器人进行必要的召回。制造者不仅在出厂以前要保障人工智能机器人质量符合安全标准,在出厂交付使用以后,也要关注消费者的反应,同时关注人工智能机器人会出现故障,并继续预测出侵害法益的可能性,避免由此带来的后果。此外,如果事后发现人工智能机器人存在缺陷,就应该向使用者发出警告,对缺陷产品,生产者应当全部召回。如果不尽到这种注意义务,就可以作为或不作为的过失行为而追究刑事责任。
2.人工智能机器人所有者的刑事责任
除了人工智能机器人的制造者以外,还可以追究人工智能机器人所有者的监督过失责任。在监督过失中,最终的危害结果并非监督者直接造成的,而是被监督者的行为或者第三人的行为造成的。人工智能机器人的所有者是否承担过失责任。主要在于能否认定所有者对人工智能机器人是否具有保证人的地位,以及是否具有监管的保证义务。如果人工智能机器人的所有者有防止人工智能侵害法益行为的可能性,就可以承认所有者的保证人地位。
人工智能机器人在制造者生产完毕以后,经过流通环节,将人工智能机器人的所有权转移给所有者。此时,对人工智能机器人的监管义务随着所有權的转移由制造者转移给了所有者,所有者被赋予保证人的地位,所有者在发生操作错误时,应当在可以预见的范围内采取合理措施制止机器人侵害法益的行为。如果所有者存在监督过失,在合理预见的范围内未能尽到管理和监督的保证义务应承担相应的责任。比如,人工智能机器人管家在接到客人来访的信号以后,误将客人认为是非法闯入者,错误地攻击客人。此时,如果人工智能机器人管家的所有者已经发现并且能够制止,但是未能采取有力的措施阻止人工智能机器人继续伤人,则应承担相应的过失责任。
四、结论
我们正经历的第四次科技革命的引领者是拥有人类智能所具有的学习、推理、论证等能力的人工智能机器人,人工智能机器人侵害法益的案件可能导致无法预测的损害结果。以规范人类行为为中心形成的传统刑事司法体系和责任主义应该如何面对是无法回避的问题。人工智能机器人属于人类创造的物,其存在的价值在于为人类提供服务,仅仅具有工具属性,对人工智能机器人施加刑罚措施也没有现实意义。目前,赋予人工智能机器人刑事主体地位,缺乏科学依据做支撑,也与其他法律规范难以协调一致,且具有伦理障碍。因此,在现阶段承认人工智能机器人具有独立的刑事责任能力,赋予其刑事主体地位尚不具有现实可能性。将通用智能机器人作为与自然人并列的刑事责任主体存在较大难度,刑法对此应坚持谨慎、克制的态度。
鉴于现阶段承认人工智能机器人的刑事主体定位尚不具有现实可能性。人工智能机器人侵害法益案件可以根据实际情况归责于人工智能机器人的制造者和所有者,或者非法侵入者。刑事责任主体的主观过错主要是故意和过失两类:如果人工智能机器人的制造者和所有者以及非法侵入者利用人工智能机器人作为工具从事犯罪活动,应当承担相应的故意犯罪刑事责任。如果人工智能机器人的制造者未尽到安全注意义务或者结果回避义务,则应承担相应的过失犯罪刑事责任;如果人工智能机器人的所有者未尽到管理义务,则应当承担监督过失责任。
数字化革命不应由立法者的臆想孤注一掷地应对,而应伴随着谨慎、适度的法律演进一同发展。现在讨论人工智能机器人的刑事责任还为时过早,刑法学应立足于科学发展进程,与其他前置性的法律规范及社会伦理等保持协调一致。在社会发展过程中出现新问题、新情况时,我们应克服刑事立法冲动,将目光穿梭于新情况与“旧”规范之间,善于从既有的刑事法律规范体系中寻求解决方案。
转载注明来源:https://www.xzbu.com/9/view-15143907.htm