四川大学法学院教授、博士生导师
人工智能犯罪在天生机理和内在逻辑上只能是人工智能“算法安全犯罪”。基于人工智能犯罪中人工智能算法安全的相对自主性与绝对客体性的犯罪机理,人工智能犯罪仅能归责于作为担保人的“自然人-法人”任务论。人工智能犯罪中“民气人性”的刑法知识不雅观,应该确认人工智能犯罪的可归责主体,只能是作为算法安全社会关系主体的“自然人-法人”二元主体。为妥当办理人工智能犯罪的归责事理和实践问题,应该在坚守人工智能犯罪“自然人-法人”二元主体模式的根本上修正完善刑法立法。
一、弁言:问题真伪与基本态度
人工智能犯罪的可归责主体问题,当被作为一个“问题”来谈论时,该问题意识的内在逻辑在于:认清当下,思考将来。所谓认清当下,是指认清当下弱人工智能犯罪“原形”,在那些通过弱人工智能(即弱人工智能机器人,又称专用人工智能机器人)所履行的犯罪中,弱人工智能(机器人)被作为“犯罪工具”予以评价和处置,可谓“犯罪工具论”;在那些针对弱人工智能所履行的犯罪中,弱人工智能则被作为“犯罪工具”予以评价和对待,可谓“犯罪工具论”。可以说,对付当下弱人工智能犯罪,刑法学界秉持弱人工智能“犯罪工具论”和“犯罪工具论”态度,认为人工智能犯罪的可归责主体只能是“人”(包括自然人和法人)而不能是弱人工智能(机器人)本身,这是没有争议的,或者说这里不存在争议问题、不是问题意识之所在。所谓思考将来,是指思考将来可能涌现的(超)强人工智能(即强人工智能机器人与超强人工智能机器人,又称通用人工智能机器人与超级人工智能机器人)犯罪“原形”,可否超越弱人工智能“犯罪工具论”和“犯罪工具论”,从而使得(超)强人工智能机器人成为犯罪主体(犯罪主体论)和可归责主体(可归责主体论)?这是有争议的,或者说这里才存在争议问题,也才是问题意识之所在。对此问题,理论界存在较大不合:一是主见(超)强人工智能机器人“犯罪主体论”和“可归责主体论”,可谓肯定论。如,有论者笼统地承认(超)强人工智能机器人的犯罪主体性;有的则详细指出,当(超)强人工智能机器人在程序设计和体例范围外履行严重危害社会的行为时,(超)强人工智能机器人具有辨认能力和掌握能力,因而具有刑事任务能力,应该独立承担刑事任务;还有的明确指出,“可以参考法人主体的拟制思路,逐步探索构建人工智能刑本家儿体资格的法律拟制模式,基于人工智能的发展逐步构建和完善人工智能主体的意思要素、行为要素,使之正式进入刑法主体范围”。二是否定(超)强人工智能机器人“犯罪主体论”和“可归责主体论”,可谓否定论。如,有的主见绝对地否定人工智能机器人的犯罪主体地位,认为人工智能体只可能引起过失落犯罪问题,并以改动的过失落犯理论为依据将自主性人工智能引起后果的任务打消在“可容许的危险”范围之外,并以此在设计者、贩卖者、利用者之间分配过失落犯罪的任务有的则认为技能水平、代价不雅观念、详细认定等方面尚存在较大困难,不可贸然将(超)强人工智能机器人纳入刑法规制的行为主体范围。综上可见,人工智能犯罪的可归责主体的问题意识应该进一步限定并详细细化为:(超)强人工智能犯罪的犯罪主体与可归责主体是否可以是(超)强人工智能?
值得把稳的是,法学界有一种声音认为:当前谈论(超)强人工智能犯罪——作为一种是否可能真实发生而尚未可知的“将来”犯罪——及其可归责主体是否可以是(超)强智能机器人的问题,纯属无稽之谈的“伪问题”(即“伪问题论”),实无谈论之必要。前述部分否定论者持有这种见地。刘艳红教授批评说:那种认为“一定会涌现具有自我意志的(超)强人工智能,人工智能可能会取代人类、机器算法会取代人类法律……因而主见法律乃至刑法积极应对和规制人工智能的发展”的不雅观点,实在“只是依赖无数假想拼凑起来的幻影”,法学界部分学者在不断制造、跟风、放大“假问题”。应该说,“伪问题论”通过质疑将来而回避问题本身的论说思路可能并不可取,看不到或者忽略“将来”的思考也无益于问题的有效办理,因而“伪问题论”自身的问题意识也存在合理性疑问。事实上,同刑法学界所谈论的(超)强人工智能机器人犯罪“高频率问题”,即(超)强人工智能机器人犯罪的归责主体是否可以是(超)强人工智能机器人这一设问相呼应,民法学界乃至国际私法学界也较多地谈论了智能机器人的民本家儿体地位(资格)问题,例如针对2017年2月16日欧洲议会通过的《关于机器公民事法律规则的决议》建议至少应明确最精密的自主机器人拥有“电子人”地位,使之能够承担其引发的危害的任务,并可能把“电子人格”适用于那些机器人自主决定或其他独立与第三方交互的案件;再如,针对同年7月8日我国国务院发布的《新一代人工智能发展方案》,提出“建立(人工智能运用)追溯和问责制度,明确人工智能法律主体以及干系权利、责任和任务等”,民法学者就提出应授予人工智能系统“电子人”法律主体地位,或者确认其有限的法律人格,彷佛认为未来授予(超)强人工智能系统民事法律主体地位已是大势所趋。宪法学、行政法学和法理学界也谈论了智能机器人的法律主体地位和法哲学问题,乃至认为“人工智能的诸多法理问题中,最为关键的是它的法律主体资格问题”,有的法理学者较为绝对地强调“应该授予人工智能独立的法律主体地位并使其成为独立的任务主体”。如此浩瀚法学论题的提出业已表明,(超)强人工智能犯罪的可归责主体问题很可能便是一个真问题,并且是一个具有主要学术代价、必须予以厘清的重大根本理论问题,甚至有学者认为“人工智能的主体难题是其刑法命题的根本所在”。可见,只管表面上看伪问题论同否定论一样,二者在基本态度上都是否定(超)强人工智能“犯罪主体论”和“可归责主体论”,但是二者在论说路径上存在差异,否定论是在否定伪问题论(即承认“真问题”论)根本上进一步反对肯定论的理论言说,因此应该承认,在肯定论、否定论的态度之外还有伪问题论。当然还应该承认,针对真问题论的否定论,不能只是就事论事地大略作答,还必须进一步深化问题意识,深入研讨智能机器人犯罪内在机理和干系法理,科学合理地办理干系法律实践问题。
本文主见否定论,认为人工智能犯罪包括弱人工智能犯罪、强人工智能犯罪乃至超强人工智能犯罪在内,在天生机理和内在逻辑上只能是人工智能“算法安全犯罪”(即“算法安全犯罪不雅观”),其犯罪主体和可归责主体只能是作为算法社会关系主体的“自然人-法人”二元主体(即“自然人-法人二元主体论”或者简称“二元主体论”),在此根本上秉持科学合理的刑法不雅观和方法论,才可能妥当办理人工智能犯罪的归责事理。
二、犯罪机理:人工智能犯罪中人工智能算法安全的相对自主性与绝对客体性
人工智能犯罪观点,理论上有较为宽泛的多样化的界定。有学者认为,人工智能犯罪(AI-Crime)指与人工智能系统研发、供应、运用和管理干系的犯罪;人工智能犯罪与网络犯罪具有相似性和紧密联系,其特点紧张有智能性、直接浸染于网络社会和物态社会“两个社会”的双重性;根据人工智能犯罪紧张陵犯的法益及其行为特色,可以将其分为陵犯人工智能系统安全的犯罪、利用人工智能履行的传统犯罪、利用人工智能陵犯个人信息的犯罪和独立的外围人工智能犯罪、违反人工智能安全管理责任的犯罪。有的学者没有观点化地界定智能机器人犯罪,而是详细描述了智能机器人犯罪的类型。如王肃之指出:“人工智能犯罪可能涉及以下2种类型:第1种类型为人工智能本就运用于社会之中,由于人工智能涌现问题或者其他缘故原由产生危害社会的后果……第2种类型为人工智能被直接用于犯罪。”再如刘宪权指出,智能机器人履行严重危害社会的行为可分为两种,即在程序设计和体例范围内履行的行为和在程序设计和体例范围外履行的行为。可见,对人工智能犯罪的观点界定,有犯罪学与规范刑法学的不同视角及回答。从规范刑法学视角看,目前理论界对付智能机器人犯罪的天生机理与内在逻辑的揭示尚存不敷,部分研究成果从犯罪学视角谈论智能机器人犯罪的征象、规律与未来发展,并没有为规范刑法学合理有效地规制智能机器人犯罪供应足够的理论智识资源,急迫须要确立服从并做事于规范刑法学和刑事法治论的研究目标,转换研究视角,深刻揭示智能机器人犯罪的根本特质。
应该说,目前理论界给出的人工智能犯罪观点,共性地存在的突出毛病在于:或者未能精准地揭示出人工智能犯罪的根本特质是基于人工智能算法所履行的犯罪,或者没能更进一步看清人工智能算法的相对自主性与绝对客体性。这在一定意义上是一个犯罪不雅观问题。犯罪不雅观是关于犯罪实质、代价、功能及其发展规律等犯罪基本问题的根本意见和基本态度,可以说是人生不雅观和天下不雅观在犯罪问题上的反响。马克思主义经典作家认为,犯罪只能是人的行为而不能是人的思想,是“伶仃的个人反对统治关系的斗争”,是“唾弃社会秩序的最明显、最极度的表现”。那么,基于马克思主义犯罪不雅观应该认为,人工智能犯罪仍旧是人的行为,是人基于人工智能算法所履行的危害社会的行为,“人”是犯罪主体,而人工智能(机器人)并不能成为犯罪主体。这一结论不仅符合马克思主义犯罪不雅观,而且也是精准揭示和阐释人工智能犯罪内在机理的结果。
人工智能算法自主性是智能机器人的实质属性和关键功能,算法自主性越强大,则智能性越强大,以此为标准对智能机器人进行分类,智能机器人方有弱智能机器人与(超)强智能机器人之分。对此,有论者浮夸强调人工智能算法的法律意义问题,认为“人工智能运用会创造出新的客体和新的社会活动,如人工智能创造物的权利主体和权利归属问题,以及人工智能法律系统运作的法律代价和合法性问题。以上新客体、新社会活动都由人工智能算法的利用产生,算法实际起着创造者的‘智能’或者社会活动的规则浸染,有必要开启人工智能的‘黑箱子’——人工智能算法,剖析人工智能运用的‘大脑’和‘掌握手’,研究人工智能算法的逻辑过程是否符合法律和伦理”。还有学者指出,关于人工智能的算法自主性,伦理学意义上的担忧在于:一是大数据和高等算法可能会使所有人损失未来的自由选择权,“更为胆怯的是,当基于算法的信用数据集可以预测某人未来犯罪的可能性时,公安部门可能会以‘预防犯罪’为名提前干预他的自由权利”;二是大数据和高等算法可能会带来数据歧视问题,“当法律大数据推测黑人的犯罪率较高或阿拉伯人成为胆怯分子的可能性较高,那么监管部门可能会对他们重点监管,乃至提前预防犯罪,而有些公司也可能会据此谢绝雇佣他们,这便是范例的种族歧视和职业歧视”。这些论述较为深刻地揭示出人工智能算法的主要性和法律干系性,值得重视,更值得反思。人工智能算法到底是该当绝对地归属于人工智能本身,还是应归属于作为人工智能算法的设计者、创造者、利用者与管理者的“人”?对此设问,我们认为精确的答案应该是:“人”才是人工智能算法的真正主人,人工智能算法自主性仅具有相对性并且在根本上是由“人”创设和掌握的,因而人工智能算法相对付“人”而言具有相对自主性与绝对客体性。
例如,有学者提出人工智能武器的观点,指出,能够在没有人类参与的情形下选择和攻击目标的武器或者武器系统都可以称为人工智能武器。“从国际人性法的角度来看,人工智能武器紧张带来了两个方面的寻衅:一是武器系统选择和攻击目标能否尊重国际人性法规则?二是如果武器系统的利用明显违反国际人性法,能否归责于个人或国家,并深究他们的任务?”依笔者的解读,关于人工智能武器的法律问题至少包括以下两方面:其一,人工智能武器可以归属于人工智能吗?答案应该是可以肯定的,人工智能在其被用于军事目的时,它是人工智能“军人”,又可以称为人工智能“武器”,实在质在于具有能够在没有人类参与情形下的人工智能算法自主性。以此类推,人工智能机器人还可以包括人工智能“工人”“农人”“年夜夫”“驾驶员”“科学家”“清洁工”等等,阿尔法狗和索菲亚当然也都是人工智能机器人。因此,人工智能机器人之“人”仅仅是一种“拟人化修文意义上的人”,它可以是“人”、动物乃至其他万物(如武器)的人工智能机器。其二,人工智能武器基于算法自主性所履行的军事攻击行为及其后果,是归属于人工智能本身还是归属于“人”(包括作为法人的单位乃至国家)?答案应是只能归属于“人”。人工智能算法自主性是由“人”预设和主宰的结果,因而只具有相对的算法自主性与绝对的客体性,基于人工智能算法自主性所履行的全部行为后果——无论是有利于社会还是有害于社会,均应由作为其主宰者的“人”享有和承担。如果人工智能武器基于算法自主性而攻击缺点或者违反国际法,对此承担后果的社会关系主体只能是“人”,而不可能是人工智能武器。
综上,算法犯罪不雅观认为:相对付人的主体性而言,人工智能算法突出地具有客体性(算法的客体性),因而以人工智能算法自主性为内核的人工智能当然具有客体性,算法犯罪仍旧以人的主体性为根本特色。如果说“算法”是智能机器人的内核,那么“算法”本身的弱智能性与强智能性乃至超强智能性,其决定成分在根本上仍旧是“人”的弱智能到超强智能,而不是人工智能本身的弱智能到超强智能。“人”的智能强弱在根本上具有决定性,意味着这样一种逻辑:“人”的智能设计越弱,则算法的智能自主性越弱;人的智能设计越强大,则算法的智能自主性越强大,超强人工智能在实质上仍旧是“人”的智能设计达到了超强智能性。因此可以说,人工智能发展仅具有单向维度,即:只能是由本日的弱智能自主性“算法”走向将来的强大乃至超强大智能自主性“算法”(可谓“将来算法”)。以超级打算机的出身为例,它实际上便是从普通打算机(弱智能自主性)走向超级打算机(超强智能自主性),其内核便是算法智能自主性及其发展方向。“算法智能自主性”的刑法逻辑始终是:人对“算法智能自主性”犯罪承担刑法任务,人对“算法智能自主性”的定罪逻辑始终是“人力可控时可定罪,人力不可控时不定罪”,人工智能犯罪在当下尚处于弱人工智能“算法”阶段的定罪逻辑如此,在今后发展成为(超)强人工智能“算法”阶段的定罪逻辑仍旧如此,根本无律例外地对(超)强人工智能机器人本身定罪。
须要指出的是,人工智能犯罪在网络时期可能表现出更加巨大的毁坏能量,由于人工智能算法自主性可以通过网络工具和数据运用得到更大发挥空间,值得特殊当心。
三、任务论:人工智能犯罪仅能归责于作为担保人的“自然人-法人”
传统刑法理论上“担保人”理论(即“担保人说”)详细包括“担保人地位”与“担保人责任”两个观点,本来是用于阐释不作为犯之作为责任的理论。德国学者那格拉在1938岁首年月次提出了担保人说,认为只有负有防止结果发生的法律上的作为责任的人,即处于担保人地位的人的不作为才符合构成要件;后来又发展成“统一说”(或者“统和说”)与“差异说”两种不同见地,但是“两说在实际利用上并不会涌现太大的差异”。而人工智能犯罪并不限于不作为犯,还包括作为犯。人工智能犯罪在不作为犯的环境下,当然可以利用担保人说来进行理论阐释。那么,人工智能犯罪在作为犯的环境下,是否可以借助担保人说来进行理论阐释呢?本文认为,对付人工智能犯罪的作为犯,仍旧可以借助担保人说的“担保人地位”与“担保人责任”理论,授予作为人工智能设计者、制造者、利用者和管理者的“自然人-法人”的安全担保任务,即作为担保人的“自然人-法人”必须对人工智能及其内含的算法的安全性卖力,将人工智能基于算法安全性所为的行为及其结果归属于作为担保人的“自然人-法人”。亦即,人工智能在设计和体例的程序范围内外所为人工智能犯罪的任务归于作为担保人的“自然人-法人”,这种担保人论归责论不能局限于不作为犯构成要件符合性与违法性论的理论界说,而必须作出符合传统刑法教义学归责论的理论改造。以“自然人-法人”的任务归属为核心的刑法教义学事理,无法将(超)强人工智能犯罪的任务归属于(超)强人工智能机器人,由于这样将遮蔽作为设计者、生产者、发卖者、运营管理者的“自然人-法人”的任务归属这一实质。有学者指出,应该借鉴刑事近代学派所主见的社会防卫论,创立以人工智能等科技风险为工具的“科技社会防卫论”与“技能任务论”,将人工智能作为独立的刑事任务主体,对具有履行危害社会行为的人工智能施以技能危险肃清方法。这种见地将“技能任务论”直接置换为“将技能作为任务主体论”,直接遮蔽了作为担保人的“自然人-法人”的任务归属这一实质,应该说有所欠当。
任务论的多重稽核可以创造,在从道义任务论到社会任务论再到法的规范任务论的发展演化中,即便是作为最新见地的法的规范任务论也始终无法彻底摆脱道义任务论,即必须具有自我决定的自由以及具有履行其他行为的可能性时才产生任务的非难的宿命;从结果任务论到生理任务论到规范任务论再到功能任务论的发展进程中,不但规范任务论仍旧因此生理任务论为条件建立起来的理论,而且功能任务论也仍旧因此行为人对法规范的“忠实”和“意思自由”为条件的。可以说,意思自由性、伦理训斥性、规范求全谴责性等要素仍旧是当代各种任务论的本色内涵,而这些本色内涵只能是作为担保人的“自然人-法人”才可能具备,并不能将人工智能算法的相对自主性与绝对客体性直接等同于意思自由性、伦理训斥性和规范求全谴责性。
伦理训斥性和规范求全谴责性是当代刑法任务论的主要内容。伦理训斥性是犯罪的内在伦理评价属性。规范刑法学方面有论者主见否定犯罪的伦理训斥性,客不雅观上存在严重误解。针对卖淫、通奸、吸毒以及其他“无被害人犯罪”行为,当代刑法基于刑事政策考量而部分地乃至较多地涌现非犯罪化,其并非完备否定犯罪的伦理训斥性,而是强调不得纯挚基于伦理训斥性进行犯罪化,还须要进行社会危害性的综合考量来决定详细行为的犯罪化与非犯罪化。针对行政犯(或者法定犯),当代刑法也难以完备否定犯罪的伦理训斥性,任何行政犯——例如危险驾驶罪、造孽经营罪、毁坏打算机信息系统罪等,都难说完备否定了其伦理训斥性,而是强调了不得纯挚基于伦理训斥性的犯罪化。只有“自然人-法人”才能感想熏染伦理训斥性并遵行此种感想熏染决定行为取舍,而人工智能仅具有“算法”逻辑并决定其行为逻辑,但是不具有感想熏染伦理训斥性的能力并决定行为逻辑,人工智能“算法”自主性及其行为逻辑只有在融入了作为担保人的“自然人-法人”的担保意思之后才具有伦理训斥性,因而只能针对同人工智能“算法”自主性干系联的担保人(即“自然人-法人”)进行伦理训斥性评价和犯罪评价,人工智能犯罪只能归责于作为担保人的“自然人-法人”。规范求全谴责性是犯罪的外在规范评价属性。规范刑法学的教义化、科学化和当代化的主要发展,根本标志便是规范任务论的确立,强调刑法的明确规定性、规范性和可操作性,由于此内容并非本文论题的重点,这里不作详细展开论述。
(超)强人工智能机器人没有分开于“自然人-法人”之外的独立存在空间,(超)强人工智能机器人一旦分开作为担保人的“自然人-法人”之外就无法组成社会组织,其聪慧算法和行为永久无法归属于其自身而只能归属于“自然人-法人”,纵然其具故意识复制和学习进步的特异功能,其仍旧无法分开作为担保人的“自然人-法人”的意识——担保人所预设的算法自主性的意识而独立存在,其仍旧无法成为具有“民气人性”的任务主体。只有将强智能机器人犯罪归责于作为担保人的“自然人-法人”,才能真正实现有效归责(即伦理训斥和规范求全谴责)。
民法学者对付人工智能基于算法所引致的法律上的权利和任务之谈论,也有值得刑法任务论借鉴之处。如基于人工智能所引致的著作权的法律主体与权利归属问题,有学者提出了“法律作者”观点,指出,“小冰”人工智能机器人的涌现,寻衅了传统著作权法的底线。面对高速发展的人工智能技能,现在社会人工诗集大量涌现,更多的人事情品呈现,我们积极采取“法律拟制”技能,参照发达国家“视为作者”原则,在认定人工智能诗集的作者和著作权归属上,大胆认定人工智能诗集是著作权法的“作品”,人工智能的管理者是作品的“法律作者”,把机器人、设计者、管理者作为人工智能诗集的“事实作者”对待,终极法律保护人工智能诗集的“法律作者”,由“法律作者”享有人工智能诗集的著作权,而不是由机器人享有人工智能诗集的著作权。人工智能诗集作为人工智能机器人的详细行为所产生的结果,其权利与任务归属于作为担保人的管理者(即“自然人-法人”),而不能归属于人工智能机器人,这一事理值得刑法上犯罪的归责论借鉴。当然在刑法上,除了管理者之外,人工智能的设计者、制造者的归责问题还须要进一步厘清。例如,当人工智能诗集的内容存在严重违背国家法律规定并被公之于众产生严重社会危害后果时,如果构成犯罪,那么该当如何确定其归责主体及其刑事任务?对此,应该首先确定作为人工智能的担保人的“自然人-法人”,包括设计者、制造者、利用者、管理者,然后再依据刑法上归责事理详细确定担保人的刑事任务,而不应当通过对人工智能机器人归责的办法来规避担保人的刑事任务。
刘宪权提出,在设计和体例的程序范围外人工智能犯罪的归责主体问题,认为:“当智能机器人在程序设计和体例范围外履行严重危害社会的行为时,智能机器人具有辨认能力和掌握能力,因而具有刑事任务能力,应该独立承担刑事任务。”这种见地的逻辑问题值得剖析。其一,这个问题仍旧应该在人工智能算法自主性的相对性与绝对客体性之内来认识;其二,在设计和体例的程序范围外人工智能犯罪的归责事由,还可以根据缘故原由自由行为论,将作为担保人的“自然人-法人”基于自由意思所为“在设计和体例的程序范围外履行行为的智能机器人”这一行为阐释为缘故原由自由行为的归责事理来阐释,作为担保人的“自然人-法人”所履行的人工智能算法的设计、制造、利用和管理行为仍旧可以作为缘故原由自由行为进行归责,而不是对人工智能算法本身归责。
因此,针对学者提出的人工智能体例程序外的算法犯罪,只管这种人工智能犯罪类型可能涉及十分繁芜的技能难题,但是仍旧应该承认其没有超越担保人任务,只要其应该属于算法安全风险可控性之内,就应该承认其成立担保人任务,并实施举证任务颠倒原则(程序法原则)。如果其不属于算法安全风险可控性之内,则应该承认其为意外事宜而不深究担保人任务,并且这种意外事宜也难以“客不雅观归责”于人工智能算法本身。
四、刑罚不雅观:人工智能犯罪仅能通过“自然人-法人”完成报应和预防功能
刑罚论的根本和核心是刑罚正义根据论,简称刑罚根据论、刑罚论。刑罚根据论在观点逻辑上存在报应论(报应刑论)、功利论(预防刑论与目的刑论)、并合论(一体论)之分,并且应该把稳的是,在人类刑法实践历史上应该说并不存在纯挚的报应论或者纯挚的功利论,自古至现代界各国普遍遵行相称意义上的并合论,“抛弃片面的报应论与功利论而追求系统的一体论,该当是关于刑罚根据论的一种一定而合理的选择”。刑罚的正当化根据是报应的正当性与预防犯罪目的(功利主义)的合理性,基于报应所裁量的刑罚是任务刑,基于预防犯罪目的(功利主义)所裁量的刑罚是预防刑。应该说,刑罚根据论的并合论命题一经创造和明确提出即得到了广泛共识,并且表面上至今没有人提出更具创新性的理论洞见。以此刑罚不雅观及其内在法理审查(超)强人工智能犯罪的受罚主体,如果将(超)强人工智能机器人本身作为可归责主体并对其进行刑罚惩罚,就无法得到合理性和可行性。
目前部分学者针对(超)强人工智能犯罪所提出的“删除数据、修处死式、永久销毁”等刑罚种类,应该说难以匹配刑罚实质并实现刑罚功能。由于这些特殊“刑罚种类”只有作为担保人的“自然人-法人”才能感想熏染到并起到以儆效尤的刑罚惩罚(报应)与预防功能,而(超)强人工智能机器人并不可能关心“惩罚与预防”而只在乎“算法”并且将始终不改地按照其既定“算法”行事(行动),“算法”被修正而改变行为的缘故原由不是由于惩罚影响“民气人性”所致,而是由于“算法”所为,由此无法实现刑罚的一样平常预防和分外预防功能。单罚制与双罚制均无法适用于智能机器人。
因此,刑法无法规制作为被“自然人-法人”塑造的智能机器人。可以让(超)强人工智能机器人(有智无心)超越人,但是(超)强人工智能机器人不可以成为社会关系人。(超)强人工智能机器人可以在智力领域超越人,正由于如此,它不能成为真实存在的社会关系人。当(超)强人工智能机器人可以由“人”随意塑造时,应受惩罚的只能是作为塑造者的“人”,而不能是作为被塑造者的(超)强人工智能机器人;当(超)强人工智能机器人已经发展到唯我独尊,而不再可以由“人”随意塑造时,人类的刑罚就在根本上损失了哀求其应受惩罚的合理性。
五、刑法知识不雅观:人工智能犯罪中“民气人性”的人类社会学意义
作为刑法学方法论的“三常论”,哀求研究者必须针对研究工具、研究方法、研究结论等进行“三常论”判断(即进行知识、常情、常理的判断),打消有违“三常论”判断的学术见地。“三常论”判断可能具有时空性,当下的三常论判断,必须立足于“当下”的知识、常情、常理进行学术判断;将来的三常论判断,则必须立足于“将来”的知识、常情、常理进行学术判断,也便是说既要反对以当下的三常论判断代替将来的三常论判断,也要反对以将来的三常论判断代替当下的三常论判断。当下,不少人认为“将来已来”,那么,在“将来已来”的语境下,当下刑法学应该如何预判“将来”的三常论内核?通过“将来”的三常论判断,刑法学还应该摒弃(超)强人工智能机器人“犯罪主体论”吗?这是本文希望回答和论证的两个关联性问题。
(超)强智能机器人可否成为社会关系的主体(身份)?当下的和将来的“三常论”判断须要稽核以下要素:
心智齐备是人成为社会关系主体的核心要素。
“三常”本来便是对人的心智的高度概括,即对民气人性和人的聪慧的高度概括,人是具有“三常”特质的灵长类动物。人类社会是由人(自然人)自我发展、自我构建、自主培植而成的,而人之以是能够自我发展、自我构建、自主培植成立人类社会,是由于人是有心智的“万物之灵”,从而人可以成为社会关系主体。心智齐备是人成为社会关系主体的核心要素,这是当下的“三常论”判断。心智齐备强调的内容,不仅是有“智”(聪慧),而且是有“心”(民气人性),有心有智(或者有智有心)是人的特质,是社会关系主体的特质。人具有本色的“三常”特质,法人(含国家)具有拟制的本色的“三常”特质,因此可以说自然人和法人具有本色的“三常”特质。为什么说法人具有拟制的本色的“三常”特质?大略说,是由于法人是具有自然民气智的组合体,“资合”仅是法人的表象,“人合”才是法人的本色,以是有人感叹应该像选择结婚工具一样选择股东和合资人;法人决策时纵然在涌现“人不合”和公司僵局的环境下,其决策仍旧能够应时表示出本色的“三常”特质。
那么,(超)强智能机器人是否具有心智,进而成为社会关系主体?依“三常论”判断,(超)强智能机器人难以符合“心智齐备”的特质,其可能具有“智”乃至是超强聪慧,但是其难以得到“心”(即民气人性),因而(超)强智能机器人仅仅是“有智无心”之物,并不具备社会关系主体特质,难以成为社会关系主体(身份)。
可以说,心智是当下“三常论”对社会关系主体特质判断的核心要素,将来“三常论”判断也是如此,心智是社会关系主体所必须具备的基本特色。
(超)强智能机器人不具备人“心”,仅具有财产性和工具性,缺少善恶道德代价不雅观、社会行为规范的根本浸染点。
人“心”是善恶道德代价不雅观、社会行为规范的根本浸染点。“有心”(有民气有人性)意味着有善恶道德代价不雅观、社会伦理代价不雅观、有社会行为规范可能性,有智无心(无民气无人性)不能成为社会关系主体。这是“三常论”判断的理论根本。有学者指出:人之所以为人,实质上是智性、心性、灵性三者合成,心性是感情、感情、觉得的发源地,不同于智性;机器人虽可仿及人的智性,但不能仿及人类心性(尚未闻人工智能有感情,未闻有机器人为情所累),人工智能不可能达到人类一样平常的“主体性”。由于智能机器人“有智无心”的特点,因此(超)强智能机器人也可以称谓为“强智能机器狗”“阿尔法狗”。难道,索菲亚能够超越“强智能机器狗”“阿尔法狗”而成为真正的人?
财产性与工具性是(超)强智能机器人和法人的共性,但是法人由于具有拟制的“民气人性”而可以得到拟制的主体性,而机器人因不具有“民气人性”而无法得到任何拟制的主体性。即机器人与法人的相互关系是单向性的,即法人可以像人一样拥有其他法人和机器人,而机器人不能拥有法人和(其他)机器人。机器人的特质仅仅是“技能”而不是人的心智(有智无心),法人可以融入人的某种心智(有智有心),从而法人可以成为社会关系主体。
有智有心者方为同类,“民气人性”是人类的基本要素,动物由于具备初步的或者较强的“民气人性”而成为人类伙伴,有利用有珍惜,某些“通人性”的动物还得到了较大尊荣(如某些动物被授予“人”一样的报酬);但是索菲亚和阿尔法狗却无法得到“民气人性”而只能成为更加纯粹的财产性,难以得到人的同类身份和报酬。
机器人无法融入“三常”的刑法感知能力。
“三常”是刑法感知能力的基本要素,法人可以融入“三常”,法人具有感知刑罚的能力并且使得刑罚功能可以发挥报应和预防功能,因而法人可以成为犯罪主体和受罚主体。而机器人无法融入“三常”(有智无心),机器人无法感知刑罚并发挥报应和预防功能;当前智能机器人不能成为犯罪主体,这是“三常论”判断,至于将来,可能有待于“将来的三常论判断”,但是当前的乃至将来的三常论判断是其未来仍旧不可能成为犯罪主体。
综上可以说,以索菲亚(美女)和阿尔法(狗)的共性剖析为例,可以预知将来(超)强人工智能机器人身份的三常论判断结论是:其只能成为“民气人性”的客体,而不可能成为“民气人性”的主体。
六、刑法进化不雅观:人工智能犯罪中“自然人-法人”二元主体模式的坚守与完善
刑法进化不雅观强调刑法有一个进化发展的过程,而不能去世守过去。例如,法人犯罪的立法化和法律实践,只管其在理论上尚存争议,但是在相称意义上仍旧可以说其是刑法进化不雅观的一个例证。如前所述,法人(含国家)具有拟制的、本色的“三常”特质而可以成为可归责主体,有学者就以法人犯罪中“法人”犯罪主体论和可归责主体论为例,来论证人工智能犯罪中(超)强人工智能机器人犯罪主体论和可归责主体论的合理性。那么,这种论证逻辑及其结论的合理性值得反思。
法人拟制犯罪的刑事政策事理不能适用于人工智能犯罪,在形式上和本色上(超)强人工智能犯罪均毫无例外地属于“自然人-法人”犯罪的范畴。仅在(超)强智能机器人(个体与群体)作为“法人”资格时其可以成为法人拟制犯罪,但是这时其是由于作为“法人”而成为犯罪主体,而不是由于“(超)强智能机器人”而成为犯罪主体。“自然人-法人”的行为社会意义可以独立地成为自身的法律行为,但是(超)强智能机器人的行为社会意义无法独立地成为“其自身”的法律行为,而只能成为作为居于担保人地位的“自然人-法人”的法律行为。(超)强智能机器人永久只能成为社会意义上的“无产阶级”,但是“自然人-法人”从一开始便是社会意义上的“有产阶级”(指自身的权利责任),这是(超)强智能机器人不同于“自然人-法人”的根本特质。二元主体模式无法走向三元主体模式。
(超)强人工智能机器人犯罪可能包括杀人、侵财、危害国家安全与公共安全、毁坏经济秩序与社会秩序等,但是其自身难以得到社会政治意义,这一点不同于“自然人-法人”犯罪,由于“自然人-法人”犯罪可以得到社会政治意义。上帝不会成为刑罚工具,但法人可以,故“上帝-人”二元主体模式不可隐喻;但基于犯罪主体拟制论之下的心智可控论、独立权利责任主体资格论和刑法管理策略论,可构建“自然人-法人”二元主体模式,但是无法构建“自然人-法人-人工智能机器人”三元主体模式。为办理法人和人工智能机器人难题,刑法上可以惩罚法人,但是刑法策略上无法惩罚机器人,由于针对(超)强人工智能机器人的删、改、毁,仅可以成为针对作为(超)强人工智能机器人之担保人的“自然人-法人”的财产而施加的相应的行政法方法(详细行政行为)、民法方法(民事法律行为)乃至保安处罚方法。因此,关键法理在于(超)强人工智能机器人无法得到与“自然人-法人”一样的“民气人性”,从而无法得到权利责任主体资格,本日无法得到,将来也无法得到,其根本法理正在于(超)强人工智能机器人永久无法得到“民气人性”。
刑法进化不雅观只管不能证成(超)强人工智能机器人的可归责主体论,但是也不能以此放弃针对(超)强人工智能机器人犯罪提出的新问题进行刑法完善的思考。人工智能机器人犯罪在实质上可以抽象为“算法安全犯罪”,即人工智能机器人毫无例外地被限定为通过算法或者针对算法所履行的危害公共安全犯罪以及妨害作为算法安全管理的社会管理秩序犯罪,这些犯罪明显地具有不同于网络数据犯罪以及其他通过非智能算法和数据所履行的传统犯罪的突出特点。据此,人工智能算法犯罪可以类型化为三种犯罪:
一是设计、制造、发卖、利用不符合算法安全标准的人工智能产品罪,其侵害的法益是作为公共安全的人工智能算法安全,可以比照《刑法》第146条的立法规定设置罪状和法定刑。提出这一立法建议方案的情由在于:只管《刑法》第146条规定的生产、发卖不符合安全标准的产品罪作为一样平常法条规定,在逻辑上可以席卷所有生产、发卖不符合安全标准的产品——个中可以包括不符合算法安全标准的人工智能产品——的犯罪行为,表面上可以将生产、发卖不符合安全标准的人工智能产品行为予以定罪惩罚,但是,《刑法》第146条并没有准确反响出人工智能产品所涉“算法安全犯罪”的分外性,即这种算法安全犯罪在实质上是一种危害公共安全犯罪而非一样平常意义上的生产、发卖伪劣商品犯罪,因而应该将其单独设罪并规定在危害公共安全罪一章之中;同时,《刑法》第146条也没有全面规定“设计、制造、发卖、利用”等行为多样性,较为明显地忽略了“设计”“利用”不符合算法安全标准的人工智能产品行为的分外危害性,因而也有必要增加规定该新罪名。
二是非法制造、持有、买卖、运输、利用人工智能武器罪,其侵害的法益是作为重大公共安全的人工智能算法安全,可以比照《刑法》第125条的立法规定设置罪状和法定刑。之以是提出比照《刑法》第125条规定这个新罪名,主要缘故原由是人工智能武器所涉国际关系和海内政治上的重大公共安全性,极随意马虎造成人性主义重大灾害,而在刑法规范意义上难以将人工智能武器全面涵摄于“枪支、弹药、爆炸物”或者“危险物质”之中,因而增加规定该新罪名具有重大政治意义和法治代价。
三是擅自改变人工智能产品算法与用场罪,其侵害的法益是作为算法安全管理的社会管理秩序,可以比照《刑法》第286条的立法规定设置罪状和法定刑。之以是提出增加规定这个新罪名,是基于人工智能产品算法与用场一旦被擅自改变,就可能造成人工智能产品的管理失落序并引发新的危害算法安全犯罪和危害管理秩序犯罪;同时,算法安全管理不同于数据安全管理,如果说《刑法》第286条是针对数据安全管理的犯罪,那么,本新罪名便是针对算法安全管理的犯罪,因此,有必要在《刑法》第286条规定的毁坏打算机信息系统罪之外再特殊规定擅自改变人工智能产品算法与用场罪。
有关人工智能算法安全犯罪方面的立法完善论有待另文展开深入谈论,这里不再赘述。
原文链接
魏东|人工智能犯罪的可归责主体探究
《理论探索》
《理论探索》是中共山西省委党校主理、面向国内外发行的学术期刊,于1984年创刊,紧张刊登哲学问题、党的培植、政治学研究、公共行政、经济研究、法治培植等学科的研究论文。