数字经济发展中的智能侵权归责困境与解决路径分析
发布日期:2023-05-19  来源:湖南律师网  浏览次数:152

  内容摘要:随着数字经济的发展,在数字经济发展过程中必然离不开智能科技的发展,数字经济与智能科技是相辅相成的一体,这样数字经济社会下的人工智能也会产生“侵权行为”并产生危害后果。人工智能的侵权动摇了传统的侵权责任体系,人工智能的侵权责任存在人、机的责任混同,导致以“人”为中心、以过错责任为基础的“风险分配责任体系”陷入了困境。人工智能具有拟制人格的角色,应定位为有限的法律责任主体,未来的法律要构建“人主机辅”的二元责任体系,在人、机的责任分配方面确立科学的责任分配规则以及构建合理可行的机器侵权责任的承担方式。

  关键词:数字经济   人工智能  侵权责任  责任分配   预防规则

  引 言

  人工智能现在和将来都将深刻影响并改变我们的日常生活,目前已经出现了医疗机器人、农业机器人和自动驾驶机器人等各类智能机器人。人类在享受智能技术带来的生活便捷和高质量的生活服务的同时,也需要承担着来自人工智能的“智能行为”所创设的各种社会风险,其中一个重大的法律风险就是人工智能也能够侵权。对于人工智能的侵权责任的判断与分配问题,直接挑战了传统的以“人”为中心、以过错责任为基础的“风险分配责任体系”,使法律人类中心主义的责任模式陷入了困境。对于人工智能存在侵权的事实与责任分配问题,法律归责背后的主体逻辑与责任分配逻辑如何规范化的理顺与构建是法律亟需解决的问题之一。

  一、迷惑的侵权:人工智能侵权背后的法律困惑

  (一)现实问题:人工智能也侵权

  随着人工智能在社会各个领域的普遍应用,人工智能也会屡屡发生“伤人侵财”之事。例如,2016年,在中国深圳举办的一场高科技成果交易会上,机器人“小胖”在展览中打砸玻璃站台还砸伤了路人。2018年,Uber制造的无人驾驶汽车撞死了亚利桑那州坦佩的一名行人。2015年,英国首例机器人第一次心瓣修复大手术中,机械臂张牙舞爪,攻击主治医生,现场十分混乱,最终导致病人在术后一周死亡。

  未来随着人工智能跨过“技术奇点”,具有深度学习和自主能动性的情况下,其必然会产生越来越多的交通事故、医疗事故和生产生活事故,直接损害人们的生命健康和财产安全。人工智能的侵权行为导致的损害必然带来大量的诉讼案件,引发侵权责任法上的民事责任的认定与承担方式等一系列法律问题。所以,由于人工智能侵权引发的社会问题亟需法律予以规制。目前,由于立法的滞后性和司法的被动性,我国的法律还没有形成体系性的思路应对人工智能“自主能动”后造成的各种民事侵权问题。处理人工智能的侵权要恪守法律的责任主义和规范主义,在法律规范的范畴之内,未雨绸缪的展开对人工智能侵权问题的思考与讨论,从而在立法与司法上构建科学合理的应对方案。因此,对于人工智能侵权的责任问题,如何科学的确认责任主体,合理的认定责任归属和分配规则以及有效的管控侵权风险将是侵权法必须考虑的重要问题。

  (二)现实问题背后的法律之惑:侵权有错,谁之过?

  前文所述案例,无论是“小胖”伤人案还是智能汽车Uber撞人案都可以看出,人工智能的伤害事故已经颠覆了传统的“人与物”“人与工具”的关系,也动摇了传统的法律责任体系,令以“人”为中心的过错分配责任体系陷入了很大的困境。将来随着强人工智能机器人的出现,人工智能“自主能动”的“侵财伤人”事故将愈加频发。侵权责任主体的问题会变得更加复杂,也会更加困惑。谁应该对侵权的后果负责?人工智能能够成为侵权责任主体吗?人工智能该怎么承担责任?等等一系列问题导致了传统的民事侵权责任的认定陷入了困境。

  传统的侵权责任法是以人为中心,以过错责任为基础的责任体系,在应对人的侵权行为,恰当的分配责任,弥补社会损失方面没有任何法律障碍。但是在自动化的智能汽车和具有自主性医疗机器人作为参与相关活动主体的情况之下,原来法律的主客体关系已经发生了明显的改变,即人工智能已经由人类的客体转变成能动的主体。它的行为不再受人类指令的控制与管理,而是基于自己的意识和行为参与相关领域的职业活动。如果人工智能自主出现了侵权事件,这种侵权事件就不是设计者、制造者或者使用者事先能够预判和控制的情况,谁该承担侵权责任呢?人工智能不是自然人,但也不是一般之“物”。责任的主体由传统的人转变成了人工智能,但是这样导致了对传统的侵权法中的责任主体的认定出现了困惑。

  二、走出困惑:赋予人工智能法律主体地位

  (一)为何赋予:赋予人工智能法律主体地位的依据分析

  1.法律规范的论证分析

  (1)人工智能具有法律人格

  人工智能是否享有民法的主体性地位的核心在于是否具有法律人格。人格是解决法律主体资格的标准之一。我国民法体系的主体构建逻辑是以法律人格为基础,界定作为民事主体的“人”。从实质来看,赋予主体法律人格是要参与了社会活动,形成了民事关系。从形式来看,社会活动的主体通过法律的形式给予认定。

  第一,从实质标准来看,人工智能可以社会互动,参与法律关系。人工智能已经脱离了传统的静态的“物”和“工具”的范畴。人工智能拥有了学习能力、运算逻辑思维,具有社会活动能力时,其已经不再是静态的、被动的、工具式的应用于社会生活,而是动态的、能动性的、自主的参与了社会活动,并且已经深刻的影响了社会关系。事实上,人工智能已经悄然的走进我们的生活,在医疗、家庭生活和交通等方面都出现了智能机器人的应用领域,甚至机器人还可以满足人类的情感需要。毫无疑问,未来人类与人工智能之间的关系将会越来越密切。人必须经过自身的活动,参与到了社会互动,然后便自然取得了法律上的权利。前述的案例已经很好的佐证了人工智能参与社会生活的广度和深度,人工智能具有一定的行为能力。

  第二,从形式标准来看,是否享有法律人格很大程度上取决于法律的规定或者形式上的确认。法律人格的形式标准是一种资格的事后确认,并不是自然赋予和生来取得的,包括人也不会天生的就取得法律人格。法律人格并非天赋,而是法律根据社会认知逻辑的确认。比如公司、社团最先开始也不是法律关系的主体,并不具有法律人格。由于公司、社团深度的参与了社会互动,影响社会关系,才被法律“事后追认”,赋予法律人格,形成法人主体地位。人工智能也已经影响了社会生活,可以通过法律确认的形式给予其相应的法律人格。

  (2)人工智能享有法律权利

  人工智能的法律主体地位的基础在于其是否能够享有法律权利。对于人工智能的权利问题已经逐步纳入到法律或者科技伦理等领域的探讨范畴。法律权利并不是天然取得的,而是后天社会赋予的。从西方法哲学来看,人的法律权利来源于自然法权利,所谓的“天赋人权”也必须通过法律的确权才能形成法律权利。这就为人工智能享有法律权利提供了可能性。权利发展史证明,权利体系的构成从来都是不断变化发展的。在权利变更的过程之中是以实力为基础进行博弈的过程。即约翰厄姆拜克将此总结为“实力界定权利”。该论断目的在于解释权利形成于初始分配是怎样实现的。随着社会主体对社会发展的抽象性贡献增强,从而在社会生存和发展层面彼此相互影响逐渐加深。因此,只有不断的赋予社会多元主体的权利,强化义务,才有利于多元主体的平等对话,稳定社会关系,从而互相共存共生。对于人工智能享有权利的正当性论证来源于权利本身的历史发展与权利功能的恰当实现。

  第一,从权利发展的历史来看,赋予人工智能享有法律权利,符合历史发展的客观要求和发展趋势。权利发展的过程就是权利主体不断扩大的过程。首先,以人为权利主体的范畴不断扩大。例如从身份高等的贵族权利扩大到身份低等的平民权利;从强者的男性权利扩大到弱者的女性与幼儿权利等。其次,从权利主体的范围来看,现在的权利发展已经由具有人的权利发展到物的权利。由人的权利拓展到动物权利;由具有自然生命式人权发展到非自然物质性权利。权利主体的内涵和外延已经在被限缩生命体物种。生命意义上的物种差异进一步丰富了权利主体的范畴。所以,人工智能的权利资格与法律地位是历史发展与社会接纳的必然。

  第二,从权利的目的和功能来看,赋予人工智能享有法律权利,能够促进个人和社会利益的保护与实现,稳定社会关系。边沁指出拥有“对应义务的权利”。人工智能享有法律权利,即意味着它要履行相应的义务与责任。赋予人工智能享有法律权利,即意味着法律关系的相对稳定,对于出现的侵权等问题能够有效的提供法律保护的依据,从而有利于社会的稳定与发展。

  (3)人工智能现实合法性的存在

  现在世界上的部分国家已经未雨绸缪式的开始赋予人工智能在法律上的主体资格,从而在事实上或者法律上成为法律关系的主体。例如,2010年,日本私人机器人帕罗成为具有“人类户籍”的机器人公民。2016年,Google无人驾驶汽车在美国被依法视为“司机”。2017年机器人Sophia被认定为沙特公民。人工智能已经现实合法性的存在。目前,欧盟和俄罗斯等地区和国家已经在立法上赋予人工智能以电子人或者代理人的法律地位。

  2.理论逻辑的论证

  人工智能是否具有民事主体地位,另外一个论证逻辑在于人工智能是否具有自主行为性和主观意识性。

  (1)在“人”和“人工智能”之间寻找“智能”的相似性

  人与人工智能的区别在于人类有心理活动和身体活动,人类的心理活动和身体活动必然是大脑活动的产物。人的所有功能都完全依赖于大脑活动,是人的认知理性是有限度的,人只知道大脑感知的输入与行为活动的输出的结果,但对于输入过程的认知是无法知道的。所以,人的存在意义在于大脑和心灵,而人工智能从构造来讲也存在“大脑”运作的过程,“人工智能”是“芯脑”运作出来的智能活动,它存在着“芯脑”,人工智能的“芯脑”和人的“大脑”一样存在学习、语言表达、认知推理、计算思维等能力。人工智能的发展演变是从技术到技术性生命获取的过程。从某种意义上讲,人工智能的发展是人智的结果,同时也实质性地改变了人。人与人工智能将日益“共生共存”。

  (2)在人工情感与人工意识中探寻人工智能的“主观意识性”

  侵权责任法是以过错责任为基础的责任归责体系,过错的核心在于行为人在具有基本的注意能力下违背了合理的注意义务,从而导致侵权后果的发生。传统的过错责任是以人为责任主体。但是在科技智能化语境下的侵权判断,人工智能已经具有有智能的技术属性,如何判断人工智能的主观方面呢?客观来讲,人工智能体不可能具备人的“情感和意识”等心理表征。但是,人工智能已经具备了人工感情和人工意识。人类的意识能力来源于未知的神经细胞,人工智能的意识能力则来源于数据与算法下的复杂的模拟神经电子元件。在技术上被验证的图灵测试,也佐证说明机器具有像人一样有自己的心智和意识。

  (3)人工智能可以法律拟制化“人”以获取法律的主体性人格

  动物的权利研究带来的启示可以有效的论证人工智能体的权利化问题。虽然至今仍有许多学者依然认为人工智能是智能的机器而不是自然的人。但智能技术的发展具有无限的可能,随着大数据、算法技术的突破,人工智能的智与能与人类的智与能差异性缩小,两者在主体上的能力具有一定的相似性。类比于已经在法律上客观存在的法人这一概念,人工智能也是社会的客观存在,其也以一定的方式参与社会活动,从而也会成为法律关系的主体,所以,对于人工智能体也可以具备法律的“拟制人格”。

   3.司法实用主义的需求论证

  司法的实用主义是把法律和司法的过程视为解决纠纷实现社会秩序的主要手段,从而实现平衡各种诉求和利益关系。现在,面对已经频发的人工智能伤人侵财案件,我们已经在迷惑中陷入归责的困境,将来还将面临很多法律难题亟需进一步的法律突破。面对人工智能出现的侵权、知识产权等应用难题,目前的法律显然显得赤手无策。可以想象,上述案例放在司法审判之中,司法在面对人工智能在审理中的纠结与困惑,立法上也亟需赋予人工智能的法律主体地位,从而理顺“混沌”的法律关系,让责任主体在“扯不清、理还乱”的归责逻辑中明确化、稳定化。所以,法律确认人工智能的主体性地位,能够清晰的理顺法律关系,较好的实现救济损害和防范风险的司法功能。某种程度上讲,通过立法肯定人工智能的法律主体资格,是应对人工智能不断社会化,为弥补法律处置不能的困境而不得已的所作出的一种策略性妥协。

  (二)何以赋予:人工智能法律主体的创设方法

  法律主体都有出生的标准和模式。人工智能的法律主体地位如何创设将决定未来责任的确认、分配与履行的问题。本文认为对于人工智能应该以登记作为其出生的标准,当然未来,随着人工智能的普遍增多和社会活动领域的广泛参与以及人工智能作为人的伴侣开始组建家庭的情况之下,可以考虑赋予人工智能相应的户籍,正式赋予人工智能的公民身份。

  1.登记出生主义

  对于人工智能法律主体地位的创设,在初级阶段的处理模式应该考虑以登记作为“出生”的原则。采取登记方可出生的原则,是由于考虑人工智能作为特殊的法律主体和特殊的用途,必须对人工智能行业实施严格的行业准入制度。为加强对人工智能源头的监管,就需要对人工智能进行必要的审批与登记。审批与登记制度对于防范人工智能侵权和履行侵权责任方式都具有重要意义。第一,从源头上有利于保证人工智能的技术慎重,保证人工智能的安全可靠性。第二,可以对人工智能的日常活动进行有效的监控,同时,对于人工智能的技术审批可以进一步用于判断人工智能的活动是否超越了审批登记的范畴,被人进行非法的利用,有利于厘清人机之间的责任。第三,可以根据登记和审批的技术标准尽快的查清人工智能侵权的因果关系问题,防止在事故发生以后,因为人的因素对相关的设备或者程序进行恶意删减或者修改。

  在登记的审查模式应该采取实质审查的标准,实质审查是指登记机构在对申请项进行审查时,对于人工智能的相关技术参数,行业标准、数据处理机制,使用的范围与领域甚至相关责任的归属于分配等都可以事先登记明确,进行实质审查。同时,对于可能出现的人工智能的流转交易、区域变动和工作变动等情况,也要采取变更登记制度,按照一定的规则进行记载其真实的状况,这样就保证了人工智能从“出生”到“死亡”整个过程都处于监管的范围之内。

  2.登记的法律效力

  对于人工智能的登记效力问题与物权法的登记具有法律性质的区别。但是对于相关的法律效力的认定,尤其是未来责任的分配规则的构建可以借鉴物权法登记的法律效力规则。人工智能的登记出生主义是以安全为逻辑起点,通过登记来管控未来可能出现的侵权风险。登记出生主义涉及到的技术标准、数据保存、活动区域与工作性质甚至风险责任的划分等,如果进行了有效的登记公示,则完全可以作为责任划分的参考依据,并且相对于多个责任主体,可以作为一方主体的有效免责事由。如果没有进行出生登记则采取登记对抗主义,即未经登记的所有责任由赋予登记职责的人承担。因为在出生登记情况之下,就要未雨绸缪的考量化解社会危害风险的问题,强制登记人签署技术安全责任书和强制保险缴费。从而最大化的化解潜在的社会风险。

    3.申请主体与登记主体

  如果法律强制规定登记出生的原则,也必然涉及到登记的申请主体和登记机构的问题。登记申请主体原则上可以考量由开发人工智能的设计研发制造者提出申请。具体申请的材料要求可以根据人工智能本身的技术发展进行报备。就登记主体而言,为了避免登记规则不统一,审查标准的不科学,从技术角度来看,应该考虑由科技管理部门进行登记与审查。

  三、未来格局:构建“人、机”二元主体的侵权责任体系

  (一)由传统以“人为中心”的责任主体走向“人主机辅”二元责任主体

  1.“人、机”二元责任主体构建的必要性论证

  我国的《侵权责任法》主要是以人作为责任主体,形成的法律责任体系。但传统的以人为主的侵权责任体系不适应人工智能技术发展的时代要求,未来随着超强人工智能的出现,必然要考虑和接纳人工智能的侵权的法律主体地位问题。人工智能的发展轨迹在“人机衍生”模式下人与机的关联性将更加紧密。如果否定人工智能(尤其是强人工智能)的法律主体资格将会导致以下问题:第一,可能无限制的加重人的责任,哪怕不具有期待可能性的责任事由,也会被归属到人,由人来承担不该承担的责任,或者承担不应该承担的主要责任,从而导致以侵权责任构成要件为基础的责任判断落入虚假。最终导致人成立了机器的“替罪羊”,缺失了责任归属的基本正义。第二,可能导致人工智能侵权案件无法处理,形成责任归属的处理空白,脱离了司法定纷止争的社会功能,损害了法律的功能与权威,影响了社会的矛盾的解决。这种情况的存在源于侵权责任法中所要求的因果关系的判断。对于人工智能的侵权案件之中,因果关系的判断存在很大的复杂性,侵害的原因存在多种可能的事实,有些是设计或者生产的瑕疵导致侵害的事实,有些是使用不当导致;有些事因为人工智能系统本身的高度的智能化、自主独立作出了行为的判断与责任。如果是人工智能系统本身的独立原因导致,即全部是“机”的错,和人无关的情况之下,立足于传统的侵权责任法的构成要件就无法判断责任的归属主体,从而形成责任空白,最终导致受害人“咎由自取”,形成了自我担责,缺失了法律的基本正义。总之,现在的民事主体的设置要从以人为中心的责任体系转变到以“人、机”二元结构的责任体系。

  2.二元主体责任体系中的主体地位区分:人主机辅

  随着人工智能越来越智能化,人机的能力差别和活动范围逐渐缩小,从法律权利的发展演变来看,赋予人工智能拟制人格具有法律上的自洽性。目前,对于人工智能的主体地位的问题,学界存在否定说、肯定说二种。否定说认为人工智能毕竟是机器,其物理属性为人的工具,人工智能不可能具有法律人格,更不能享受法律地位。肯定说认为,可以通过法律人格拟制的方式赋予智能机器人以法律关系主体资格,可以恰当的理顺社会关系,也符合智能技术本身的发展逻辑。肯定说提出了采取“虚拟人格说”、 “电子人格说”或者“有限人格说”。本文认为,尽管根据主体的发展要求构建人和人工智能二元侵权责任主体,但是两个主体肯定有巨大的性质和能力的差异,两者的主体地位也有区别。人工智能的法律地位只能是“有限”法律人格。

  (1)性质有别

  人和人工智能天生就有很大的区别,人属于自然的范畴,具有生物体质性。人工智能属于物质的范畴,具有技术体质性。两者的性质区别在于两者控制中枢和功能完全不同,从而导致两者在主观上思维能力和客观上行为的自主性不同。人类的智能的控制中枢在于人脑,而人脑是高度组织起来的复杂系统,是由生物神经串联的生物系统,可以控制人的心理、生理和行为等。而人工智能的控制中枢是大脑的芯片,通过数据与算法体现了一定的智能性。从而具有一定的行为能力。两者存在的性质不同决定了法律主体地位的不同,人是原本意义上的自然人,人工智能只是后天意义上的拟制人。

  (2)能力不同

  人工智能不等于人,在能力范畴具有很大的差异性。人具有全面能力,人工智能具有部分能力。尽管随着人工智能越来越智能。但是一个再聪明的“智能”毕竟是“人工”的产物。尽管超人工智能具有自我学习、语言研习、认知推理以及创造规划等能力,但它属于“人造”范畴,这些能力的取得来源于人的能力。所以,人具有全面的能力,人可以改造客观世界任何的客观物质;但是人工智能仅具有部分能力,它的能力范围仅仅局限于特定的领域范畴,比如智能驾驶汽车仅仅限于交通领域;智能医疗机器人仅仅限于医疗范围。

  综上所述,法律只是因为人工智能广泛的参与了社会活动,深刻的影响和改变了社会关系,并且具有一定的社会活动的能动性和创造性。法律必须考虑基于解决社会矛盾的功利性需要而赋予了人工智能拟制化的人格。但人工智能参与社会关系的能力、范围以及承担法律责任的方式方法和履行法律责任的能力等仍然具有很大的有限性。所以,构建“二元主体”的侵权责任体系是人主机辅,即“以人为本,机器为辅”的责任主体。

  (二) “人主机辅”二元责任主体的“三层次”归责原则构建

  目前,在现有的以人为中心的责任体系下的归责原则,主要参照产品责任,即由于人工智能的侵权行为的原因完全追溯到特定的人(如设计者、制造商、运营商或使用方),人工智能不能因其损害行为给受害人造成的损失承担主体责任。但在“人主机辅”二元主体责任体系中的归责原则要确立以人为主,以机为辅的责任归责原则。

  1.现状分析:人工智能侵权责任的归责原则的学术争议

  目前,学术界对于人工智能侵权责任的归责原则主要提出了以下几种观点:第一种观点是产品责任。这种观点把人工智能当作财物或“物”。适应严格责任的原则。第二,管理人责任。这种观点把人工智能拟制为动物,人工智能侵权类比为动物致人损害的侵权,由管理人担责。这种观点承认了人工智能和动物一样具有一定的自主性。第三,法人责任。这种观点认为人工智能类比于公司一样,属于法人拟制。第四,代理人责任,这种观点将人工智能与使用或者管理人关系看成代理关系。第五,雇员责任,即将人工智能侵权看成雇员侵权,由雇主承担责任,即“雇员侵权、雇主责任”。该观点将人工智能的看成技术性的“物”之属性。

  上述各种学说来处理人工智能的侵权的归责问题,但各种学说的弊端也显而易见。人工智能是既有“人”性又有“物”性的“矛盾体”。“物”性使侵权的主观“过错”无法确认;“人”性又使人工智能不完全受控于人的意志,自己也有自主的性质,于是一般侵权责任与特殊侵权规则均出现适应上困难。可见,传统的侵权责任法已经不足以解决人工智能的侵权责任的问题。

  2.构建路径:“人主机辅”的归责原则

  传统的侵权责任法对于解决人工智能的侵权责任的归责困境在于没有理顺人和人工智能两种责任主体在人工智能参与社会活动不同阶段的不同角色。相比较人而言,人工智能参与社会的广度以及深度都具有有限性,导致其潜在的侵权风险也具有有限性。而人在人工智能的社会活动之中是全面参与的角色,即人要参与到人工智能的“生老病死”的过程。所以,本文从责任主体的而言,要构建的是“人主机辅”的责任分配体系。因此,在责任分配的归责原则方面,重点以人工智能在“由生到死”的过程之中存在的侵权风险点和承担的主体角色为线索来确立责任的分配规则。 

  (1)人工智能“出生”阶段的责任分配规则

  人工智能出生阶段的归责依据在于,由于是人工智能的出生阶段,即设计和制造阶段,人工智能只能被视为“物”,具有民法上的财产属性。因此,如果人工智能侵权,实际的责任就是所有者或制造商的责任。在将人工智能被视为法律上的财产的前提下,人工智能无论其财产是否“智能”,都不可能承担民事责任。该责任将由生产经营者或使用者对损害负责,从立法角度看,这种模式的构想和实施相对简单,只需要做较少的立法修正即可。

  (2)人工智能应用阶段的责任分配规则

  在应用阶段的人工智能存在着两个不同的角色,即半自动主体与完全能动主体,但两个主体角色都是高度侵权危险的来源体。在这种情况之下,要具体的进行分类来确定。

  第一,对于人工智能作为半自动主体参与社会活动的情况下,也就是人机合作共同参与社会活动的情况之下,发生了人工智能的侵权事故。这种情况可以参照代理人责任论,将人工智能视为“半自治的人”,属于类似于儿童或智障人士这种限制民事行为能力的人,故其侵权的责任正如一个儿童或智障人士的侵权一样,其侵权的后果归属于儿童或智障人士以及他们的法定监护人或者代理人,这种类似于代理责任概念。所以,代理责任将人工智能的侵权责任由人工智能的制造商、程序员和培训师等看成对人工智能的“法定监护人”的角色。

  第二,对于人工智能作为完全自动主体的情况下,发生了人工智能的侵权事件。法律要考虑的是人工智能的自主责任的归属。即以人工智能的严格责任为主,人有限责任为补充。人工智能系统具有高度自主和能动的拟人属性,其完全可以依据算法和数据中心采集、分析数据达到自主学习、图像识别、自主驾驶等复杂的活动。所以,自主责任论认为,人工智能就像公司法人一样,他们可以被视为完全自主的存在,即把人工智能进行拟制化人,类似于公司的法人的地位。这种立法模式赋予人工智能完全的法律人格,但是目前这种自主责任的立法模式还比较少见。所以,为了平衡人工智能单独承担责任出现的履行不能等难题,在构建规则的时候,确立以人工智能的完全责任为主,但也要确立了人的有限责任为补充。这种情况对于人工智能侵权的责任要坚守保险的底线保障原则,即构建人工智能强制保险赔付制度。

  (3)人工智能“死亡”阶段的责任分配规则

  对于人工智能“死亡”阶段的责任分配问题主要是人的责任,即在人工智能使用寿命终结阶段或者被强制报废阶段,作为人工智能的所有者、使用者等自然人负有法定的义务正确的予以处置人工智能。这一阶段的人工智能在性质上已经归属于“物”的形态,如果人工智能在这一阶段出现了侵权,则适应出生阶段的规则即产品责任规则。


 

  结 论

  基于功利性的思考和进一步体现法律解决社会问题的工具性价值需要,前述案例已经清晰的显示人工智能已经给社会客观创设了法律所不能允许的侵害后果和损害风险。如何科学的厘清人工智能的法律人格地位,将未雨绸缪的解决人工智能出现的法律难题。人工智能的法律归责问题是一种技术性问题,更是法律面临的规范性问题。未来人工智能的发展方向是从“人机合一”模式向着“人机分离”模式再向“人机衍生”模式的发展,法律将面临更多来自人工智能的归责难题,在探求“人性”与“机性”的道路上将更多的涉及社会、哲学、伦理和法律问题。就人工智能或者其他技术的日益使用将深刻影响法律,未来的社会,我们必然会对人工智能的日益依赖,人工智能会深刻的影响社会的发展以及法律制度的重构。



点睛网在线培训| 如法网| 用户登录
湖南省律师协会版权所有,转载本站内容,请注明出处  湘ICP备15009664号
主办单位:湖南省律师协会 地址:长沙市芙蓉区韶山北路5号省司法厅综合楼四楼