论文部分内容阅读
目前,“人工智能”这个话题越来越热,在生产力全面提升后,人工智能技术水平上升到一个新的高度。在卫生、教育、运输、服务和金融等领域,人工智能的作用正在迅速显现,为经济社会发展注入了新的动力,深刻改变着人们的生活方式,连普通市民的日常生活,也感受到了人工智能带来的巨大便利以及产生的广泛影响。人脸识别、指纹识别等人工智能技术普及到了居民的出入门禁、手机解锁等领域,人机对话也已经代替了很多公共服务的形式,智能化的产品越来越普及,而且更新换代的速度在不断加快。然而,人工智能的发展是一把双刃剑,在给社会发展带来巨大便利的同时,也带来了一些不利后果,对现有法律提出了一系列的挑战。根据人工智能独立于人类的程度,可以将其分为弱人工智能、强人工智能、超人工智能三个阶段,当前我国正处于弱人工智能向强人工智能过渡的阶段。在现有对人工智能产品的研究中,突出的问题有:能否赋予人工智能独立的法律人格,如何认定人工智能产品的侵权责任,以及侵权责任如何承担等。这些新兴问题,需要法律作出回应,为纠纷的解决提供具体规则。首先,就人工智能产品的法律地位而言,在现有的技术背景下,与其他法律主体相比,人工智能产品并不具备人格的特征,尚未脱离物的属性,仍然是有助于人类生产生活的工具,故此时并不适宜赋予其独立的法律主体地位。其次,本文将结合人工智能产品及其侵权责任构成的特殊性,从责任主体的认定及归责原则的适用两方面,对人工智能产品侵权责任的承担进行探讨与分析。人工智能产品从研发到生产销售再到监督与使用,每个环节都需要建立明确的责任机制,以形成封闭式的责任链条。其中,研发人员需要遵循基本的道德规范,并对“负面清单”中的侵权行为承担过错责任;负有严格责任的生产者、销售者承担侵权责任的基础性责任;而使用者则需履行恰当的义务,适用过错责任原则。最后,本文通过对比分析国外关于人工智能产品侵权责任承担的立法规制,在尽量减少对于现行责任框架机制模式的冲击下,结合人工智能产业的发展,引入强制责任保险制度与专项基金制度双轨并行,建立人工智能产品专项研究及监管机构,完善登记公示及召回机制等配套设施,安装“黑匣子”并加强数据保护,通过完整的侵权责任承担机制,在保护受害者利益与促进人工智能技术发展之间寻求平衡。