文化 > 写作 >
万博体育app3.0 苹果
人工智能,可以成为法律上的“人”吗
2019-03-26 21:31 作者:吴习彧 来源:法治周末

 0.png

 

仅为了解释人工智能行为的效力,而简单地为人工智能披上一件“皇帝的新衣”式的主体资格,并不具有现实意义。即便创设出类似于“电子人”的法律人格,法律也无法对机器本身的行为产生影响,因此相对现实的路径应当是考虑如何通过法律去影响机器背后的人的行为层面,进而解决人工智能所带来的风险与挑战

 

吴习彧

阿尔法狗围棋挑战赛激发了有关人工智能的奔涌思考。人们开始讨论,我们应如何看待智能机器,是否要赋予它们法律人格?机器可以独立订立合同吗,是否可以取得并持有财产?

人们似乎认为,从技术角度出发,当机器行为(或智能化水平)与人类接近,甚至难以区分的情况下,应肯定机器行为的法律效力。但限于传统理论和现行法律只将自然人、法人和其他组织列为法律主体,于是主张承认人工智能法律主体资格的声音成为了主流。

 

人工智能离法律上的“人”有多远

 

关于何时或者如何给人工智能设定法律主体资格的讨论由来已久。

在这场争论中总会涉及到一份条件清单,如人工智能的自由意志、自主性要件等。普遍的看法是,当一个人工智能体满足这些条件后,才能被归类为与人类同等的真正认知行为者。只是迄今为止,即便在人工智能的研究领域里也没有形成一个广泛可接受的定义,“还不能总体概括出什么样的计算机程序可以被称之为人工智能”。

虽然如美国计算机科学家斯图尔特·拉塞尔、彼特·诺米格也曾提出四类人工智能的定义:像人一样思考、像人一样行为、理性思考以及理性行为。但严格地说,这也只能是人工智能的技术目标。

简单地以机器“长得是否像人”或者“表现得是否像人”作为评判其能否获得法律主体地位的标准要件,不仅容易因概念的含混不清导致可操作性不强,还可能会陷入法律与科学技术双重认识不一致的泥潭。人工智能认知状态的理论化标准确实应作为一个问题来探讨(而且问题分歧还很大),但它不能为审视人工智能的法律主体资格提供一个很合用的基础,主要的原因在于这些标准都太抽象了。

 

为何人工智能不应享有法律主体资格

 

在讨论人工智能机器的主体定位时经常碰到的一个问题是,面对现在法律框架中诸如“独立意思的表示”“权利能力”“行为能力”等标准要件时,人工智能应如何解释贴合?

部分主张赋予机器以“法律人格”观点的立论基础是某些机器人已经具备了独立意思表示的能力。在此类论点中需要注意的问题是,“独立意思的表示”并不适宜作为机器人获得主体资格的特征标识。原因在于,“独立”的概念不明确,存有疑点。

所谓的“独立意思表示”是相对于谁的独立,独立于机器的使用者,还是独立于机器的程序设计者?原有法律框架中的独立之意是行为主体自我决定,但套用到机器人却未必合适,因为要看这个“独立”是针对于谁来说。机器人是由一系列的算法来指挥行为,算法所设计的行为完全可能是独立于使用者的。例如,当使用者命令汽车以170码的速度行驶,但汽车基于原有算法的计算,完全可能拒绝该指令(如原有程序设定最高时速不可超过120)。所以如果机器只是按照预先设定的程序行事,独立的说法似乎并不完满。

其实,“独立意思表示”“权利能力”等概念只是法律为完成特定区分效果而采用的技术手段。手段本身并不能回答原因问题,将结果混淆为原因是一种谬误。所以,如要追问智能机器是否符合法律主体的标准,不是简单地将“权利能力”“责任能力”等现有的法律概念套用到机器上,而需要进一步追问第二个问题,在面对人工智能机器时,法律所持有的目的是什么?

耶林说:“目的,是全部法律的创造者。”每条法律规则的产生都源于一种目的,一种事实上的动机。主体资格虽然是一个法律概念,但不应忽视概念背后所携带的具有强烈实用主义色彩的目的。这倒并不是说要将人与机器划分为对立的两个面,而是需要更精确地表达,法律在人工智能机器人的立场上,应是鼓励人工智能的设计者和制造商们开发出符合人类特定需求的产品,并能控制人工智能可能造成的风险。

例如,在讨论机器人“作品”的版权问题上,我们所应持有的目的是鼓励设计者去创造“会创作作品的机器人”的行为,而不是鼓励机器人创作作品。之所以需要保护产权也应该是保护机器人设计师额头上的汗水,而非机器人的。因而没有必要以认定人类版权规则的“独创性”标准去解析机器人的创作行为。我们不能将机器与现有的法律主体(如自然人)进行特征比较,进而由于特征相似去主张承认机器的“主体资格”。是否赋于机器以法律人格,应根据特定法律目的(效果达成的需要),正如“法人”概念的诞生一样,“全都是依(因应目的而选择出来的)法律判断而人为地加以规定”。  即使它与“自然人”并没有多少共同的特征相似点。法律概念是为人而存在的——他们是实现人之目的的手段,而不是倒过来。

 

法律应持何种立场

 

机器只能被设计成遵守法律,却不能理解法律。虽然几乎所有探讨人工智能问题的研究中都会提到美国科学家和科幻作家伊萨克·阿西莫夫的“机器人三定律”。但客观地说,这套原则的指引对象仍然是人类,而非机器。因为机器只按照算法行事,法律概念、逻辑的设置是与人类相关联的,可以说只有人类才可以理解权利与责任的意思,机器并没有这种理解能力,它们在解释学这个学科并不活跃,而且它们永远不会。

其次,有观点认为人们之所以惧怕机器,是因为目前机器并不受法律约束。所以眼下当即议题便是,要将机器也列为法律主体从而受制于法律。这样的说法存有疑点。这是因为法律不可能对机器人本身的行为层面产生影响。这不仅在于上述所说的机器无法理解法律,还在于约束机制的错位。真正能控制机器行为的是机器的设计者,立法者并不具备了解深层技术的知识储备。

也就是说,我们是希望通过法律来控制机器人的设计者、制造商以及使用者的行为层面,并且解决在机器人行为后所产生的法律责任分担问题。法律不可能对机器人本身的行为层面产生影响,如不可能因为法律对机器人确立了过失赔偿责任制,就能提升其在行为时的“注意水平”。也不可能对机器人犯罪行为判罚徒刑或死刑,因为刑罚的威慑效应对机器人来说没有半点的意义。因此有必要再次重申,能对机器人行为机制产生直接影响的是程序的设计者,而法律应通过对设计者这类的主体施加影响,从而间接对机器人行为产生作用。

此外,机器也无法独立承担行为的后果,因而会影响最终责任分配的效率。虽然在2016年欧洲议会向欧盟委员会提出的报告中,曾建议“确保至少最复杂的自动化机器人可以被确认享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。”这份报告虽然被不少研究引经据典为支持赋予机器法律人格的论证依据,但由于该报告中并没有就该法律主体设计相应的责任能力规则。如果机器没有承担责任的能力(独立的财产等),那么不论是侵权或是违约带来的赔偿责任等,其实都需要链接到其他主体上来完成最终的责任分配。

(作者系浙江工业大学法学院讲师)

责任编辑:王硕
    当前1/1页   

  • 中央媒体 合作媒体 地方媒体 政法网群
    中国长安网 最高人民法院 最高人民检察院 公安部 司法部 法制网 新华网 人民网 中国网 光明网 中青网
    联系我们 诚聘英才 广告征订 本站公告 法律声明
    中 国
    互联网协会
    中国文明网
    传播文明
    工业和信息
    化部备案
    不良信息
    举报中心
    北京网络
    行业协会
    网络110
    报警服务
    无限互联网
    业自律同盟
    北京文化市
    场举报热线

    版权所有 Copyrights © 2014-2016 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

    技术支持:川程在线   建议使用IE6以上1024*768分辨率浏览