(32)还有学者意识到,对于解法典化还可从司法、执法角度展开。
简单地说,社会理论法学,就是将法律看作是社会的一个组成部分,从而将什么是法律的问题,放到什么是社会这个更根本的层次中进行观察和思考,既通过法律了解社会,也通过社会理解法律。在这一社会分化理论中,也涉及到法律的内容。
但也有许多批评是非常富有启发性的,例如达伦多夫和科塞的批评。在传统社会中,家庭一直承担着大量的混合功能,例如生育、教育、经济、政治、道德、伦理等各种功能。这尤其体现在超大规模城市在疫情期间的治理问题。而斯宾塞的演化理论,既受到了19世纪生物学中的胚胎学研究的影响,同时又分别受到拉马克和达尔文的影响,是这三者之间的一种混合。在事实层面,中国社会的功能分化问题,至少存在着如下可能性:(1)中国已经是一个功能分化社会;(2)中国正在成为,但尚未变成一个功能分化的社会;(3)中国目前还未成为,但将来有可能成为一个功能分化的社会;(4)中国目前还未成为,并且不可能成为一个功能分化的社会。
通过吸收和借鉴自斯宾塞以来,经过帕森斯和卢曼的发展,逐渐完善和成熟的社会功能分化的理论,形成对中国法律系统自主性的认识,非常有必要。这种分歧反映到法律适用领域,就出现了规则优先与结果考量两种法律解释方法和路线的分歧。(4)人类不担责的情形。
需要指出的是,与人工智能行政法律问题的研究范围重在工具体意义不同,美国学者对人工智能刑事法律问题的研究同时关注了工具体与意识体两种角度。该文是在向979名技术、商业、政策等领域的领军人物提出问题并得到回答的基础上形成的。第四,在受害者起诉所有者的情况下,所有者若要解除自己的责任,须向法院提出申请,要求并证明操作者才是被告。这就使得自主控制的无人机引发侵权事件时难以确定责任主体——是操作者还是开发者,或者是维护和检修人员?由于受害者无法确定谁在远程操作无人机,因此责任主要由所有者承担。
二、美国学者对人工智能宪法问题的研究 亚利桑那大学宪法学教授托尼·马萨罗等指出,带有交流功能的人工智能会推动规定言论自由的美国宪法第一修正案的改革。那么,现有责任规则还是否能被用于追究高级机器人的刑事责任? 可见,人工智能的开发和应用还存在诸多悬而未决的刑事法律问题有待研究。
这就很难实现对人工智能的积极而有效的监管。苏尔登认为,目前这种人工智能与法律的结合主要存在以下问题:第一,一旦人工智能采用不当数据会导致法律实施的不同对象受到歧视。一方面,美国学者先行一步,基于其先发的人工智能产业,率先触发了相关法律问题的关注,我国学界从其研究成果中得到了信息并受到启发,从而出现了相应的研究,例如,《算法与言论——美国的理论与实践》和《人工智能中的算法是言论吗?》两篇文章都以美国学者探讨的言论这一人工智能宪法问题为基础,前者是介绍性文章,后者是评述性文章。(4)对人工智能机器网络的过度依赖会使人类思考能力下降。
此外,美国学者对人工智能法律问题探讨中呈现出来的逻辑推演和学术想象力令人印象深刻。但今天这些都成了现实。此外,美国的历史也呈现出某种昭示——宪法曾赋予作为财产的奴隶以投票权,来增加南方蓄奴州在国会中的分量。例如,美国学者讨论的人工智能法律问题涵盖立法、司法、执法和法律服务。
当然,关于人工智能取得人的资格所需要的道德与情感因素,美国学者还处于困惑之中,尚需各国学界大开脑洞,攻关释难。显然,美国学者对人工智能法律问题的研究遵循了宪法至上的一贯原则,并且将个人权利本位作为研究的出发点。
此外,恩特还会带来虚假身体问题——与现在日益增多的用人造部件来取代部分身体或器官的做法不同,恩特更可能给人类个体制造一个完全虚假的身体,赋予全新的外表。换言之,通过人工智能技术科学研究和开发出类似人类意识过程且效率远超人类的物质载体,这种人工智能体本质上只是人类发挥自身智能的工具。
(2)人格边界比较模糊。本文旨在梳理美国学者对人工智能法律问题的关切,以期从中获得一定启示。然而,由于联邦监管法律的局限性,美国联邦航空管理局尚缺乏对业余爱好者的要求。Clive则凸显了这一意义——如果Clive为房地产雇主工作,却因为有自己的想法而决定在工作以外行事,谁应承担责任?当前的代理法可以解决此问题。人工智能有机复制体导致的继承关系。然而,在理论分析的意义上,信任一个设计良好的算法,总好过将核按钮交给不理性的、难以预测的领导人。
要受害人分担责任,通常还要求受害人的行为导致或加重了无人机的损害。洛约拉马利蒙特大学洛约拉法学院教授劳伦斯·索伦认为,人工智能成为法律意义上的人,仅具有理论意义。
第二,如果出租人或所有人仅是购买却从未占有、检查、操作过无人机,那么长期租赁者应被视为所有人,应在其名下登记无人机。但未来一旦安保机器人能够自主识别威胁,当遇到危险时它们能够使用武器甚至致命武器。
消费机器人涉及的欺骗问题。关于行政监管的内容,他提出,一些职业要求人类预先取得执业证明,是否对人工智能也有资质要求呢?又该如何要求?进而言之,人工智能被纳入行政监管的对象,是否有理由对其征税? 北达科他大学的杰里米·斯特劳布和乔·瓦采克两位学者发表专文讨论无人机给飞行器的管理及责任带来的新问题。
我们认为,这种贯穿人工智能体运用全过程的扫描式研究值得提倡,也值得我国学界借鉴。明尼苏达大学研究人员弗兰克·杜马等关注的问题是自动驾驶汽车涉及的刑事责任。正如乔治敦大学法律中心的大卫·维戴克(David C. Viadeck)教授所总结,目前机器做出的决定,都可追溯到设计者、编程者和其他人,它的进程由人类加以定义、引导并最终控制,无论其多么复杂,也只是由人类使用的工具。(2)人工智能一旦滥用数据,就会侵犯公民个人信息。
对此的回答是,人工智能参与国家使用武力的合法性主要在于法律上的可靠度而非技术上的可预测性或透明度。具体而言,会影响到四种犯罪:其一,严格责任的犯罪(包括超速、无保险证明、违章停车等)。
将此权利扩展到Clive,意味着人工智能体也会获得神圣的人类自尊。这些规则难以适应无人机对隐私形成的挑战。
另一方面,算法直接做决策应限于特殊情况和特定范围,只能用于自卫。同时,为避免对技术发展造成干扰,该机构应在一定程度上与人工智能分担责任。
不过,人工智能参与国家使用武力也存在很大技术风险——如果在被武装攻击之后难以准确地找到攻击的源头,则武力反击可能出现误认误击的情况。这实际上是人工智能体分担甚至取代了开发者和制造者的责任,有利于人工智能技术的创新。因此,如何用最具强制力的刑事法律控制和预防人工智能体涉及的严重危害人类社会的活动,是各国刑事法学者不可回避的严肃课题和不可推卸的重大责任。但在特定利益群体面前,一些州的此类努力归于失败。
事实上,美国学者对人工智能法律问题的讨论正是在工具体和意识体两种意义上展开的。这些研究成果视野开阔、范围广泛、内容具体,展现了较强的理论逻辑和学术想象力,值得借鉴。
第一,正视人工智能的运用已经带来和可能带来的社会风险,尤其是基于自动驾驶汽车和无人机等已经投入商业使用的人工智能体带来的现实风险,指出法律应对的必要性和迫切性。(1)由人工智能对事情做出选择,人们却不知道其运作原理,会使人类丧失对生活甚至生命的掌控,牺牲独立人格具有的隐私权和选择权。
两位学者认为,上述规范可以由国会制定,使其成为美国法典的一部分。总之,现行人工智能欠缺自我意识,不能适用刑法。