这是针对经验研究而言的。
且不说强调意义、价值等问题的非实证主义方法,即便是在这一点上备受批评的实证主义方法,在实际运用上亦是如此。由此可见,这种生产过程既没有把法实证研究简化为素材整理或经验概括,也没有直接套用某种学说作出解释,而是持续地在实证资料、学说资源、问题意识之间目光往返流转,各种紧张关系也因此不断被呈现、处理并被整合到某种具有融贯性的分析框架之中。
考虑到这些称谓及相关争论难以覆盖此类研究的所有一般性质问题,下文的分析将作一定程度的延伸。社科法学的称谓无法统合反而容易掩盖这些不同理解和实质分歧,使研究者不仅难以走出方法论上的杂糅主义,无法阐明此类研究的一般性质,而且容易陷入社科研究是否等同于实证研究,实证方法是仅限于实证主义方法还是也包括其他更具诠释性或者批判性的方法等争论中。作为一种特殊的社会现象,法的实际样态只能通过实质命题与方法问题、观察与理解等交织而成的分析框架为人们所认识。当然,以上只是初步的说明,给出的理由也大多是形式上的,细致的论证以及法实证研究如何看待和处理各种紧张关系将在下文关于理论的作用、含义及获得等的讨论中展开。将分析框架作为理论,有助于法实证研究的批判和自我批判,以避免将某些经验概括或学说观点当作教条。
然而,如前所述,法的实际样态内含的事实与价值(规范)、一般与个别并不是非此即彼的,法实证研究的分析框架也并非通过线性思维发展出来的,而是——借用考夫曼讨论法律获取时使用的术语——通过一种在实证资料、学说资源、问题意识之间目光往返流转的等置模式获得的。这种差异引发了许多实证研究,这些研究呈现出法官工作负荷的实际状况、案多人少的地区差异性以及人力资源配置、司法体制、程序设计等多方面组成的结构性成因。第一修正案保护的是言论(speech),而非演讲者。
消费机器人涉及的欺骗问题。也就是说,保护言论的重心在于表达权对人类听众(而非包括机器在内的演讲者)的价值,这才是人工智能言论保护的真谛。一方面,围绕安保机器人、自动驾驶汽车和消费机器人正在呈现出来的损害或危险进行刑事责任研究。第一,无人机的注册应从制造商开始,生产的每架无人机均应有序列号。
是否在了解无人机操作知识或收到了警示的情况下,仍采取不理智或不合理行为。对人工智能犯罪行为的过度反应,有可能削弱对刑法的认识,导致刑法对人类的伤害。
相比之下,我国学者虽然列数了人工智能对民法带来的诸多挑战,涉及民事主体、人格权、隐私权、肖像权、数据财产、知识产权、侵权责任等,也提出了一些具体方案。Clive则凸显了这一意义——如果Clive为房地产雇主工作,却因为有自己的想法而决定在工作以外行事,谁应承担责任?当前的代理法可以解决此问题。当然,人工智能毕竟与法人和动物不同,它可以独立存在、无须干涉,并且具有理性。显然,约束安保机器人设计者乃至研发制作安保机器人行业的准入,都是亟待解决的法律问题,之后也必然会产生追究这个领域的恶意和随意行为的刑事责任问题。
这些丰富的研究内容,将给我国学界带来更多有价值的启发。但在特定利益群体面前,一些州的此类努力归于失败。这实际上是人工智能体分担甚至取代了开发者和制造者的责任,有利于人工智能技术的创新。然而,由于联邦监管法律的局限性,美国联邦航空管理局尚缺乏对业余爱好者的要求。
为回应保护团体和公众的诉求,过去几年间各州都在不同程度上出台了相关法律。总之,人工智能是将通常需要人类智慧的任务加以自动化的技术。
(4)对人工智能机器网络的过度依赖会使人类思考能力下降。由此看来,各州倒是有余地做出更多限制性规定。
然而,联邦法律未授权美国联邦航空管理局颁布涉及上述内容的法律法规。二、美国学者对人工智能宪法问题的研究 亚利桑那大学宪法学教授托尼·马萨罗等指出,带有交流功能的人工智能会推动规定言论自由的美国宪法第一修正案的改革。苏尔登指出,法律界应用人工智能的尝试早已有之,在20世纪70—90年代,主要是运用知识表示技术,通过计算机对立法和司法过程进行模拟。随着技术在普通执法中的普及和日渐强化,执法活动的类型归属及其合法性问题也将会更多地摆在法官面前。据此,这门新的技术科学的成果就是对人类智能的模拟、延伸和扩展。此外,附带的问题还包括:如果自动驾驶汽车行驶过程中遇到突发情况而需要人来接管,但乘客是没有驾驶资格或者是醉酒的人,这些人能否接管?一旦这些人接管导致了恶果,该如何分配责任?没有父母陪伴搭载自动汽车上学的未成年人接管汽车或不当操作,应当由谁承担责任?警方能否强迫驾驶异常的自动驾驶汽车靠边停车?自动驾驶汽车所使用的信息能否用于刑事诉讼?自动驾驶汽车被黑客控制时,车上乘客是否有义务进行有意义的操作(operating in a meaningful way)? 斯坦福大学研究员伍德罗·哈托格对恶意利用消费者的机器人(robots for consumers)侵害消费者权益的情形进行了研讨。
我们认为,这种贯穿人工智能体运用全过程的扫描式研究值得提倡,也值得我国学界借鉴。可见,美国学者十分关注人工智能涉及的宪法问题,就人工智能是否享有公民的基本权利展开研究,重点讨论并肯定了人工智能的言论自由权利。
值得肯定的是,我国学者也注意到了人工智能领域的一系列宪法问题:人工智能会不会改变人的概念?人的主体性在人工智能面前能否继续坚持?人的道德判断会不会被解构进而被否定?自由、平等与民主等一系列基本价值是否会被削弱?要控制科技的非理性,在发展科技的同时保护人的尊严,把风险降到最低,我们必须要选择一个制度安排,这就是宪法治理,否则,一百年以后我们将面临无法想象的社会。(6)人工智能会给个人隐私、集会等基本权利的实现带来挑战。
显然,美国学界多年从科技创新实践中积累的演绎能力也支配着法学领域的研究,往往将科幻式的自然和社会场景推向真实。这涉及如何定义可预测性以及预测的内容。
第四,在受害者起诉所有者的情况下,所有者若要解除自己的责任,须向法院提出申请,要求并证明操作者才是被告。既然全自动机器能够像人类一样自主思考和行动,那么一旦违法该如何适用法律?由于机器的行为没有体现人的意志,追究人类主体的责任不合逻辑。华盛顿大学法学院副教授瑞安·卡洛指出了人工智能会带来技术风险——影响网络安全。当前的过错责任要求因果关系追溯到后者(即操作员)。
罗斯伯格同样是用公司人格理论来支持Clive拥有财产。那么,通过智能系统在公共场所对人和车进行识别,也涉及搜查及其合法性问题。
不过,做出这一论断的时间是20世纪90年代初,距今已近30年,当今,人工智能成为法律主体日益具有现实性。研究角度的契合,也为中美两国人工智能刑事法律问题的交流提供了前提。
该文中,强人工智能被称为经认证的智慧生命体(原文表述为Clive,全称为certified living intelligent valued extraterrestrial)。安保机器人带来的攻击和防卫问题。
但更多学者认为,至少一些或部分机器的输出可被视为言论,因为它们会产生知识。这些研究成果视野开阔、范围广泛、内容具体,展现了较强的理论逻辑和学术想象力,值得借鉴。正如乔治敦大学法律中心的大卫·维戴克(David C. Viadeck)教授所总结,目前机器做出的决定,都可追溯到设计者、编程者和其他人,它的进程由人类加以定义、引导并最终控制,无论其多么复杂,也只是由人类使用的工具。他引述牛津大学未来主义者尼克·波斯特洛姆教授对全自动机器的说明,即能够拥有独立的主动权,能够制定它们自己的计划……或许把它们视为人而非机器更为合适。
其四,替代责任的犯罪。第三,以纯粹理性对人们的行为进行法律判断,难免忽视个体经验、潜意识、第六感等重要的感性作用。
针对这两个研究视角,有美国学者指出,至少在可见的未来,人工智能并不对人类构成威胁。那些设置了弹簧枪却没有设置警示的人,如果其行为造成了伤亡,应承担责任。
本特利还拟出了有关无人机监视的具体立法议案,包括对执法部门使用无人机的限制(用于搜查的期限、程序、场合、抗辩),数据保留的限制(时间、保存要求、检索程序、使用),基于无人机平台的技术限制(感官增强技术、武装设备)等。这很值得习惯于法律注释学的我国学者借鉴 进入 夏勇 的专栏 进入专题: 美国学者 人工智能 法律 权利 责任 。