来源:法治周末
2016年7月2日,法国巴黎,谷歌无人驾驶汽车在Viva科技大会上亮相。视觉中国
对AI的相关法律研究要避免闭门造车、局限于法律的范畴之内,应借鉴哲学、伦理学、社会学等学科的研究
于海防
历经数次寒冬,人工智能于近年复兴,并已进入寻常百姓家。法学界已经开始了对人工智能法律问题的研究,多针对不同领域中的具体问题,如机器人、驾驶、作品、人格、算法、金融、犯罪等,观点纷纭。
一些疑问也随之而来:人工智能技术与计算机技术并行发展,至今已约60余年,人工智能法律问题为何近年才大规模产生呢?人工智能与计算机、网络、大数据、云计算等技术发展关联紧密,那为何人工智能法律研究与网络法律研究(包括计算机、网络、电子商务等)却呈现出巨大差异,甚至语不惊人死不休、动辄否定传统法呢?人工智能法与网络法应当是何种关系?
AI与IA两大阵营
事实上,计算机、网络、虚拟现实、大数据、云计算、物联网、区块链、人工智能等数字计算技术虽各有不同,但统一于机器智能的宏观维度。美国知名哲学家约翰·塞尔提出的弱、强人工智能的分类被广为接受,当前的人工智能处于弱人工智能阶段。照此分类,1946年,人类历史上的第一台数字计算机”ENIAC”以及当前使用的第四代计算机拥有的是极弱智能。
不论是弱智能,还是极弱智能,都是数字化计算机器所拥有的区别于其他机器的对任务进行或简单或复杂的二进制自动化计算能力,只是类型有所不同。既然具有统一性,人工智能法律研究与网络法律研究为何呈现割裂呢?笔者以为,这可以溯源至人工智能技术与智能增强技术两大阵营长时间以来的对立。
图灵分别在1936年、1950年奠定了计算机科学与人工智能科学的理论基础。人工智能(Artificial Intelligence,以下简称AI)概念由麦卡锡等于1956年提出,智能增强(Intelligence Augmentation,以下简称IA)概念则由恩格尔巴特于1962年提出(麦卡锡和恩格尔巴特都获得过计算机科学领域的最高奖,即图灵奖)。
AI阵营其实一直遵循了图灵所提出的”机器能够在所有纯智能领域同人类竞争”的设想,目的是通过提升机器智能使机器能够代替人类从事相关活动,而这也正是人工智能魅力所在。然而,IA阵营不认同AI通过计算机模拟人类智能、替代人类的理念,其认为计算机应用于改善和增强人类的智慧、能力,强调以人为本,主张人机交互、人机共存。
约翰·马尔科夫的《人工智能简史》一书完整介绍了两大阵营在技术与理念上的对立与冲突。AI与IA在替代人类与增强人类上的理念对立导致二者具有不同的技术思想与设计进路:AI以机器为中心,更关心机器本身,会淡化甚至排除人的参与;IA以人为中心,更关心人与机器的互动,会保证人的参与、控制。
现今的无人驾驶与辅助自动驾驶的设计差异便呈现出这种差别。前者属AI,机器替代人类驾驶,人基本没有驾驶决策权,机器是驾驶设计的中心,人被排除在外。后者属IA,机器辅助人类驾驶,人有驾驶决策权,人是驾驶设计的中心,人机互动、人机结合是驾驶设计必须要考虑的。在谷歌研发的无人驾驶汽车中,甚至连供人使用的油门、刹车都没有。
“去人类化”带来种种疑难
IA极大地推动了计算机与网络的进步。IA代表性人物恩格尔巴特最广为人知的是其发明了鼠标,但其领导的团队、公司连续推动了计算机、操作系统、应用软件、用户界面的进步,提升了人机交互水平,开发了超文本系统(至今仍是网络的根基),推进了阿帕网(因特网的前身)的形成。此外,虚拟现实、智能网络搜索及电子商务的发展也与IA有着密切关系。
而IA法律问题随着计算机、网络、电子商务的发展而逐步显现。大约在上世纪80年代,个人计算机的成熟催生出计算机法律问题;网络与电子商务在上世纪90年代的兴起,网络与电子商务法律问题也随之而来;大数据、云计算与区块链等技术在21世纪初的发展也促生出诸多法律问题。
这些领域的机器智能均为极弱智能,均奉行增强人类能力、提升人类劳动效率的宗旨,相应法律问题的产生逻辑相似。也正是在此意义上,这些法律问题可以统归为IA法律问题(即智能增强法律问题)。事实上,网络法所针对的大致上便是IA法律问题,遵循了传统的主客二分,人仍然居于中心地位。
IA融入了计算机的发展,而AI则独立性较强,其高度融合了工程学、神经科学、哲学等学科。符号主义(通过形式化的知识表征来再现大脑)范式在上世纪60年代便开始在一般层面上模拟人类智能,开发通用方法来解决广泛的问题,但因算力不足、技术范式缺陷等原因,AI在上世纪60年代末陷入低谷。
专家系统、知识工程推动了AI在上世纪70年代的发展,联结主义(通过模拟神经网络来构造大脑,)范式、行为主义(通过模拟生命的自适应机制来进化出大脑)范式在上世纪80年代兴起,但均未取得令人瞩目的成就。上世纪90年代,伴随着第五代计算机的研制失败,AI再次陷入低谷。
进入21世纪后,随着网络、大数据、云计算等重要技术的成熟,AI获得了新的驱动力,立基于不同基础的符号主义范式、联结主义范式、行为主义范式得以集成、混合。近年来,AI的智能水平提升迅速,甚至在人类传统智能优越领域多次击败了人类智能,并向多个领域渗透,一定程度上替代了人类岗位,并有更大规模替代的可能,种种伦理与法律难题由是而生。
可以看出,前期AI本身的技术缺陷、较低的智能水平、较为狭窄的应用、对社会影响的微弱是AI前期未产生法律问题的原因,快速提升的智能水平与越来越多地替代人类是AI近年来快速催生法律问题的原因。AI的本性便是去人类化的,以无人参与的闭环自动化为技术指向,在其技术架构中可以没有人类的存在。在此类法律关系模型中,机器地位上升,人类从中心地位退出,这有悖于传统的主客逻辑,也有别于网络法逻辑,由此产生种种疑难。
但需要指出的是,区别于IA技术,诸多AI技术并不成熟,法律问题显现不完全,许多问题尚停留在”可能”的层面。
应警惕AI之恶
实际上,AI与IA具有辩证统一的关系,二者既是对立的,又是相互促进的。在各种技术交融集成的背景下,有时甚至难以判断某项技术究竟是AI还是IA。
譬如苹果公司研发的Siri,其作为智能语音助理,主要是作为IA增强人类对计算设备的使用,但其使用了自然语言处理等AI技术。又如IBM公司的产品Watson,IBM首席执行官吉尼·罗曼提曾撰文指出Watson既不自主,也不能感知,实属IA,但IBM在推广中仍然使用AI的概念。
AI与IA的辩证统一还表现在,AI在替代人类的同时也在增强人类,IA在增强人类的同时也在替代人类,有时二者还会交融于特定场景。这种辩证统一关系使得AI与IA在法律问题上既有区别,又有联系。
区别体现在:AI是去人类的,AI法律问题往往也源于这种去人类化属性,如IA自动驾驶与AI无人驾驶中的责任分配明显不同;联系体现在:二者存在大量重合问题,如意思表示、电子合同、数据保护等,这些法律问题的产生逻辑与技术是增强人类还是替代人类关系不大,大致适用既定的网络法。
以意思表示为例,不少观点认为AI可以作出独立意思表示,并将之作为AI应被赋予人格的一个论据。但是,自动售货机、银行柜员机等非智能技术早就可以作出这种所谓独立的意思表示。在电子商务兴起之初,平台方所作意思表示就是独立的,网络法早已解决这一问题。
至今,AI的成就仅限于形式化领域,在意向性领域AI依然一无所获。AI不可能作出”独立”意思表示,其意思表示均是控制者意志的体现。因此,AI只是自动作出意思表示,而非独立作出意思表示。从另外一个角度来看,AI作出”独立”意思表示,必然意味着AI脱离了人类控制,那么人类是否应当允许AI脱离人类控制?这个问题不难回答。并且,这种逻辑可以适用于诸多AI法律研究。
AI对人类社会的贡献在于替代人类,但不论猜测还是推测AI能够发展到何种高度,AI对人类的替代应当是部分替代,在整体上仍然应当坚持增强人类。
试想,人类连非智能的网络都无法保证安全,又如何能保证智能机器是安全的?目前已经出现了将人类事务交由AI进行机器决策的情形,如果任由这种情形继续发展,通过数据对个体进行画像,人类将彻底丧失隐私,将可能沉沦于机器控制之下。这不是一个”好还是不好”的问题,而是一个”应该还是不应该”的问题。
目前,大规模出现的”反刷脸”便表明了多数人的担忧。即便技术具备内在的发展逻辑,有更高的发展可能,也不能自主地展开,而是应该受到制约,尤其是具有危险性的技术,如克隆人等,AI亦属此例。
因此,AI与IA实际上统一于宏观上的增强人类。在笔者看来,AI法律问题在承继了部分IA法律问题的基础上又进一步发展,二者有着内在联系,人工智能法与网络法均属机器智能法,二者既有独特性,又有协同性。
当前法学界的许多研究其实追随了技术决定论,割裂了人工智能法与网络法间的内在关联,对AI技术只是顺应而未矫正,对AI之恶缺乏必要的警醒,走向了整体替代人类,其中典型便是认为AI具有人格。
AI人格问题在更大程度上是哲学、人类学、政治学、伦理学与社会学层面的问题,事关人类族群整体利益,牵涉极为广泛,绝不是一个单纯的法律问题。
AI系列法律问题应当在AI不具有人格的前提下进行研究、解决,这意味着在局部替代人类、整体增强人类的价值取向下,主客二分的传统法律体系完全可以容纳AI,也意味着政策、法律对于AI不仅是促进,还应是矫正与制止。对AI的相关法律研究要避免闭门造车、局限于法律的范畴之内,应借鉴哲学、伦理学、社会学等学科的研究。
(作者系烟台大学法学院教授)
责编:王海坤