法律一般不对实践中没有定型的经验、社会中没有成熟的关系进行调整。就人工智能发展的阶段而言,一般认为存在着弱人工智能、强人工智能和超人工智能三个阶段。目前人工智能的发展仍然处于弱人工智能阶段,因此当前并不能够制定出关于人工智能的完整的法律制度。
人工智能的法律规制需要和具体的领域结合起来,在每一个细分领域里,存在着不同的规制方法、进路和手段。电子商务将互联网的技术运用于商业领域,政府监管的重要目的在于促进竞争和反垄断,保护消费者权利,维护市场秩序。人工智能广泛运用于医疗领域,相关数据往往属于个人敏感数据,政府在设计监管模式的时候,必然采取高准入、严许可的进路。
规制人工智能的立法进路
就人工智能的法律应对而言,我国目前更多的是从产业政策促进、扶持和发展的角度对人工智能提供行政指导。2017年国务院发布的《新一代人工智能发展规划》突出地反映了这一思路。
在监管层面上,目前对人工智能的法律规制在电子商务、数据安全和智能投顾领域的立法中已经有个别条款分别涉及。《电子商务法》规定,电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其推销商品或服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。这是在法律层面对大数据算法杀熟的回应。此外,《电子商务法》第40条规定,对于竞价排名的商品或服务,应当显著标明“竞价”。
规章层级的《数据安全管理办法》(征求意见稿)也对算法进行了相应的规制。《办法》规定,“网络运营者利用大数据和人工智能等技术,通过算法自动合成的新闻信息、博文、帖子、评论等,应当以显著方式表明‘合成’字样。”对于算法推荐的规制,除了披露义务之外,规范信息流程、报备模型参数、违规行为惩处等长效机制都是法律制度设计需要考量的要素。
2018年3月28日,中国人民银行、银保监会、证监会、外汇局联合发布《关于规范金融机构资产管理业务的指导意见》(以下简称“指导意见”)。该指导意见对人工智能在金融领域的应用进行了规制,从胜任性要求、投资者适当性以及透明披露方面对智能投顾中的算法进行穿透式监管。
《指导意见》明确,运用人工智能技术开展投资顾问业务应当取得投资顾问资质。除了要遵守一般性规定外,还应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑,为投资者单独设立智能管理账户,充分提示人工智能算法的固有缺陷和使用风险,明晰交易流程,强化留痕管理,严格监控智能管理账户的交易头寸、风险限额、交易种类、价格权限等。
《指导意见》强调,因算法同质化、编程设计错误、对数据利用深度不够等人工智能算法模型缺陷或者系统异常,导致羊群效应、影响金融市场稳定运行的,金融机构应当强制调整或者终止智能投顾业务。
在监管手段上,金融监管部门对智能投顾的法律规制采取了组合拳的方式。智能投资顾问是投资咨询机构业务的延伸,投资咨询机构应当被识别为受托人,承担信义义务和合规义务。
在监管方式上,金融监管部门运用监管科技应对金融科技的兴起。金融机构在利用智能投顾开展资产管理业务的时候,必须要获得行政许可、获得资质;报备模型参数、实现算法透明和算法可解释性;制定预案、适时人工干预。
人工智能的司法规制
这里在讨论人工智能规制的时候,将不去区分人工智能和算法之间的区别,将它们作为同一概念处理。美国联邦法院和州法院在判例中或者将算法定性成商业秘密,或者在关于搜索引擎算法的判决中,将它看成是言论,在学者中激起了广泛的争论。
算法作为言论
2003年的Search King v。 Google- Tech。,Inc。案中,俄克拉荷玛州法院认为,网页排名是一种意见,搜索引擎根据算法生成的结果是它的言论。四年之后,Longdon v。 Google案中,联邦地区法院也支持了算法是言论的主张。
就搜索引擎算法是否是言论,在理论上仍然有激烈的反对意见。更进一步的问题在于,即使司法对此已经给出了正面的回答,这一定性是否推广到所有领域的算法仍然是悬而未决的问题。
算法作为商业秘密
在美国刑事诉讼领域,算法广泛运用于预测个体是否会重新犯罪,以及是否到庭,从而影响定罪、量刑以及保释。这种做法,在算法的准确性、算法考虑不相关的社会因素以及算法的正当程序三个方面引发了普遍的质疑。
在State v。 Loomis,881 N。 W。 2d 749一案中,鲁米斯因驾车枪击案而遭受刑事指控。威斯康星州法院在量刑的时候基于COMPAS的评估判处鲁米斯六年监禁外加五年监外执行。鲁米斯以侵犯了他的正当程序权利和平等保护权为由提起上诉。威斯康星州最高法院认为,性别作为参数进入算法,其目的是为了算法准确性而非为了歧视,因此没有侵犯被告的平等权。其次,COMPAS所分析的数据依赖于公开的刑事犯罪记录和被告提供的数据。最后,由于评估结论并非法院量刑的唯一依据,法院所要求的个别化对待的权利得到了保障。
在算法公平和商业秘密之间,法院在这个案件中站在了商业秘密一边。这一司法立场有助于促进技术创新和人工智能产业的发展。但算法公平性的问题仍然悬而未决。
当认为算法会带来歧视性的结果的时候,根本原因在于作为算法基础的数据中隐含着民族、种族和性别的偏见。Anupam Chander认为有效的补救措施应当是,设计算法的时候必须考虑到现有数据中潜藏着的歧视。Danielle Keats Citron和Frank Pasquale主张,监管者应当可以检测系统以确保其公平性和正确性,个人有权要求纠正对他们进行错误分类而带来不利影响的机器决策。
人工智能的源头规制
欧盟《一般数据保护条例》通过访问权、修改权、删除权、可携带权等具体权利的规定确立了个人数据决定权。除了可携带权有利于在人工智能企业之间形成竞争、促进产业发展之外,其他的权利都对人工智能的发展构成了直接的限制。
《条例》更赋予数据主体以免于自动化决策的权利。《条例》21条明确规定:“数据主体有权根据其特殊情况,在个人数据被处理的过程中行使反对数据画像的权利。”第22条进一步明确,如果某种包括数据画像在内自动化决策会对数据主体产生法律效力或者造成类似的重大影响,数据主体有权不受上述决策的限制。
根据第29条工作组指引,在下述情形中,不得使用自动化决策。比如解除合同;对法律所提供的某一具体的社会福利的获取或丧失;婴幼儿补贴或住房补贴;拒绝入境某个国家或者是否认公民身份。上述情形具有的共同特点就是自动化决策已经影响到行政相对人的权利义务。
除了第21条的规定之外,《条例》“序言”第71条规定,数据主体应免于受制于自动化处理手段对其个人进行精准评价,以及对其产生法律效果或重要影响的情况。任何情况下,这些数据处理应当有适当的保护措施,包括获得认为干预的权利、表达观点的权利、评估后达成决定的解释权以及获得救济的权利。
《条例》区分一般数据和敏感数据,对后者进行更为严格的保护。第9条明确,除非各成员国立法授权,辨识种族或民族出身、政治观点、宗教或哲学信仰、工会成员的个人数据以及以识别自然人为目的的基因数据、生物特征数据、健康数据、自然人的性生活或性取向的数据的处理应当禁止。
《条例》所确立的数据最小化原则对人工智能行业的发展有直接的影响。企业必须阐明它们为什么需要收集和处理数据,以及它们进行数据处理获得了什么成果。对数据的监管实际上从源头影响到人工智能行业的发展。
需要修改现有法律
人工智能技术的发展为法律规制提出了现实要求,而法律领域也越来越深刻地受到人工智能的影响。
《一般数据保护条例》的默认隐私原则展示了大数据时代人工智能技术对于立法行为的本质性改变,我们可以将法律所追求的价值和原则嵌入式地植入产品中。法律规制体系也将从对事物的规制转变成对代码的规制。
就司法而言,通过智慧司法提升司法效率,促进司法公平。最近增设互联网法院更是将其意蕴拓展到了网络治理主权的层面。就司法领域的人工智能而言,如何以平等原则和正当程序回应算法歧视和算法黑箱将是司法人工智能领域的持久性话题。
在执法领域,因为自动化决策的普及,将会出现法律的自动执行。2018年,深圳就普通高校毕业生落户深圳实现秒批(无人干预自动审批)。大量行政法上的程序权力被自动化决策所架空,这需要加强自动化决策方面的行政立法,以实现人工智能的运用和公民权利保护的平衡。
总的来说,并不存在关于人工智能的一般化的法律规制。相关的法律规制应当是和具体场景结合起来的,存在立法、司法和技术的三种形式。
通过以上法律规范的分析,初步勾勒出我国对人工智能进行法律规制的路径。总体来说,人工智能时代+的特点并没有能够很好地反映到立法中。当务之急是修改现有的法律,使得它能够兼容大数据和人工智能技术在具体领域和场景中的应用。《证券法》第171条《证券投资顾问业务暂行规定》第12条规定,证券投资咨询机构不得代理委托人做出投资决策。因此,智能投顾和禁止证券投资咨询全权委托的规定存在冲突。《民事诉讼法》也需要进行修订或出台互联网管辖方面的司法解释,使得互联网法院的管辖、审理、送达等具体运作的环节上能够实现网上受理,网上审理,网上执行的目标。《道路交通安全法》需要进行相应的调整,以兼容现有的无人驾驶技术。