​人工智能算法的法律审视及规制

2022-6-8 19:24| 发布者: uo112t47mueuqe| 查看: 1750| 评论: 0

这里是默认签名
作者:
顾伟(上海市徐汇区人民检察院第三检察部副主任)
郭弘(司法鉴定科学研究院声像与电子数据鉴定研究室副主任,正高级工程师)
陈朝铭(上海市徐汇区人民检察院第三检察部检察官助理)
内容摘要:人工智能是引领新一轮科技革命的颠覆性技术,正引发链式突破效应,推动经济社会各领域从数字化、网络化向智能化加速发展。在人工智能的虚拟世界里,算法按照自己的逻辑和规则,决定着海量信息数据的处理、主体身份的识别、共享平台的构建等,并越来越多地参与各种商业和行政自动化决策,给人们带来巨大福祉的同时,也催生了过度采集用户信息侵犯隐私、大数据杀熟、不当操纵流量分配、深度伪造等各类全新的安全风险。算法对于现有的法律理论和规范,特别是责任主体、因果关系和权利维护等方面,也带来前所未有的现实挑战。本文从算法的数字机理切入,揭示了算法的运行本质,并聚焦算法衍生的风险挑战,引出算法规制的相关重难点问题。由此提出法律规范的科学有效供给,政府行政监管和行业道德自律等方面联动互促,以推动人工智能智能算法既“守法”也“守善法”。
关键词:人工智能算法 算法风险 法律审视 规制路径
2020年9月,《人物》杂志一篇题为《外卖骑手,困在系统里》的深度报道,引发了公众对算法伦理的重视。“困在算法里”的外卖平台骑手们,面对不断压缩的订单送达时间,他们没有选择,只能遵循算法的设计逻辑,在现实的道路上与死神赛跑。一些法学界专家担忧在算法面前,人变成了工具,沦为被操控剥削的对象。诚然,在5G互联、大数据、云计算、脑科学等新理论新技术的驱动下,人工智能应用加速发展,呈现出深度学习、跨界融合、人机协同、自主操控等新特征,而算法作为人工智能的核心要素,在交通出行、医疗服务、身份识别、媒体推介等场景为用户提供便利的同时,也挑战着公民知情权、个体隐私权、公平交易权及网络空间秩序保护,甚至影响法律的公平正义。就在今年3月,第十三届全国人大四次会议审议通过了《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》,明确“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。由此可见,人工智能领域的安全稳定发展需要法律的规范引领,而笔者认为关键就在于算法的法律规制,如何让算法守法,让算法守善法,亟需在理论层面进行探讨。
一、揭开算法“面纱”:洞悉算法的运行逻辑及法律性质
人工智能的时代发展离不开数据、算法和算力,三者之中数据是基础,算力是计算支撑,而算法是核心驱动力,在机器学习、自主判断、智能决策方面占据了举足轻重的地位。随着人工智能技术的普及运用,越来越多的民众对于未知的“机器崛起”和“算法霸权”表示担忧和恐惧,来自政治学、社会学、应用哲学、计算机科学等多个学科专家,相继就人工智能算法规制开展了学术探索,法学界对此也进行了广泛讨论,并达成共识:智能算法已经对现有法律框架造成冲击。当然,在分析算法规制之前,首先需要对算法进行界定,只有理解算法背后的数学原理、透析算法的法律性质,才能更好地去研究法律规制问题。
(一)智能算法的相关概念
早在1950年,“人工智能之父”艾伦·麦席森·图灵提出了“图灵测试”的假想计算机模型,在事实上具象化地描述了算法。现代语境中,“算法”常作为“计算机算法”的代名词,因广泛应用于人工智能领域,便诞生了“智能算法”的表述。从学术角度看,算法源于信息和计算科学,主要用于解决数学与计算科学难题的一系列规则,涉及概率论、统计学、逼近论、凸分析等多领域交叉的知识,诸如数论与代数算法、图论算法、加密算法、排序算法、检索算法、随机森林算法等。从技术应用角度看,算法是一种计算机软件技术规则,是为完成某项任务在设计软件时所嵌入的数字化流程或者规则,通过路径、机制的设定,运算出相应的结果,从而实现类似人的预测、推理及决策的方法,有的学者将算法界定为一系列“解决问题的清晰指令”。目前主流的算法基本面向机器学习领域,而机器学习算法主要包括传统算法和深度学习算法,其中深度学习算法作为机器学习算法的一小部分,近年来凭借一己之力推动了人工智能领域井喷式发展。
(二)智能算法的运行逻辑
如果把人工智能算法比作一个圆,那么机器学习算法内含于人工智能算法,深度学习算法又是隶属于机器学习算法的一种。
第一,机器学习算法是实现人工智能的重要途径。机器学习算法是通过循环往复的反馈不断提升自身性能,受益于计算机和网络技术的更新迭代,机器可以利用云服务器上收集、存储、处理的海量数据集,不断训练与优化算法模型,以此解析数据、从中学习,并对真实世界中的事件作出决策和预测。传统的算法从学习方法上可以分为监督学习、无监督学习和强化学习,包括决策树、聚类、贝叶斯分类、支持向量机等等,本质上都是把数学原理用计算机程序进行表达的一系列方法。比如,我们网上购物时,经常会出现商品推荐的信息,这是平台算法根据冗长的购物记录和收藏清单,识别哪些是用户感兴趣且愿意购买的产品;再比如,我们浏览某头条网站,用户点击某类信息的频率越高,网页推送相关内容的概率也相应提升。其实都是利用算法不停聚类和降维分析我们的数据集,直到读懂用户、透视用户。
第二,深度学习算法是实现机器学习的关键技术。深度学习算法源于人工神经网络的研究,它使用了分层次抽象的思想,模拟人类大脑神经网络的工作原理,通过搭建多层神经网络分别处理不同层的信息,以模仿人脑的机制来解释数据。深度学习的主要框架包括卷积神经网络、深度置信网络、递归神经网络等,至今已有数种深度学习框架被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。如今,无论是产品导购系统、癌症诊断系统、ct影像读片系统、个人贷款审核系统,还是无人驾驶操控系统,抑或电影推荐、最优投资策略,都有深度学习算法的贡献。在深度学习领域,程序员往往不再需要指定算法模式来解决问题,算法会以不同的方式评估训练数据集,找出真正起作用的模式,这些模式连人类程序员都不一定会意识到。比如,谷歌的无人驾驶通过学习大量司机驾驶视频,就会懂得如何在公路上平稳行驶,而背后并没有哪位工程师会编写算法,一步一步指导他该怎么走。
(三)智能算法的法律性质
一直以来,法学界围绕“人工智能是否具有独立意志”的问题进行了研究讨论,并将人工智能划分为弱人工智能和强人工智能。他们认为,弱人工智能不具有辨认和控制能力,其实现的是算法师程序员的意志,具体到算法有言论说和商业秘密说;而强人工智能除了具有弱人工智能的功能外,还能够超出算法设计的程序范围,实现自身的意志。对于弱人工智能,学界有观点认为算法是一种科学技术或工具,在价值上是完全中立的,法律只需对算法产生的后果进行应对,而不需要对算法本身进行法律规制;也有观点认为技术虽是中立的,但算法本身不是中立的,算法融入了设计者的灵魂与价值选择,所以算法问责与规制的基础仍在于将算法运营者置于规制的中心。对于强人工智能,关于算法法律的本质一直没有明确定论。那么,问题在于是否存在一种“终极算法”推动强人工智能时代的到来?笔者认为所谓强人工智能时代的“奇点”虚无缥缈且很难实现,人工智能算法在处理问题上可能无限接近于人类大脑,但无法像人类大脑那样具备情感和意志。就拿AlphaGo战胜世界围棋冠军这样一个标志性事件来说,虽然人工智能看似在智力方面超越了人类,但AlphaGo赢下棋局的背后是海量数据和算法公式的运转,AlphaGo的算法基于超过3000万手专业围棋棋手的走法,使用机器学习算法为自己编写出了规则,一秒钟内通过暴力计算几亿个棋位,最后选择最可能取得胜利的走法,本质上仍是深度学习算法的优化。因此,当前探讨强人工智能时代算法的法律本质不具有现实可能性。
对此,本着法学研究应当致力于解决当下民众最关切的社会问题的原则,下文重点基于当前人工智能时代的算法规制问题进行探讨。
二、算法沦为“算计”:智能算法崛起引发的风险与挑战
放眼当下,我们正在进入一个“算法”的时代:银行可以基于收集的海量数据决定是否给予贷款申请;智能手环通过血液流速和心跳评估个人身体状况;智慧医疗用算法检测隐性疾病比医学专家更高效……可以说,算法已经涉足大众生活的方方面面,然而我们可能还未意识到自己却深陷算法的漩涡:算法会对我们的兴趣进行画像,并利用大数据决定展示给我们什么广告;移动媒体利用算法这个“读心术”,将观点相近的内容反复推荐给用户博取“眼球经济”;电商平台利用算法对消费者进行价格歧视从而“杀熟”……算法这把“双刃剑”,既助推了人工智能革新发展,也带来了技术滥用、信息安全、隐私泄露、法律伦理等问题。
(一)重定向广告与隐私保护
重定向广告指的是网络服务商对消费者隐私数据包括性别、住址、联系方式、文化层次、就业状况、收入水平、消费倾向等进行算法推算和数据画像,从而决定为消费者推送相关广告。应当看到,个性化精准投放广告为用户提供更多选项和便利的背后,是个人隐私在大数据时代裸奔的现实。特别是随着移动定位、人脸认证、虹膜识别、智能穿戴等技术应用,网民以让渡隐私权的方式助力少数网络巨头进入私人空间,智能算法大规模不间断收集、整合、加工、提纯个人敏感信息,有的终端流量和行为数据在不同系统和算法中共享流通,甚至在用户毫不知情的情况下被违法复制、售卖,公民个人信息和隐私被透视和侵犯的风险大大增加。此前,国内某网络公司透露其拥有每个人过去十几年来的脸型变化,几乎可以预测用户老年时候的样子,此番言论在网上引起轩然大波,央视“3.15”晚会上曝光的“人脸识别技术被滥用”的报道,也引发社会对如何平衡算法和保护隐私的思考。
(二)算法偏见与公正平等
算法依靠机器学习技术对用户个人数据(包括收入、学历、年龄、性别、职业等)进行分析,进而生成自动化决策,当数据的收集、程序的编写嵌入设计者的主观价值判断,或者用于训练的数据本身带有歧视性信息时,就会引发算法偏见(也称算法歧视)。国外关于算法偏见的问题时有发生,比如谷歌为男性提供的高薪工作广告比女性要多,COMPAS软件用算法预测黑人二次犯罪比白人更容易遭到再犯误判等等。这些年,国内关于算法偏见的研究也日趋白热化,2019年世界人工智能法治论坛发布的《人工智能安全与法治导则》,明确把算法偏见作为人工智能算法安全的关键问题。文章开头提到的外卖小哥被算法围困的现象也事出有因,在当前外送平台纷纷追逐利益最大化的背景下,算法工程师们琢磨着如何把骑手的潜能挖掘到最大、如何把风险转嫁给最没有议价能力的弱势群体,这样的算法偏见显然把骑手锁进了不公平里,也无法保证道德向善和技术向善。此外,当前热议的智慧审判系统也可能会带来算法偏见问题,例如,单纯地通过智能算法可能判定低学历、有前科的人更容易犯罪,这种代替法律推理形成的结论可能有违司法公正的制度设计,造成赤裸裸的歧视。
(三)过滤气泡与网络暴力
“过滤气泡”的概念由互联网活动家帕里泽提出,算法系统根据用户的个人信息和阅读行为,精准化过滤我们“不感兴趣”“不认同”的信息,固化知识获取的渠道和类型,带来“信息茧房”效应,造成网络时代的信息闭塞。表面上看算法只是过滤我们的消息流、时间轴和搜索结果,让用户对关心的话题“一次看个够”,实际上算法过滤也带来了同质化信息、庸俗化内容、虚假性消息的问题。当用户深陷“越用越懂你”的循环之中,会不自觉地满足于被动的、碎片化的知识积累,禁锢在自我验证的观点中,削弱了探索、选择和作出判断的能力。同时,过滤算法也极易加剧舆论危机产生的风险并诱发舆论暴力,造成回声室效应。比较有代表性的就是剑桥分析公司通过算法识别潜在的投票人,通过定向投送信息,诱导人们强化政治立场、支持特定个人,导致不同人群的意见极化,从而影响美国大选结果。今年“两会”被写入最高检工作报告的“杭州女子拿快递被造谣事件”,之所以在网络空间不断发酵,无外乎是新闻媒体利用算法实现最大推送量,误导网民在“偏信”中无法自拔。
(四)深度伪造与刑事风险
2021年3月,国家网信部门、公安部针对涉“深度伪造”技术应用依法约谈了11家企业,深度伪造由此进入大众视野。深度伪造技术,是指基于AI技术,利用“生成式对抗网络”的深度学习算法,实现图像、声音、视频的篡改、伪造和自动生成,产生高度逼真且难以甄别的效果。该技术虽然可以被运用于趣味视频、广告合作以及历史人物影像重现中,但恶意滥用有可能成为实施色情报复、商业诋毁、电信诈骗、网络攻击等非法行为的新工具。比如,借助深度伪造技术散布虚假视频、煽动暴力恐怖,给国家安全带来新的挑战;利用AI换脸技术制作虚假、色情视频,用以污蔑或报复他人或侵犯肖像权;利用深度伪造破解人脸识别等验证系统,非法盗刷他人支付账户或盗用他人身份的违法活动等等。据《华尔街日报》报道,有犯罪分子利用“深度伪造”技术,电脑合成某公司CEO的“高仿”声音,成功诈骗22万欧元,足以说明深度伪造技术已产生了现实的刑事风险。然而可惜的是,目前业界还没有高效可行的“深度伪造”检测技术和应对策略,这对相关犯罪的责任认定、调查取证、分析鉴定等工作带来一定难度。
(五)人机冲突与责任分配
自动驾驶早在飞机上就得到了应用,但2019年埃塞俄比亚空难中,飞机员在与机动特性增强系统(MCAS)争夺飞机操控权的过程中败下阵来,让人们对人机冲突有了新的担忧。这几年无人驾驶汽车走出实验室成为“网红”,其原理就是让行为体通过传感器等获得对环境的感知数据,结合人工智能算法,自主进行路径选择规划。然而,2018年3月,优步沃尔沃自动驾驶汽车感知到行人却没有及时刹车,后撞上并致人死亡,这起事故把无人驾驶安全性推到了风口浪尖,也引发学界对责任追究的讨论。由于自动驾驶汽车本质上是基于数据的深度学习算法的智能化系统,外界传输数据错误、自动分析数据偏差、遭受黑客攻击等都可能引起无人驾驶汽车决策错误,这给事故的因果关系认定和责任划分带来困难。特别是当汽车运行全然由自动驾驶系统操控时,使用人再无法被界定为驾驶者,在现行技术遇到特殊情况无法判断的情况下,人身财产损害的过错原因和责任判定往往不能做到泾渭分明,如何确定侵权主体,如何划分算法提供商、汽车生产者、销售者、软件开发者、网络服务平台等多方主体的损害赔偿责任,需要出台一系列法律法规加以明确。
(六)算法杀熟与权益保护
此前,一位复旦大学的教授带领自己的团队,使用不同价格不同款式的手机,经过800多次打车测试后,发现网约车平台存在“见人叫价”现象,老客户看到的价格反而比新客户要高,由此“算法杀熟”成了众所瞩目的焦点。在大数据场景中,经营者依靠消费者购物喜好、消费习惯、收入水平等数据,运用人工智能算法进行数字画像和数据分析,将同一商品或服务以不同的价格卖给不同的消费者从而榨取更多消费者剩余。仔细审视,算法杀熟现象的产生与数字经济中的算法权力问题密不可分,尤其是在算法的不透明性与难解释性的情形下,不少营销平台不顾商业伦理,频繁调整算法套路,算法杀熟从一开始较为典型的“熟客卖高价”,发展成为“分析熟人信息卖高价”,多数消费者都是在不知情的情况下“被溢价”了,这样的做法明显背离了商事交易的诚实守信原则,也引发了社会契约精神的扭曲,给消费者权益保护与反不正当竞争带来挑战,需要尽快予以规制以促进平台算法公平。
(七)智能攻击与国家安全
习近平总书记强调,要坚持总体国家安全观,走出一条中国特色国家安全道路。其中,信息安全作为国家安全的重要组成部分,在人工智能和网络技术极其发达的今天显得尤为重要。国外网络安全公司Cylance在美国黑帽大会上征询了100位信息安全专家的意见,有62%的专家认为黑客未来会利用人工智能技术赋能网络攻击,这样的观点也得到我国大部分学者的认可。从数据安全看,算法采集的数据通过跨境传输可能给国家和个人带来重大风险,比如特斯拉推出的智能驾驶服务算法,在升级时需要海量真实路况信息和用户信息,一旦这些信息涉及重要军事设施、核心涉密人员,极有可能成为虚拟间谍。从算法自身安全看,人为的数据投毒和对抗样本攻击,便会导致人工智能算法学习到含有噪声或偏差的训练数据,造成算法失效。从算法应用安全看,基于GAN(生成式对抗网络)的在线验证码破解、传感器欺骗、智能恶意代码攻击、植入神经网络后门等新的攻击手段,给网络安全带来极大的安全威胁。另外,在传感分析、人脸识别、定向锁定等技术加持下,人工智能操控的武器也可能在未来成为现实,从而衍生一系列安全问题。
三、算法治理“困局”:规制智能算法面临的法律局限性
如上文所述,算法开启了通向美好未来的大门,也触发了人们对人工智能“潘多拉魔盒”的隐忧。在算法侵犯个人隐私、进行不当竞争、滋生违法犯罪等潜在风险面前,针对算法的合法性可靠性进行法律规制,得到了大多数民众的认可。然而,由于算法本身的不透明性、运行结果的难解释性、技术创新的超前性等原因,依靠传统路径进行算法规制还存在诸多困境,主要表现在:
(一)“算法演进”带来立法工作“跟不上”的问题
任何时候,法律都需要自我完善以适应社会经济发展需要,正如互联网技术从最初兴起到普及融合,曾经从未发生的网络侵权、网络安全等问题“倒逼”立法工作不断变革实现功能转型。当前,智能算法的技术尚未达到“智慧”程度,法律界讨论也大多停留在民事法律领域,如算法的侵权责任、知识产权保护等等,但随着智能芯片、量子计算创新发展,特别是深度学习、强化学习、迁移学习等算法技术迭代更新,人工智能带来的民事侵权和刑事风险与法律规范的滞后性矛盾必将进一步加剧,传统法律在回应人工智能时代的挑战时必然显得“力不从心”,因为立法完善的积极功能尚未被释放,也就无法从规范本体的层面化解“法律规范供给不足”的难题,关于网络犯罪的刑罚应对就是有力的印证。例如,在与算法应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等方面,怎么界定智能算法的法律主体、法律本质、法律关系等,亟待法律发挥更大的指引作用,以保证算法是符合公众利益和伦理道德取向,并与现有相关法律制度不相冲突。
(二)“算法黑箱”带来侵权责任“理不顺”的问题
人工智能的算法决策具有典型的“黑箱”特点即不透明性,算法强大的深度学习和决策能力,决定了其在很多方面超越了人类智慧,也逐渐脱离人的控制和预测,有些算法决策社会公众不能理解、设计者也无法解释,使得算法及其运算结果隔离于社会规范,进而脱离侵权法律责任判定的维度,冲击了法律理论中因果关系基本范式,引发治理主体不明和传统民法规则的失效,即带来“谁是治理主体,谁又能够成为被调整对象”的诘问。比如,在民事侵权责任的认定上,算法产生的行为及后果应如何界定,究竟是行为人的主动操作,还是算法设计者的放任行为,或是算法本身的指令行为?传统侵权责任二要素主观过错与因果关系就很难应用于算法决策所造成的损害。尤其是对于逐渐成熟的自动驾驶技术,其发生交通事故的多方责任分配,传统道路交通法、侵权责任法、产品质量法等也难以直接适用,“科技水平尚不能发现缺陷”在某种程度上甚至可以成为算法设计者的抗辩事由。此外,由于算法自身的技术性和商业秘密性,很多平台推行“适度知情”的信息共享原则,也大大增加了法律因果关系界定难度,极大提高了用户维权的门槛和成本。现实中,用户的“知情同意”似乎成了平台算法的“免死金牌”,以至于各类收集、存储、处理数据的行为都是“合法化”,即使数据泄露、价格歧视被认定为违法,算法使用者也能以“算法中立”“商业秘密”为由,免除算法不利决策的法律责任。
(三)“算法违法”带来刑法手段“难介入”的问题
在弱人工智能阶段,人工智能技术作为辅助人类具体事务的“工具”,不具有自主意识已基本成为学界的通说观点。当人工智能算法被犯罪分子利用,发生侵害法益的后果时,通过传统刑法的犯罪理论体系追究其背后“人”的刑事责任大都可以解决问题。比如,利用智能算法对计算机信息系统功能进行删除、修改、增加、干扰等,造成计算机系统不能正常运行,后果严重的,可以破坏计算机信息系统罪论处;利用智能算法实施的非法爬取数据、公民信息,视情形以非法获取计算机信息系统数据罪、侵犯公民个人信息罪、提供非法侵入计算机信息系统工具罪等犯罪论处;利用智能算法实施“精准诈骗”、数据投毒造成自动驾驶事故、伪造虚假信息传播的,可以诈骗罪、故意传播虚假信息罪、故意杀人罪等犯罪论处。绍兴发生的我国首例利用人工智能侵犯公民个人信息案,在定罪量刑上就是基于上述思路。但随着人工智能技术的发展,人工智能犯罪与网络犯罪的内涵和外延都有质的不同,现有的刑法规范将无法有效应对自主性强的智能体犯罪。正如算法超越自然人的控制,自主收集、共享、向外提供或利用个人信息的行为,由于智能体不具有刑法主体地位,侵犯公民个人信息罪便失去了打击犯罪的主体,在此情况下,规制算法就需要创设违反人工智能安全管理义务的情形,以追究算法使用者、设计者等监督管理义务人的法律责任。再比如,非法利用信息网络罪要求“信息网络”必须是以计算机等电子设备为终端的信息网络,而人工智能体有时并不内含于上述电子设备终端,其运行也并非必须依靠网络,如自动驾驶理论上可以在没有网络连接的情况下继续驾驶,因此非法利用信息网络罪的预备行为类型难以将人工智能体都纳入进去等等。诸如上述,刑法在介入算法规制中还存在很多不适应的地方,需要出台一批刑法规范或解释性条款,以精准打击人工智能犯罪。
四、算法如何“守法”“守善法”:多维视角下智能算法的规制路径
算法之于人工智能,犹如意志之于自然人。在智能时代,人们将选择权和决策权让渡给算法,就必然导致算法将成为规制的核心。面对人工智能带来新的安全和伦理挑战,面对当今各类新技术、新产业高度依赖算法,面对公民维护基本法律权利的呼唤,迫切需要加强对智能算法的管控,将行政监管、道德约束、法律规范相结合,引导算法善守法、守善法,构建算法规制的伦理和法治基础,不断为人工智能注入安全基因。
(一)智能算法的规制原则
在具体讨论相关规制措施之前,笔者认为首先应当宏观上确定总体原则,做到科学慎审规制算法,促进人工智能健康发展。
1.以人为中心原则,智能算法的设计、运行,必须确立人类优先和安全优先,以尊重人的健康、维护人的利益、保护人的安全为根本出发点,同时人工智能因算法产生的意识具有依附性,其终究是模仿人类智能,是人类思维的产物,不具备法律主体资格。
2.可解释原则,就是以一般人所能理解的方式打破算法黑箱,并不意味着智能算法需要做到完全公开透明,但涉及民众核心利益问题的,算法设计者应当对训练数据的来源及可靠性加以说明,适时地向社会公布数据的用途以及对于算法中可能涉及重大公众利益的决策程序进行合理的解释。
3.备案审查原则,就是对各类算法模型进行合法性、正当性审查备案,必要时政府监管部门、第三方认证机构对其进行评估,及时发现数据及算法存在的各类风险并采取措施。
4.容错纠错原则,对于机器学习等新型算法给予一定的试错纠错空间,特别是在最容易对人身权利造成损害的自动驾驶、智能医疗等领域,鼓励人工智能行业自我完善、自我革新,维护用户合法权益。
5.自我监督原则,算法设计者、运营者应当按照各自职责对算法负有全面的监督责任,防止数据被污染、算法被篡改、运行被干扰等问题,及时调整算法模型、纠治算法缺陷。
6.罪刑法定原则,人工智能在法律没有明文规定时造成的危害行为,不能无限制地扩大解释法律来应对,确有必要进行刑法规制时,应秉持谦抑性谨慎设置相应刑法规范。
(二)道德善治层面的规制策略
就算法的设计过程来看,算法的基础数据和推理假设都有可能隐含设计者的偏见、价值观和意识形态取向。因此,如果算法在设计之初就融入伦理、守法、自由、关爱、安全等人类“善”的道德取向,那么这样的算法就如同现实世界中“良法”。
第一,可以采取“算法规制算法”的道德嵌入路线,将不侵犯个人隐私、不违反公序良俗、不损害人身财产利益等作为算法的伦理规范,转化为程序语言嵌入算法设计和运行全过程,实时提醒“算法从善”“不能违法”,把外部的法律化强制规制转换成内部的道德化技术约束。例如,尝试开发拥有隐私保护功能、能够防止违法数据挖掘、具备对抗敌对算法能力等算法技术;在自动驾驶算法中,可以通过嵌入代码技术使饮酒者根本无法开动汽车,进而杜绝酒后驾驶的可能。
第二,可以在算法内部强制引入道德判断和自我终结机制(类似if-break程序),原理同导弹控制系统失灵后启动自毁程序类似,人工智能算法在进行道德评价后,一旦发现脱离了监管视野并具备“可谴责性”,算法内部将启动自我终结程序,以确保算法运行始终处于可控范围内。
第三,积极倡导人工智能行业的道德自律,推崇“算法不应该被商业资本绑架”的价值理念,在这方面,政府需要发挥核心引领作用,学习借鉴德国联邦议会成立关人工智能的伦理调查委员会,指引企业正确处理道德问题、设立道德底线或相关原则。同时,作为算法设计者、使用者、管理者,本身也要守法为善,杜绝为了商业利润用算法压榨用户价值、侵害用户权益的不道德行为。比较典型的就是搜索引擎的排名算法,过去这个算法常常被有关服务商所欺骗,造成了“魏则西事件”的悲剧,如今企业考虑了这方面的问题,对抗相关排名优化的机制能力比以前强得多。
(三)行政监管层面的规制策略
人工智能算法的良性运行离不开完善的行政监管制度,笔者认为当务之急是需要尽快制定人工智能的管理办法,明确对人工智能产业及算法技术发展的基本态度。一方面,要建立专门的算法审查机构,进行全时全域全过程监管,算法投入使用前,算法设计者向专门机构解释算法的运行方式和可能的决策结果,对设计不符合安全标准、有较大风险的算法予以排除,并进行备案;算法投入使用以后,专门机构加大对算法的动态抽查力度,从技术上对算法进行审查评估,对涉及算法侵权、算法独裁、算法违法等现象,严厉追究责任并给予行政处罚。另一方面,要构建多方参与的治理模式,政府相关部门要强化对人工智能的指导和规范,压实人工智能算法开发者、使用者的主体责任,组织自动驾驶、智能家居等重点领域的算法评估、数据集训练等标准制定;平台企业要落实好算法开发者责任制,在算法规则制定、数据挖掘利用、平台合作等环节强化算法和数据管理;鼓励广大消费者增强维权和隐私保护意识,畅通算法决策的申诉渠道,支持民众对算法提出质疑,促进人工智能行业发展。
(四)法律规范层面的规制策略
法律只有以直观、明确的方式对人工智能的算法决策进行跟踪,才能够保证人工智能在合法轨道上运行。然而,目前政府部门主要是从扶持产业发展的角度对人工智能提供行政指导,针对人工智能方面的法律体系并不健全,智能算法的法律规制更是存在空白地带。虽然《电子商务法》《网络安全法》《计算机信息系统安全保护条例》等有关法律法规都有涉及到监管的条款,《中华人民共和国数据安全法(草案)》更是为人工智能和数字经济发展提供依据,但面对人工智能带来的已知或未知挑战,现行法律的针对性、实效性还不够强。至少从目前来看,推动协调修法与前瞻立法齐头并进是最有效的路径。
第一,要协调理顺现有的法律责任体系,既要对算法程序设计者和算法服务提供者进行直接规制,也要设定相关行政管理部门的监管职责进行间接规制,有学者认为算法责任应当“是一种联合义务责任,而非传统责任观中一力承担的责任”,笔者赞同这一观点,即所有参与到算法的编写授权的主体,包括数据收集者都应分担责任。
第二,要健全完善适应智能时代的法律体系,重拳打击利用算法进行的犯罪活动,在修正完善个人信息保护、道路交通安全及相关部门法的基础上,进一步研究出台人工智能专项法律法规,比如,制定《人工智能安全法》,围绕拒不履行人工智能安全管理义务、帮助人工智能体犯罪活动、重大人工智能责任事故、滥用人工智能技术等内容探索前瞻性立法。
第三,要积极探索算法侵权公益诉讼路径,受制于算法侵权中主体、行为、因果关系以及过错责任难以认定的事实,特别是消费者被侵权后不知维权、不会维权、举证能力有限等现状,亟需引入公益诉讼这一救济渠道,通过要求算法侵权责任人承担民事责任或者行政管理部门依法履行监管职责,切实维护公民个人隐私、公平交易等基本权利,保证人工智能算法真正造福这个时代。
这里是默认签名
回复

使用道具 举报

上一篇:格局到底是是什么?

下一篇:可追踪并分析动物行为:瑞士研究团队开发出人工智能图像算法

sitemap.txt | sitemap.xml | sitemap.html |Archiver|手机版|小黑屋|彩虹邦人脉系统 ( 皖ICP备2021012059号 )

GMT+8, 2024-10-31 13:20 , Processed in 0.254699 second(s), 51 queries .

快速回复 返回顶部 返回列表