既要人工智能高效发展,还要符合伦理,该怎么做?

发布日期: 2019-08-07 10:26 


曹建峰| 腾讯研究院高级研究员



人工智能法律问题的三个层面

近年来,人工智能技术发展取得了极大的进步,在一些领域甚至超越了人类自身的认知能力。人工智能也从一个纯粹的技术领域一跃成为社会各界共同关注的话题。各国纷纷出台人工智能战略,加强顶层设计,人工智能由此成为国际竞争的新焦点。人工智能的跨学科研究迅速兴起,尤其是国内的法学界出现了人工智能法律研究的热潮,但却没有学者尝试从法律上对人工智能的概念进行界定,导致各种研究颇具自说自话的色彩,缺乏统一的认知基础。此外,社会公众由于对人工智能技术缺乏足够的了解,生发了人工智能取代人类工作、超级智能威胁人类生存等担忧。

那么,人工智能法律能否成为一门显学?现在又有哪些新的问题需要研究和应对?对此,微软总法律顾问Brad Smith曾有精辟论述。他写道,未来会产生所谓的「人工智能法律」这一全新的法律领域吗?今天,人工智能法律和1998年的时候隐私法刚兴起时的境况差不多。一些既有的法律已经适用于人工智能,尤其是侵权法和隐私法。在一些特定的领域比如自动驾驶汽车等,开始出现新的监管。但是,人工智能法律尚未作为一个独立的领域存在。到2038年的时候,我敢肯定这一状况将有所改变。那时候,不仅有从事人工智能法律的执业律师,而且这些律师和其他所有律师都将依赖人工智能来辅助其执业。因此,真正的问题不是是否会出现人工智能法律,而是其如何出现,以及在什么期限内出现。

这一预测在某种程度上可以给当前的人工智能法律研究背书,即学者的研究并非镜花水月,空中楼阁,而是服务于未来将可能产生的一个全新的法律领域。综观目前的人工智能法律研究,主要存在法律人格、正义与平等、安全与认证、隐私与权力、责任、知识产权归属、竞争与消费者保护、人工智能产品监管、自主武器等九个主题,这些主题可被抽象为三个层面。

其一,权利的挑战在以机器学习为代表的现代人工智能系统出现之前,人类是这个星球上唯一具有行为能力的主体,国家和公司作为法律上拟制的人,其自身不具有行为能力,需要由人类主体来代表。人工智能,作为通过一个评估过程自主作出选择的非自然实体(即机器),开始表现出像人一样的行为能力,例如达成交易、批准贷款、驾驶汽车、创作内容等等。因此其一方面带来主体地位的挑战,另一方面带来创造成果归属和保护的挑战。其二,责任的挑战。以自动驾驶为例,其自主性和不可预测性斩断了人类与事故之间的因果关系。其三,伦理的挑战。体现为两个方面:一是技术应用的边界问题,例如将人工智能应用于人类增强或者武器和战争的限度在哪里;二是技术发展可能改变人类伦理,依然以自动驾驶汽车为例,随着自动驾驶系统的安全性能不断提高,当其显著超越人类驾驶水平之时,是否有必要重新考虑人类驾驶汽车的活动的道德性。



人工智能治理的三点认知

在计算机与信息技术的发展史上,网络法经历了三次重大转变,每个阶段都有其特殊的问题并产生了相应的法律规制。第一阶段的关注焦点是计算机,各国围绕计算机的安全、犯罪、欺诈、滥用等问题制定了一系列法律,这个阶段的典型立法包括美国1984年的《计算机欺诈与滥用法案》等。互联网兴起之后,技网络法发展到第二阶段,信息大爆炸趋势下,信息成为关注焦点,法律规制围绕信息的隐私、保护、传播、滥用等问题展开,这个阶段的立法包括欧盟1995年的《个人数据保护指令》、美国1996年的《通信规范法》等。当前,网络法已经发展到了第三阶段,作为关注焦点的数据和人工智能算法带来新的问题,预计将出现一系列人工智能法律,例如欧盟的GDPR已经针对人工智能应用进行了制度安排,欧盟议会发布的《算法责任与透明治理框架》则在考虑建立算法治理框架。就人工智能治理而言,本文提出三点认知。

其一,数据保护方面,明确企业间数据获取与利用的基本规则,加强对企业数据资产及其合法利益的保护。人工智能的发展应用离不开数据,数据已经成为「新石油」,只有加强保护企业数据权益,才能为人工智能创新发展提供坚实的基础。我国法院在诸多涉及数据获取与利用的不正当竞争案件中认为企业对其投入劳动采集、加工、整理、生成的数据享有财产性权益,典型的案件包括阳光诉霸才、大众点评诉爱帮网、钢联诉纵横、拓迪、大众点评诉百度、微博诉脉脉、酷米客诉车来了、淘宝诉美景、同花顺公司诉灯塔公司等。其实早在International News Service诉Associated Press一案中,美国最高法院就认为,信息、设计等无形物可以因劳动、金钱等投入而产生一种「准财产权」(quasi-property right),从而可以基于反不正当竞争法禁止他人不当盗用。

根据国内外相关司法判例,不当获取与利用数据主要有两种方式:一是未经许可或超出许可,采取侵入的方式获取非公开数据,通常表现为侵入服务器、破解或规避技术措施或者使用他人ID、密码等;二是采取爬虫等手段复制、抓取数据,一般针对公开数据。根据前述判例,法院在认定这些行为的不正当性时一般采取两个测试标准:一是实质替代标准,即将获取的数据用于足以产生替代效果的竞争性产品、服务,此标准主要体现在大众点评系列案件中。二是正当商业利益标准,其出发点是企业对其投入劳动搜集、获取、加工、整理、生成的数据和数据产品享有竞争法上的财产性利益,他人未经授权予以利用具有不正当性。例如,在奋韩网诉58同城案中,法院认定58同城网站伪装个人名义在网站上发布复制于奋韩网的侵权信息,未付出相应劳动即将他人成果据为己有,其行为掠夺了奋韩网流量、影响经营利益,严重损害了韩华公司的合法权益,违背诚实信用原则及公认的商业道德,构成不正当竞争。

其二,人工智能治理方面,考虑采取包容审慎、灵活有弹性的规制方式。一方面,需要为自动驾驶汽车等人工智能新事物革除既有的监管法律政策障碍,例如关于驾驶人的法律要求、高速公路测试限制等,避免过时的法律要求阻碍人工智能创新发展。因为随着人工智能技术持续渗透到各行各业,带来新的产品和服务,未来新事物与旧制度的冲突会越来越多,呼吁监管法律政策的革新和创新。另一方面,由于技术以及商业模式快速发展和迭代,草率的立法不可能期待会产生正面的效果,而且成文或专门的立法恐难跟上技术步伐,故应避免严格、细致的法律要求,而是可以采取事后监管、追责或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等「软法」性质的规范来调整人工智能的发展应用,支持行业自律。这意味着敏捷灵活的政策路径,例如中国国家新一代人工智能治理专业委员会6月17日发布的《新一代人工智能治理原则——发展负责任的人工智能》也提出了敏捷治理的原则。

更进一步,作为对技术应用的「软法」规制,可以通过科技伦理来对科技行业的狭隘的技术向度和利益局限进行纠偏和矫正。所以需要通过预警性思考、广泛的社会参与和多学科评估来充分讨论可能存在的风险和危害,制定出切实可行的指导方针和伦理准则来引导、规范人工智能研发应用,以更好地应对人工智能应用可能引发的社会治理危机。

其三,算法透明与责任方面,应根据人工智能技术特征和复杂性追求有意义的透明。具体而言,技术透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。所以,对于现代AI系统,通过解释某个结果如何得出而实现透明将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。例如,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。在具体落地层面,根据欧盟议会的《算法责任与透明治理框架》,对于政府和公共部门使用的算法系统,可考虑建立「算法影响评估」(AIA)机制;但不宜针对商业领域的所有算法系统应用都建立算法影响评估机制,因为这将给企业带来不成比例的财务和管理负担,相反可考虑建立分级监管机制,即对于具有与政府和公共部门的算法系统应用相似的重大影响的商业算法系统,可以考虑采取AIA机制,而对于其他商业算法系统,则采取事后追究法律责任的机制。



科技共同体承担伦理责任,践行科技向善

华裔AI科学家李飞飞在推动成立「斯坦福以人为本的人工智能研究院」(Stanford Institute for Human-Centered Artificial Intelligence)时表示,现在迫切需要让伦理成为人工智能研究与发展的根本组成部分。显然,在当前的人工智能技术背景下,我们比历史上任何时候都更加需要注重技术与伦理的平衡。因为一方面技术意味着速度和效率,应发挥好技术的无限潜力,善用技术追求效率,创造社会和经济效益。另一方面,人性意味着深度和价值,要追求人性,维护人类价值和自我实现,避免技术发展和应用突破人类伦理底线。只有保持警醒和敬畏,在以效率为准绳的「技术算法」和以伦理为准绳的「人性算法」之间实现平衡,才能确保「科技向善」。

因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。在这方面,国内外的科技公司开始主动承担伦理责任,一方面注重技术应用的广泛社会影响,另一方面积极采取措施避免技术被滥用和恶用。例如、谷歌、微软等都提出了其研发和应用人工智能所要遵循的伦理原则;DeepMind成立了专门的伦理与社会部门,在技术研发投入之外,积极应对人工智能技术可能带来的伦理与社会问题;此外,技术伦理委员会日益受到科技行业的青睐,科技公司开始采取多学科评估的方式来把脉、约束人工智能研发应用。

在国内,以腾讯为例,自2018年1月在国内首次提出「科技向善」以来,腾讯已将「科技向善」作为新的愿景与使命,并积极践行「科技向善」理念,例如将人工智能应用于医疗健康领域,致力于打造「救命的AI」;将计算机视觉技术应用于失踪人口寻找,协助警方打拐寻人,包括基于「跨年领人脸识别」助力警方寻回被拐十年儿童,这在人工智能之前依靠人力几乎是不可能实现的;此外,发起FEW项目,将人工智能应用于食物、能源和水资源(FEW),致力于解决人类所面临的最大挑战。此外,在今年3月提交的建议案《关于加强科技伦理建设 践行科技向善理念的建议》中,全国人大代表、腾讯董事会主席兼首席执行官马化腾呼吁在全社会、全行业积极倡导「科技向善」「负责任创新」「创新与伦理并重」等理念,并建议加强科技伦理的制度化建设,加强科技伦理的教育宣传。

最后作为总结,现代数字技术与经济社会以异乎寻常的速度整合和相互建构,但其高度的专业化、知识化和技术化使圈外人很难对其中的风险和不确定性有准确的认知和判断,没有来自科技共同体内部的风险预警和自我反思,任何一种社会治理模式都很难奏效。因此只有通过科技伦理教育宣传增进科研人员和社会公众在伦理上的自觉,使其不仅仅考虑狭隘的经济利益,而且对技术发展应用的潜在影响及其防范进行反思和进行预警性思考(precautionary thinking),才有可能通过广泛社会参与和跨学科研究评估的方式来实现对人工智能前沿技术的良好治理。

文章来源:腾讯研究院            编辑:daisy

查看更多新闻

在线OCR识别小工具,一键提取图片中的文字,转成word、excel、pdf等文档
地址:安徽省合肥市高新区品恩科技园1203
皖ICP备14001900号-2
皖公网安备 34010402701701号