半月谈丨AI时代,伦理探索要跟上

发布日期: 2019-07-19 09:08 

对话嘉宾

陈小平 (中国人工智能学会AI伦理专业委员会负责人、中国科学技术大学机器人实验室主任)

高少华 (半月谈记者)



2019年6月7日,在美国拉斯维加斯,全球人工智能会议“re:MARS”展示一款机器人

人工智能时代已到来,各类人工智能技术正被加速应用于人类日常生活和工作的方方面面。但由此带来的AI风险、AI滥用、AI失控等问题也引发社会关注。近期,美国亚马逊公司利用人工智能技术监督员工引发舆论热议。人工智能的应用边界、伦理底线等话题成为舆论热点。

高少华:亚马逊使用的人工智能监工系统,被网友戏称为“史上最严周扒皮”。员工在AI的监控下如履薄冰,还可能面临随时被替代、被解雇的困境。人们不禁思考,AI可能凌驾人类的趋势已经到来?在您看来,当前对人工智能伦理的担忧主要体现在哪些方面?

陈小平:AI快速发展,让社会出现了担忧情绪。根据中国人工智能伦理专委会的观察,主要有三种担忧:

第一,担忧技术失控带来的风险。担心将来有一天,机器会统治人类。第二,担忧技术误用带来的风险。担心某些人工智能技术由于不成熟、不够人性化或缺乏足够的伦理约束等原因,给使用者带来直接的危害,比如数据隐私问题、安全性问题和公平性问题等。第三,担忧应用失控带来的风险。担心人工智能在某些行业中的普遍应用带来严重的负面后果,比如导致很多人失业,又无法在短期内重新就业。

高少华:放眼全球,人类对于AI伦理研究的实际情况如何?如果过于滞后现实发展,会带来怎样的不利影响?

陈小平:目前欧洲在人工智能伦理方面走得相对快一些,但总体情况不算乐观。我们要先了解具体在哪些方面有所滞后,要明确人工智能伦理的使命是什么、它的根本问题和主要问题分别是什么。比如说当前这个阶段,就明确了一些已经出现的伦理问题必须尽快解决。我们是单纯地预防人工智能做坏事,还是让伦理督促人工智能做好事?这些研究不能滞后。如果连人工智能伦理体系的定位都不清楚,那问题就更难办。

高少华:人工智能伦理涉及的内容多、范围广。我们所能了解的领域,大都与安全、隐私、就业等相关,应该还有未知或者未引起关注的领域吧?

陈小平:是的。现在比较明确的伦理范围就是隐私、公平、安全等。但我认为,研究AI伦理要有前瞻性,需要关注一些目前还不太明确的议题。比如,威胁到人类生存的技术未来是否会被发明出来?这些非常重要。

从当今世界的发展需求和技术伦理现状出发,预计未来会有三种可能:

第一种,消极地延缓人工智能等新技术的应用,限制创新的力度、幅度和进度,现存和新生的社会问题和伦理问题不断累积,最终导致积重难返的局面。第二种,冒失地推进人工智能等新技术的应用,加重和加速引爆社会伦理问题,造成难以收拾的困局。第三种,积极稳妥地推进人工智能及相关的技术和非技术创新,解决现存和新生的社会问题和伦理问题,走向一个更加美好的未来世界。

人工智能伦理建设的愿景,必须面向第三种可能。因此,人工智能伦理的基本使命是:为人工智能增进人类福祉与万物和谐共存提供伦理支撑。具体地说,这个使命包含双重含义:第一,督促人工智能做好事,促使人工智能做更多更大的好事;第二,防止人工智能做坏事,严控技术风险,保障安全底线。

高少华:人工智能的发展如今已经走在社会前沿领域,未来需要统筹考虑人工智能技术与法律伦理方面的国际合作。目前,中国是否已经着手开展此项工作?

陈小平:人工智能伦理非常复杂,通常涉及法律、行规、技术标准等多个方面。过去大家对人工智能的伦理研究太少,现在要补上欠账。人工智能技术与法律伦理方面的国际合作非常有必要。我认为,比较稳妥的是先从伦理体系方面开展国际合作,达成一定的国际共识。如果在伦理体系上有了国际合作、国际共识、国际协调,那么接下来在落实的层面就更容易协调合作。

目前,我国在科技伦理、人工智能伦理方面的研究已经迈开步伐。我们需要经过自己的研究,尤其是在全球视野下去考察中国社会发展需求的基础上,提出自己的想法、建议、标准等。对全球来说,这些是中国作出的贡献,为世界增添的“中国智慧”。

高少华:机器人三原则(机器人不得伤害人类、必须服从人类命令、必须保护自己),是西方科幻作家阿西莫夫的一个著名提议。目前中国人工智能学会伦理专业委员是否也探讨了一些初步的AI伦理研究方向和中国机器人原则研究方向?在这方面中国是否也有自己的一个初步意见?

陈小平:中国人工智能学会对AI伦理问题高度重视,2018年组建人工智能伦理专委会,启动了人工智能伦理问题的研究。专委会设置了多个AI伦理课题,并组织了一系列开放的和内部的专题研讨。

目前中国也提出了一些意见,但还不够系统。另外,机器人三原则的提出,虽较早让大家关注到这方面的问题,但不足之处在于难以落地。比如说想让它来指导需要研发什么产品,需要应用什么样的技术,在解决这些具体问题方面,三原则并不适用。

所以,我们需要研究真正能够落地的一些原则。根据这些原则,辨别什么是短期内就可以看清楚的问题,什么是现在可能还看不清楚、会随着社会发展而不断变化的问题。所以我的观点是,一方面要有相应的原则,另一方面这些原则会随着时间的发展而变化,因此,更基础的是我们伦理体系建设的机制,有了好的机制才可以不断完善体系。

高少华:技术史是人类不断被取代的历史,如果我们创造出了超越我们智慧的超级智能,人类将会变成什么样呢?不过,什么是超级智能?甚至什么是智能?这样的定义,目前全球有个大致共识吗?

陈小平:目前对于什么是人工智能,其实并没有共识。或者说现在的共识,可能10年后甚至5年后就不是共识了。人工智能技术发展到现在也只有70多年的历史,对它的定义、范围、边界等,现在很难说有共识。对这些问题,我们在人工智能伦理里面,都需要去加强研究。人工智能专家都还是在研究人工智能里面的一些具体问题,而宏观问题过去研究的比较少。同时也要考虑,人工智能研究需要有新的方向,人工智能到底是什么?否则经不住历史的检验。

对人工智能,也不要过于担心。目前全球都开始重视人工智能伦理和风险。未来人工智能什么方向可以发展、什么方向不能发展,都会有答案。

目前人工智能出现了一些问题,在人类历史发展道路上出现了一些风险,这些都是正常的,但是我们要努力不让风险失控,积极面对各种挑战。

文章来源:新华社客户端                  编辑:却原来


 


查看更多新闻

在线OCR识别小工具,一键提取图片中的文字,转成word、excel、pdf等文档
地址:安徽省合肥市高新区品恩科技园1203
皖ICP备14001900号-2
皖公网安备 34010402701701号