人工智能开发的道德边界在哪里

发布日期: 2019-10-25 09:21 

一个机器人带着小狗外出,小狗进入草坪攻击小孩,草坪围栏上写着“禁止践踏”,这种情况下机器人是选择进入草坪制止小狗,还是遵守规则站在外面?

在CNCC2019(中国计算机大会)的分论坛“人工智能开发的道德边界在哪里?”上,中科院自动化研究员曾毅举例让大家思考,人类到底该赋予机器何种智能?

以“智能+引领社会发展”为主题的CNCC2019于10月17日至19日在苏州召开,这是一个已经延续16年的学术技术产业盛会。为期3天的大会包括3场大会主题论坛、79余场前沿技术论坛,15位国内外计算机领域专家、企业家作了大会特邀报告。与往年不同的是,除了丰富的技术内容,今年大会把人工智能伦理作为一个重要议题。大会指导委员会主席、中科院院士梅宏解释说,这是科技人员应该考虑的事情。

近几年,人工智能发展迅速,很多应用改变着日常生活,推进了社会发展,但是也出现了诸如算法歧视、隐私侵犯等新问题。关于人工智能的法律、伦理、社会问题研究提上了很多部门和机构的议事日程。

今年5月,曾毅所在的研究中心成立时,联合北京大学、清华大学、中国科学院自动化研究所等单位,共同发布了《人工智能北京共识》,提出人工智能的研发、使用、治理,应该遵循有益于人类命运共同体构建和社会发展的15条原则,例如“善用与慎用原则”等。

6月,科技部对外公布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了和谐友好、公平公正、包容共享等8项原则。

今年4月,欧盟委员会也发布了人工智能伦理准则。据统计,目前各国政府、各类组织、研究机构和产业界颁布的有关人工智能伦理准则提案已有50多个。

但是,曾毅发现,这些准则因为各自视角不同,所涉及的方面并不能相互覆盖。他认为,眼下急需的是对人工智能风险、伦理与治理进行战略研究,让一些思考模型化、算法化、系统化,确保人工智能向更可依赖和对社会有益的方向发展。

复旦大学生命医学伦理研究中心、应用伦理学研究中心主任王国豫教授认为,人工智能伦理起源于人们对人工智能技术风险的恐惧和担忧,人工智能的伦理问题不是单个的技术问题,也不是算法问题,而是源于技术系统和人的社会生活系统的交互作用,人工智能伦理应该从可能性推测走向可行性探索。当然,这需要更多跨学科合作。

北京大学长聘副教授吴天岳近几年关注人工智能、基因编辑等前沿科技带来的伦理挑战。他认为,没有现成的伦理规则用于人工智能,所以人类要有前瞻性。技术本身不是道德中立的,但是目标要有道德标准。所以人工智能开发者要有职业伦理意识,要让技术人员明确,人工智能是为人类核心价值服务,不是为资本和权力服务的。他提出,人与人工智能要建立新型互动关系。

据介绍,2018年,中国科学院大学开设了《人工智能哲学与伦理》课程,北京大学、浙江大学、西安交通大学等高校也在陆续开设人工智能伦理相关课程。

文章来源:中国青年报中青在线              编辑:却原来

查看更多新闻

在线OCR识别小工具,一键提取图片中的文字,转成word、excel、pdf等文档
地址:安徽省合肥市高新区品恩科技园1203
皖ICP备14001900号-2
皖公网安备 34010402701701号