当人工智能越来越趋近于人,它的伦理问题成了技术行业、监管机构和大众最为关注的问题。
当下,对于人工智能商业价值的极度崇拜与对伦理崩塌的深度隐忧,构成人工智能被谈及时的两种不同论调:一方面,商业机构不断描绘人工智能将带来的便利美好,而许多影视作品则不断提醒人们人工智能的潜在危险。近日,上海市中国工程院院士咨询与学术活动中心举办“人工智能时代的伦理道德建设”院士沙龙。与会专家提到,促进人工智能壮大,必须尽早将人工智能伦理研究提上日程。
“伦理困境”阻碍人工智能研发
从新闻客户端定向推送越来越“懂你”的信息流,到尝试走上封闭道路的自动驾驶汽车。过去几年,各种包含人工智能技术的产品走入大众生活。据腾讯研究院院长司晓介绍,全球人工智能创业企业已达2000多家,仅腾讯公司就有四大实验室正在开展人工智能相关研究。
事实上,有些人工智能商业场景迟迟不能落地,不是被技术“绊”住了,而是伦理研究“拖了后腿”。司晓举例说,美国2016年的统计表明,自动驾驶的安全性已经明显高于人工驾驶,但自动驾驶中有一个著名的伦理困境,即当它无可避免要撞人时,是撞向人多的一边还是人少的一边。
复旦大学哲学系教授王国豫提出,全景监狱和数据歧视的伦理困境也值得警惕。全景监狱是指摄像头将你的所有行动构成一个行动路线图,搜索引擎给你画像,强人工智能可以全方位地“观察”你;数据歧视是指将数据转化为信息的过程中,充斥着读者的偏好。
伦理与科学本来就应是统一整体
有一种说法是,对人工智能人们可以先研发,等发现问题了再纠错,大不了拔了电源,可上海纽约大学计算机学教授张峥并不赞同这一观点。
“必须打破的一个成见是,伦理监管是给科技发展画‘墙’。但其实,人工智能研究和人工智能伦理两者的关系应该从更全面的角度来看,我认为它们是一体的,应该有一个包含了这两者的‘新城’。”张峥说。
这个有点“烧脑”的概念得到了王国豫的认同。她说,近年来,无论是工业机器人、家政机器人还是航天机器人,都在自主性、意向性、情感性等“人格”要素上越来越形神兼备。人工智能可以说正在脱离工具的范畴。“越强大的人工智能,它的‘存在感’就越低,甚至完全融入我们的生活。面对这种情况,我们就无法 ‘拔电线’。”王国豫说。
人文学科要对伦理研究有所贡献
人工智能伦理问题已经引起世界关注,2016年英国标准组织发布机器人伦理标准 《伦理设计与应用机器人》、微软提出人工智能六大原则,都在一定程度上促进人工智能发展。我国《新一代人工智能发展规划》中,“人工智能伦理”这一字眼出现了十五次之多,表明制定人工智能伦理规范已迫在眉睫。
人工智能需要怎样的伦理规范?司晓认为,这一领域天然游走于科技与人文之间,既需要数学、统计学、计算机科学、神经科学等的贡献,也需要哲学、心理学、认知科学、法学、社会学等学科的参与。
王国豫说,为了促进人工智能理论研究,荷兰建立了人工智能价值设计联合实验中心,集合工程技术人员、哲学家、法学家、伦理学家的力量,把社会主流价值转化为计算机语言并将其嵌入人工智能之中。“当然,人工智能伦理不是固化的,它应该是开放的、可以修正的体系。”
中国工程院院士杨胜利表示,上海拥有优秀的人文学科,不妨抓住大力发展人工智能的契机,将伦理委员会做起来,促进人工智能“向善”发展。
作者:记者 沈湫莎
编辑:顾军
责任编辑:樊丽萍
*文汇独家稿件,转载请注明出处。