↑↑↑更多精彩内容,请点击视频观看
《机器人伦理学导引》
[希腊] 施皮罗斯.G.查夫斯塔 著
尚新建 杜丽燕 译
北京大学出版社出版
随着计算机技术和制造业的不断发展,机器人已经逐渐走出科幻作品或实验室,和人们的现实生活产生越来越密切的联系。从娱乐到社交、医疗乃至战争,机器人的参与已经为人类传统的生产和生活方式带来诸多变革。 机器人的广泛应用为我们带来了哪些便利,又造成了什么问题?未来我们又可能面对怎样的挑战?本书从伦理学的基本原理出发,展示了医用机器人、助力机器人、社会化机器人、战争机器人等机器人在各领域的实际应用和前沿突破。同时对中日韩特别是日本的机器人学传统作了深入梳理,力求对机器人伦理学作全方面、多角度的讨论。
>>内文选读:
机器人伦理学的一般性讨论
机器人学本身是一个非常敏感的领域,因为机器人比任何可能制造出来的计算机(或任何其他机器)都更接近于人——无论形态上,还是字面上。这是因为机器人的形状和形式,让我们想起了自己。绝对不能脱离当今社会的社会技术考量,独立研究机器人。科学家应该时刻谨记,机器人(以及其他高科技产品)可以影响社会如何发展,许多情况是设计研制时无法预测的。人类关注机器人学的一个重要部分是机器人伦理学。给予机器人的自主性越多,对其道德和伦理敏感性的要求就越多。
目前,关于机器人,尤其是具有认知能力(智能)的机器人,尚无特殊的立法。从法律角度看,人们对待机器人的方式与对待其他机器设备和人工产品的方式一样。这或许基于如下一个事实:具有完备智能和自主性的机器人尚未运行,或者,尚未进入市场。不过,许多机器人学家持有一种观点:人工智能和机器人工程迅猛发展,依照目前的速度,很快就需要相应的法律。
正如本章导论所言,阿莎罗指出,机器人伦理学有三个不同的方面:
1、 如何设计使机器人的行为合乎道德?
2、人如何必须道德地行事,铁肩担道义?
3、理论上讲,机器人能够成为完全的道德行为体吗?
所有这三方面的问题,必须在机器人伦理学的可行框架下获得解决。因为这三个方面代表不同的面向,表明在包括机器人在内的社会—技术框架下,应当如何分配道德责任,应当如何对人和机器人加以约束。
对机器人(或其他自主行为体)的首要要求是不得造成伤害。澄清道德行为体的模糊地位,解决人类伦理困境或者伦理学理论问题,是绝对必要的,但只是第二位的。这是因为机器人具有更多的功能(和复杂性),就必须研发更先进的安全控制措施和系统,防止致命的危险和潜在的伤害。这里需要指出,机器人的危险与我们社会(从工厂到互联网、广告、政治制度、武器等)的其他人工产品带来的危险没有什么不同。正如第4章所说,制造机器人为了一个目的,即代替我们承担任务,将人从各类繁重或危险的劳动中解放出来。但是,它们并不能代替我们过日子,也不能消除我们过日子的需求或欲望。许多情况下,工厂或社会的意外事故被归咎于机械缺陷,但是,我们很少将道德责任归咎于机械缺陷。
在机器人伦理学中,承认人的智能与计算机或机器人的智能之间存在着根本差异,至关重要;不然,我们很可能得出错误的结论。例如,我们相信,人的智能是唯一的智能,我们的欲望是获取权力,于是,我们据此假定,其他智能体系也渴望权力。然而,例如深蓝,虽然能够在棋盘上“战胜”世界国际象棋冠军,但是,它绝对不代表任何权力,其程序中亦没有人类社会的任何地盘。
视频制作:袁琭璐
编辑:袁琭璐
责任编辑:朱自奋