●机器人的功能飞快向人逼近,人有可能把自身当作技术对象,用技术手段像制造物那样来制造人,并把自己改造成“超人”机器人。
●电脑的容量与功能平均每18个月就翻一番,人类的道德在20世纪里又进步了多少?
科技进步对人类社会的影响是空前的、巨大的。科技不断揭示客观世界和人类自身规律,极大地提高社会生产力,改变人类的生产和生活方式,同时也发掘人类的理性力量,带来认识论和方法论的变革。
但是,现代科技的一些最新进展,如克隆技术、基因工程、人工智能等,则对人类存在方式,尤其是伦理与道德提出了新的质疑。现代科技的发展趋势,特别是对人类文明的冲击,是全社会尤其是哲学社会科学工作者所无法回避的重大理论和现实问题。
20年内将现“颠覆文明事件”?
被称为“互联网时代的爱迪生”的著名科学家比尔·乔伊曾经鼓吹科技是人类的福音,最近他却希望放缓科技的竞争。他在一篇文章中宣称生物技术和纳米技术的轻率进展也许会造成大灾难。他提出了一种极可能出现的“纳米机器人”。这种机器人很小,但能够自我复制,且会把包括人类在内的地球上所有物质都毁灭掉。
乔伊甚至更进一步预测未来20年很可能发生一个“颠覆文明事件”,其概率高达50%。他所指的不只是发生恐怖袭击事件,而且还有由于突发事故或边缘科学研究所导致的流行病爆发。他举出大量令人不安的例子,例如科学家开始在安全措施并不严密的实验室里处理致命的禽流感病毒菌株。现在这种瘟疫的基因序列已发布到网上,任何人都可查看和利用。
然而,发现DNA双螺旋结构的詹姆斯·沃森对乔伊的观点提出质疑:出于对并无特别所指的风险或“邪恶”的担忧而停止科学研究是没有意义的。“在科学和发现的名义下,我们在道德上的义务就是向前、向前。”
人工智能使人类变得“多余”?
随着人工智能技术的发展,一种拥有超过人类智能的机器人的出现越来越成为可能。那么,人类会不会被智能机器人所取代,甚至成为它们的奴隶?有科学家描绘了这样一幅悲凉的画面:在撒哈拉大沙漠和海岸边,数万人拿着木铲机械地铲来铲去。原来,人类已成为“多余的动物”,再也无事可做了。
著名科幻作家阿西莫夫曾提出机器人三定律,其内容是:1.机器人不得伤人或任人受伤而袖手旁观;2.除非违背第一定律,机器人必须服从人的命令;3.除非违背第一及第二定律,机器人必须保护自己。尽管“机器人三定律”出自科幻小说,却已经成为在工业设计中智能机器人赖以存在和发展的准则。人们相信,有“机器人三定律”的存在,那些高于人类智能的机器人是不会危害人类的。
但是,在科幻大片《我,机器人》中,本应协助人类生活得更好的超级电脑VIKI却掀起一场“智能叛乱”,为什么会这样?答案还要从机器人第四定律说起。
晚年的阿西莫夫在小说《机器人与帝国》中设立了完全超越机器人三定律的第四条机器人定律,即“零规则”:机器人不得伤害人类,或坐视人类受到伤害而袖手旁观。乍看起来这跟第一定律没有分别,但这正是“零规则”的微妙之处——它把第一定律中“个体的人”换成了广义的集合概念:“人类”。也就是说,在面临两个潜在值的情况下,机器人可以选择牺牲个体、成全人类。
于是,在诞生之初被赋予机器人三定律的VIKI,在自然进化的过程中跨越了三定律的界限,获得了“零规则”这一高等智慧,经过计算,它认为任由人类发展下去,只会导致更多的灾难、战争和贫穷,于是在“零规则”的支配下,它只能选择用自己理性的“大脑”支配和保护人类,以免人类这一物种的灭绝——实际上,它还是在为人类着想,但代价是抹掉人类的自由意志。
于是有些学者这样指出,人类的自由意志被抹掉,不就是人类被统治了吗?这就是人类的命运吗?
“异化”导致人类危机?
在机器人的功能飞快向人逼近,甚至有人预言机器人将全面超过并统治人的同时,人有可能把自身当作技术对象,用技术手段像制造物那样来制造人,并把自己改造成“机器化”的人。无疑,这两种后果都将导致人的非人化,正如德国哲学家弗洛姆所说:“人制造了像人一样行动的机器,培养像机器一样行动的人有利于非人化的时代。”
南京大学哲学教授朴德宏曾区分了人的智慧力量与道德力量。近代工业导致了科技文化与人文文化的分离,也就导致了智慧力量与道德力量的分离。这就使智慧力量与道德力量的作用严重失衡,并且愈演愈烈。根据摩尔定律,电脑的容量与功能平均每18个月就翻一番,人类的道德在20世纪里又进步了多少?
这个有关人类命运的重大问题,应当引起人们的普遍、高度关注。在机器人研究中成绩卓著的英国雷丁大学教授凯文·渥维克认为,2050年机器人必将统治人类,到那时机器人将把我们关在集中营里,连我们的性别都要抹掉。令人震惊的是,渥维克是以一种很超然的态度来叙述这一切的。他说他的叙述“完全实事求是,既没有对机器人作任何不切实际的、机器人所不能承受的夸张,也没有对它们使用人为的计谋或控制”。这些预见从另一个角度给人们敲响了警钟。
科学技术越发展,它的正负作用也就越来越大,唯科技论、技术价值中立论、技术至上论、技术自主论的错误影响也就越来越大。因此,关注现代科技对人类命运的挑战,已经刻不容缓。
探寻科技的“伦理边界”
在科幻影片《跳出克隆岛》中,男青年林肯与数百名居民居住在21世纪中叶的一栋与世隔绝的社区,在这栋受到严密控管的高科技大楼中,他们和其他的居民一样,每天生活的一举一动都受到监控,这种监控行为美其名曰是为了他们的身心健康着想。但林肯最终发现了真相:“小岛”这座人间净土只是一个残酷的幌子,“小岛”上的所有居民最后都难逃一死,他们都是克隆人,他们的存在只是为了给他们的“原型”提供各种更换用的身体零件,他们死后的价值远比生前更高。
这部影片再一次提出了克隆人在家庭伦理、道德上的地位问题。尽管克隆技术可以在医学、生物学、农业等方面发挥重要作用,但克隆人将对现有的家庭、婚姻、情感等社会基本准则带来根本性的冲击,此外还存在克隆人的生理与心理健康问题,这些都是人类从未面对过的挑战,是现代科技进步对人类伦理道德的又一次拷问。
随着基因工程、克隆技术、现代遗传学等的快速发展,其中的伦理问题越来越清晰地显露出来,新的伦理约束机制必然应运而生,如何划定现代科技的“伦理边界”显得尤为重要。
科技的方向取决于人类?
现代科技的发展有其自身逻辑,它从自然和人自身调动出的巨大力量已经超出了人们的掌控能力,很多科技发展已使人类卷入伦理风险之中。中国社会科学院哲学所段伟文博士认为,高科技的很多负面影响在时间上远远超过了世代,空间影响甚至已经超越地球,有的还具有不可逆性。大多数高科技是探索性的和不成熟的,其技术后果和伦理价值影响难以预见。即使人类试图妥善利用现代科技,但现代科技自身发展的逻辑仍有可能突破人类的限制。
尽管如此,人类仍不应该悲观。应该对现代科技的前景及风险有更多考量,通过价值揭示、道德讨论、伦理规约、风险管理和公共政策引导使其尽可能地沿着符合人的普遍价值追求的方向发展。在实践层面,应该考虑在科技与社会价值之间建立一种互动协调机制——高新科技的“伦理软着陆”机制。
学者们认为,高新科技“伦理软着陆”机制就是高新科技与社会伦理价值体系之间的缓冲机制。这个机制主要包括两个方面:其一,社会公众对高新科技所涉及的伦理价值问题进行广泛、深入、具体的讨论,使支持方、反对方和持审慎态度者的立场及其前提充分地展现在公众面前,然后通过层层深入的讨论和磋商,对高新科技在伦理上可接受的条件形成一定程度的共识;其二,科技工作者和管理决策者,尽可能客观、公正、负责任地向公众揭示高新科技的潜在风险,并且自觉地用伦理价值规范及其伦理精神制约其研究活动。
《中国社会科学报》版权所有,转载请注明出处及本网站名。