斯坦利·库布里克的电影《2001太空漫游》很好地展示了机器自主决策的前景和风险。在电影中,计算机HAL为确保完成探索木星的深空任务,而杀死了飞船中的人类船员,而在这一过程中,剩下的人类船员反杀了它(他)。
HAL需要为杀死人类船员承担责任吗?承担多大的责任?这种情况下,人员船员杀死它(他),是一种谋杀吗?
《2001太空漫游》诞生在1968年。上述问题在当时就引发过激烈的争辩,并且,这些问题越往后,在机器人、人工智能逐渐变得更为完善、先进,就越具有现实意义。现实中,也陆续发生了机器人、自动设备、人工智能“杀死”人类的事件(事故)。谁又该为这些事件(事故)担负责任呢?是机器人自己,还是设计者,还是机器人的购买者(所有者)呢?
在现有的技术思维和法律思维下,诸如机器人“杀”人、伤人事件,会被解读为意外事故,意思是说机械装置的设计、生产或使用中的缺陷,所导致了不幸但不可预料的后果。如果依照这样的解读,机器的设计者和所有者都不需要为意外事故承担民事责任以外的其他责任。
但毕竟,机器、智能变得越来越先进,有趣的是,正是那种呼吁赋予能够自主思考和行动的机器、智能以某种人格权的主张,同时激活了要求这类机器、智能承担独立责任的要求。这意味着,人格权与道德能动性被捆绑在一起,不可剥离。
当然,也就有对应的反对主张,毕竟在现有情况下,机器、智能承担所谓的独立责任,会事实性地造成为特定人类脱责的情况出现。
当然,如美国北伊利诺伊大学传播学系教授戴维·J.贡克尔在其所著的《机器问题:从批判视角看人工智能、机器人与伦理学》一书中所谈到的,否认机器人人格权、道德能动性的人类中心主义,面临的问题是,人类这个概念本身也不是永恒的、普遍的、不变的。在历史上,很多阶层、种族的人不被认为是人,或者说不是完整的人。而且,人类中心主义在动物保护主义浪潮中受到冲击,动物保护的观念似乎可以直接推导为对机器的保护。
《2001太空漫游》这部电影,以及其他很多以机器人为主角、反派的科幻电影、小说都预言了自主机器人终将发起对人类的叛乱(并不是被一部分人类操纵的叛乱)。而近些年来,在金融市场以及机器、智能、软件应用水平比较高的其他一些领域,机器、智能、软件失控的现象也有增多。这类电影、小说展现的另一种两难情境就是,如果保护自主智能、机器,就可能造成人类福利的极大损失——自主智能、机器要是被认为是人,或者说就像动物保护主义者对宠物动物的伙伴界定,那么合乎伦理的选择显然是保护其存在,无论因此付出的人类福利代价有多大。
但是,一些声称机器、智能具有人格权,可以反抗伤害者,应当予以高度保护的观点,同时又否认机器、智能需要为其行为担负与人同等的重任。换言之,这就是将机器、智能当成了熊孩子来养育,只强调权利、空间和保护,而回避任何形式的责任。
进行这些问题的讨论,对于普通人而言,并不是毫无意义的。人与机器、智能本身也处于一个加速融合的过程,比如植入部分患者,可起到智能调节作用的设备、装置、机器人,在医学上的应用越来越广。未来肯定会出现那种所谓的植入智能装置比例甚至高于50%的新型人类,她们、他们可以被界定为人吗?或者说首要属性是人,还是机器(智能)?需要恪守阿西莫夫的“机器人学法则”吗?
书名:《机器问题:从批判视角看人工智能、机器人与伦理学》
作者:(美)戴维·J.贡克尔
译者:朱子建
出版社:北京大学出版社
出版日期:2023年10月