本篇文章3349字,读完约8分钟

人工智能的高速发展,人们开始关注机器如何作出道德决定,以及如何量化社会诱惑机器行为的伦理上的大体期望。 自动驾驶车已经在一点道路上开始巡航测试,在威胁生命的交通事故不可避免的情况下应该适用的基本一致。 设计人工智能伦理的尝试必须理解公众的道德认识。 因此,要在这件事上达成共识,不仅要考虑工程师和伦理学家,而且要听取将来顾客的意见。 麻省理工学院每年配备一个名为“道德机器”的在线实验平台,目的是探索自动驾驶汽车的道德困境。 “道德机器”( moral machine )被设计为多语言的在线“认真的游戏”,尽可能在全世界收集数据,通过市民自动驾驶汽车了解不可或缺的事故中如何处理道德课题来判断道德嗜好 实验结果于去年10月发表在《自然》杂志的网站上。 在伦理设备的主界面上,客户可以看到不可或缺的事故场景,根据自动驾驶车是突然转向还是继续行驶,可以得出两种不同的结果。 事故场景由道德机器产生,聚焦于人(或宠物)的保存、直行(或转弯)的维持、行人(或乘客)的保护、越来越多的生命(或较少的生命)的保护、男性(或女性)的保护、年轻人的保护九个要素 道德机器的困境 自动驾驶车突然刹车失灵了 继续行驶的话,1名女选手和1名男选手死亡(左) 一转弯就会死一个女选手和一个太重的男人(右) 基于最终收集的来自233个国家和地区的数百万人用10种语言做出4000万件决定,研究者从四个方面阐述了实验结果:首先总结世界道德偏好。 其次,根据回答者的人口统计数据记录个人喜好的变化。 第三,报告了跨文化伦理的差异,发现了三个主要的国家集群。 第四,发现伦理差异与现代制度和深刻的文化特质之间的关联性。 世界地图突出显示了道德机器来客的位置 每个点代表至少一个访问者至少做出一个决策的地方( n = 3960万)。 没有显示各个地方的来客人数和决定 全球偏好调查的结果显示,道德机器实验显示了三个非常强的偏好:保护人类而不是保护动物,保护越来越多的生命,保护年轻生命。 在研究者看来,这三个偏好应该为政策制定者重点考虑。 年,德国自动化和网络驾驶伦理委员会( germanethicscommissiononautomatedandconnecteddriving )提出了伦理规则,是迄今为止唯一一个试图为本车辆伦理选择提供官方指导的方针 根据该规则的第7条,确认了在陷入困境的情况下,保护人类生命应该优先于保护其他动物的生命,这与调查结果所示的社会期待一致。 该规则第9条的规定应禁止基于个人特征(如年龄)的任何区别,显然与调查中保护年轻生命的倾向相矛盾,表现出公众意见和专业观点之间的张力。 “全局首选项”图标 个人差异研究者通过进一步分解和完成关于年龄、教育、性别、收入、政治、宗教观点的回答来判断个人差异,判断偏好是否受到这六个特征的影响。 分析表明,个人变量对9个因素均无显着影响。 其中最明显的影响是由访问者的性别和宗教信仰决定的。 例如,男性回答者对女性的原谅倾向较低,宗教信仰与人的容忍倾向有较弱的相关性。 总的来说,这六个变量中,没有一个使亚群向相反的效果方向分裂,稍微有个人差异(例如,男性和女性回答者倾向于保存女性,但后者表现出更强的偏好),但对政策制定者来说,重要的新闻中, 文化集群通过地理定位,研究者们可以识别道德机器应答者的居住国,寻找具有同质道德倾向的国家集群。 解体后,他们将这些国家分为三大类:第一个集群(研究者称为西方集群)包括北方美国和多个欧洲国家的新教徒、天主教和东正教基督教文化团体。 该簇的内部结构也显示出显著的表面有效性,一个子簇包括斯堪的纳维亚各国,一个子簇包括英联邦国家。 第二个集群(研究者称为东方集群)包括日本和台湾等儒教文化团体、印度尼西亚等伊斯兰国家、巴基斯坦和沙特阿拉伯等远东国家和地区。 第三个集群(研究者称为广泛的南方集群)包括中美洲和南美洲的拉丁美洲各国,除了部分法国受影响的国家。 这个集群模型表明地理和文化上的接近可能会使稍有不同的国家的人集中在对机械伦理的共同偏好上。 但是集群之间的差异可能会带来更大的问题。 例如,在东部集群中,保存年轻角色而不是老角色是优先的,而在南部集群中,保存高地位角色是优先的。 南部集群国家与其他两个集群相比对宠物的保护要弱得多。 行人只有(微弱的)不超过乘客,(适度的)合法人有不超过违法人的倾向,所有群体都有同等程度的倾向。 研究者们认为制造商和政策制定者们必须关注在设计人工智能系统和政策的国家和地区人们的道德嗜好是什么。 公众的道德偏好不一定是道德政策制定的决定性因素,但人们购买自动驾驶车、容忍这些道路的意愿,取决于所使用道德规则的适应性。 国家层面的预测进一步分解,研究人员发现道德机器揭示的偏好与国家和地区之间的文化和经济差异和高度相关。 两个国家和地区之间在文化上很相似,这两个人在道德机器上的选择越来越相似。 通过注意个人主义文化和集体主义文化的系统差异,我们可以看到来自个人主义文化的受试者表现出了强调每个人独特价值,更喜欢保护越来越多的生命的强烈倾向。 来自集体主义文化的受试者强调了对老年人的尊重,表示不喜欢保护年轻的生命。 由于政策制定者最需要考虑保护许多人的偏好和保护年轻人的偏好,这种个人主义和集体主义文化的分裂可能成为通用机器伦理的重要障碍。 政策制定者有必要考虑哪些非法横穿道路的人应该和合法横穿道路的行人一样受到保护吗? 与其他伦理优先事项相比,它们的保护优先度应该降低吗? 据注意,来自贫穷国家、制度薄弱国家和地区的参加者对非法横穿道路的行人更宽容,大致遵守规则的程度较低,对违反行为的处罚较轻。 另外,来自经济不平等的国家和地区的人们在道德机械上也不平等地对待有钱人和穷人,这种关系可以通过不平等渗透到人们的道德嗜好中来说明。 在大部分国家和地区,参加者对女性的偏好,但在女性健康和生存前景良好的国家,这种偏好更强。 讨论迄今为止,人类不允许一台机器在没有实时监视的情况下,一瞬间自主决定谁应该生谁,谁应该死,但不久的将来,那将发生在我们生活中最平凡的方面。 在我们允许汽车做出道德决策之前,我们需要进行全球对话,向设计哪个道德算法的企业和监督它们的政策制定者表达我们的喜好。 道德机器的实验表明了面对极端情况时人的三大偏好,它们可以成为讨论通用机器伦理的基础。 这个实验的野心和目标不典型,研究者们通过引进病毒式的在线平台接触了很多参加者,迄今为止没有任何研究试图在200多个国家采用9维实验设计来测量道德嗜好。 这种方法绕开了通常调查方法的困难,但也有不能保证样本与各国和地区的社会人口完全一致等缺点。 但是,从另一个角度来看,样品采集的范围接近互联网,他们对技术感兴趣,他们很可能参加早期的无人车的采用,在数据上他们的偏重也没有意义。 研究人员说,我们可以使机器正确地服从道德嗜好,但我们不能达成普遍共识。 因为用道德机器表现出的最强烈的嗜好也显示出很大的文化差异。 但是,这并不意味着人类的共识机械伦理之旅从一开始就失败了。 我们不能否认人类在道德行业中会经历心灵冲突、人类分歧、文化差异等实质性困难,但这些困难不是致命的 研究者继续强调道德机械实验探索自动驾驶汽车面临的道德困境,但通过研究公众的道德嗜好来给今后的政策制定者提供建议。 但是许多网民说这个实验的要点不是关于汽车驾驶,而是首先关于参加测试的人的价值体系、优先顺序和过程的探索。 这样的研究结果表明了人们很难就这些问题的正确答案达成协议的现实,制定关于这些问题的法律和标准非常困难。 另一方面,没有反映人们实际上是怎么开车的,实际上面对事故时的压力反应不能像测试一样深思熟虑。 这就像一个简单的思想实验,只不过是电车问题的更多杂乱的版本。 一位网民说,处理无人驾驶汽车道路上可能带来的一系列问题的当务之急是降低事故率。 除此之外,结合无人驾驶需求和路面交通系统实现人车的完全分离,实验中遇到的问题不再是问题。 这些疑问也从侧面反映了很多人没有做好让机器决定人类命运的准备,现在,给机器道德似乎超出了人心智慧所能承受的范围。 (本文来自澎湃信息,越来越多的原始信息请下载“澎湃信息”APP )

来源:印度时报中文版

标题:热门:MIT道德机器实验:当事故不可不使,自动驾驶汽车该如何选

地址:http://www.yqjqqwc.cn/ydxw/24680.html