电车问题是一个道德上着名的“硬”心理实验,最初由哲学家菲利帕·福特于1967年提出。 即使对于福特本身来说,它也被认为是大多数人在生活中不会面对的抽象问题。 然而,随着技术的快速发展,尤其是无人驾驶车辆的道路测试,这一思想实验成为现实。 今天,这个问题不再仅仅是一个哲学家,政策制定者和汽车制造商必须考虑并解决这一道德困境。 想象一下沿着道路行驶的无法控制的电车。五个人站在马路前。 此时,作为旁观者,您可以拉动杠杆将电车引导至另一条轨道。只有一个人站在这条路上。 那么我们的选择是什么? 我什么都不做可以杀死5个人? 或者按下开关并牺牲其他人来节省5个人? 这是着名的“电车问题”。 在设计无人驾驶计划时,您必须考虑实际发生的可能性。 两侧有两名摩托车手,一名戴头盔,一名不戴,没有司机驾驶儿童车。 这样的场景在现实中并不罕见。 在紧急情况下,如智能车前面的卡车突然刹车,它可以突然转向两侧,以避免车内的人员伤亡,但这是一辆由两个人拥有的摩托车影响 这辆没有驾驶员的智能汽车应该如何设计一个程序来应对这种紧急情况 如果人工智能应尽可能减少死亡,你应该选择骑摩托车头盔,但这会伤害无辜的人! 无人驾驶汽车用技术挑战道德 事实上,电车问题的无人驾驶版本比原版更复杂,相关的道德关系是多方面的和多边的。 如何实现符合特定“标准”的“道德准则” 什么“道德准则”是“适当的”? 谁应该对不可避免的无人操作事故负责? 谁负责这样的“民族代码”? 你有汽车,制造商还是程序员? 提出了一系列问题,导致人类与智能机器之间的第一次大规模互动。 如果您根据现行法律法规编写“道德准则”,那么人们是否符合道德要求? 事实并非如此。 人类的法律法规远非所有可能性。 事实上,道德观点的问题非常复杂,没有驱动程序的汽车技术的实施也同样复杂。 人工智能,技术和人类伦理是无情地交织在一起的。 一些媒体认为人类是没有司机的汽车的天敌。 文章称:“谷歌的自动驾驶汽车往往采用最谨慎的驾驶方式,但这使得它们与其他汽车在路上不相容。 “因为严格遵守法律法规的无人驾驶汽车在交叉路口遇到司机时会通过测试,因为传感器正在等待其他(人类)司机停下来通过。我不能这样做。“ 但其他司机急忙找到一个有利的机会。 这种情况使一辆没有司机的汽车失速。 “ 智能设备的挑战之一是如何将它们集成到复杂的人类世界中。 “电车问题”中的“你”有自由意志,但它处于两难境地。 无人驾驶车辆的道德困境中的“主人”实际上是一个实施这项技术并实现其应用的团队。你的能力比个人好得多,你能做出完整的道德决定吗? 当道德困境不再是个人选择而是人类选择的问题时,每个人都必须对自己的想法负责。 ![]() |