据英国《每日邮报》7月5日报道,科学家们日前研究出的一组新公式,可以使无人驾驶车在发生交通事故后能果断做出正确的伦理抉择。
奥斯纳布吕克大学认知科学院的研究人员将各种物体按照生存价值排序,设计VR模拟情景,用计算机模拟人类伦理道德规范,使无人驾驶车在发生事故时,能将人的安全放在首位。这一发现对目前无人驾驶汽车的管理困境具有重要意义。
但研究者警告说,我们处于一个需要规则的新时代,没有规则,机器将脱离人类自主抉择,后果不堪设想。
《行为神经科学前沿》杂志日前也进行了一组测试,要求测试者雾天在郊区驾驶,在遇到意想不到的交通事故后,对人类、动物及无生命物体的救援进行取舍。随后,对测试结果进行统计分析,并给出其抉择的原因。
资深作家Peter Konig教授说:“尽管目前能赋予机器伦理道德,但我们仍处于一个尴尬的境地。首先,伦理道德是否应该被用在机器的开发上?其次,机器人是否应该像人类一样拥有道德准则?这都是我们不得不考虑的问题。(实习编译:张晨 审稿:李宗泽)