无人驾驶汽车如何做出生死抉择?Google工程师承认他也不知道

2016-08-28 07:50:21 济宁新闻网

ITle="324.jpg" src="http://news.cnblogs.com/images2015.cnblogs.com/news/66372/201608/66372-20160827162358397-1557459732.jpg" alt="http://static.cnbetacdn.com/article/2016/0827/71350c744069799.jpg" />

如果有这样一道问题摆在你的眼前:当你已经无法刹车控制车速,要么撞上有三名乘客的另一辆车,要么紧急转弯撞击路旁行走的三名儿童,假设你有充足的时间思考你会如何选择?诚然这是非常难以回答的问题,人类尚且如此那么当这辆汽车的驾驶权交给机器人,机器人又会做出什么样的选择?对此 Google 的工程总监 Ray Kurzweil 在上周也给出了自己的答案,总结来说就是:我们都不知道。

在奇点大学的演讲中,Kurzweil 解释为何说汝不能杀戮的机器人戒条是非常错误的。如果某个人想要炸毁一座建筑或者一座城市,那么从道德上我们自然有权利去阻止他。那么再回归到自动驾驶汽车上,机器人同样需要一个道德编程,他表示 Isaac Asimov 的机器人三大戒律是很好的第一关。

当你面临某些抉择的时候,如果两种结果都会导致一些人死亡你会怎么做?对此他也承认当无人驾驶面临这样的抉择的时候还没有准备好答案。他表示:我会继续进行深入研究,我的分析工作还未结束。

济宁IT新闻

济宁新闻网版权与免责声明:

一、凡本站中注明“来源:济宁新闻网”的所有文字、图片和音视频,版权均属济宁新闻网所有,转载时必须注明“来源:济宁新闻网”,并附上原文链接。

二、凡来源非济宁新闻网或北京晚报的新闻(作品)只代表本网传播该消息,并不代表赞同其观点。

如因作品内容、版权和其它问题需要同本网联系的,请在见网后30日内进行,联系邮箱:452584743@qq.com

takefoto