阿西莫夫机器人三大定律,机器人三大定律漏洞( 三 )


当人类欺骗机器人去伤害他人时(若机器人没有检测出这种欺骗) , 那么机器人相当于把2的优先级置于1前 。尚不清楚定律0的优先级 。但是若人类个体伤害人类群体 , 机器人必须在1和0之间做出抉择时 , 必定造成优先级困境 。阿西莫夫机器人三定律中隐含圣经“十诫”中的影子 。如“不可杀人” 。这些绝对律令并不能防止机器人在所有的情况都做出“正确的”判断 。
换句话说 , 完全“正确的”判断是情境依赖的 , 而不是绝对的 。另一个阿西莫夫所隐含的价值判断是 , 机器人之所以必须遵从三定律 , 是因为其内部设定 。但是这样的设定并不能让机器人“更明智” 。而一旦机器人真正拥有“自我意识” , 那么它也一定会认识到三定律的矛盾之处 。或者说 , 通过明确判断三定律的吊诡之处 , 机器人可能才拥有自我意识和对自我的“再次定义” 。
机器人如果违反三定律还能定义为机器人吗?
关于这个问题 , 中国科普博览邀请人工智能领域的大咖、SELF讲坛演讲嘉宾、中科院计算所陈云霁研究员来回答 。2002年起 , 陈云霁从事国产处理器的研发工作 ,  先后负责或参与了多款龙芯处理器的设计 。科学伦理必须对我们的科技产品的生产和使用 , 要进行一些限制 , 你不能随便去用它 。我觉得这个机器和人之间的关系 , 是非常值得探索的 。
比如首先 , 尤其像人工神经网络这样的技术 , 它的行为是有一定的这种不可预测性的 。我们怎么让一个有具有不可预测性的这种人工智能算法 , 让它最后的行为又是能够符合某些确定的规范的呢?其实这背后是有很多科学问题的 。阿西莫夫三原则或者三定律是:第一条:机器人不得伤害人类 , 或看到人类受到伤害而袖手旁观.第二条:机器人必须服从人类的命令 , 除非这条命令与第一条相矛盾 。
第三条:机器人必须保护自己 , 除非这种保护与以上两条相矛盾 。我觉得三定律可能是科幻小说家的一个想象而已 , 但是背后确实有它的哲学的思考 , 也可以查阅出很多实际的科学问题来 。我觉得这些科学问题 , 未来是非常值得我们这些研究者去探索的 , 而且是非常有必要去探索的 。因为毕竟我们去做人工智能的研究 , 也是为了让人类社会能够有 , 说白了就是能够大家生活得更幸福 。
携带武器的无人机算不算机器人 , 如果算的话是否违反机器人三定律?
所谓的机器人三定律并不是真正存在的 , 仅仅是艾萨克·阿西莫夫在1942年发表的作品《转圈圈》中的一个设想 。不过只是因为对于人类对智能机器的恐惧 , 机器人三定律才广为流传的 。但这个东西并不是在工程学上实现的铁律 , 同时也没有被写入任何一个国家的法律中 。用俗话说就是一句“屁话” 。题主所想的无人机带武器的问题其实还是幼稚了 。
韩国在38线附近部署了一种叫做宙斯盾的武器站 。这其实就是智能机器人 。当这个机器人的传感器发现目标人形的目标的时候会开始自动喊话 , 制止人形目标的移动 , 如果喊话三遍这个人形目标还继续移动的话 , 会直接启动上面的M2重机枪进行扫射 。整个的行为完全是自主的 。并不需要认为干涉 。这就是处于某种目的设计出来的杀人机器 。
不仅仅是韩国 , 目前很多国家都研制和装备带有武器的战场机器人 。这里面一部分是通过人类利用远程遥控装置进行操作的 , 算不上是完全的人工智能机器人 , 还有一部分则是完全利用人工智能工作的自主武器机器人这玩意会自动的判断是否需要开火消灭人类 。如果按照机器人三定律来说 , 上面的几个例子其实都是彻底的违背了机器人三定律 。

推荐阅读