编程道德:艾萨克·阿西莫夫的机器人三定律

2019年9月6日

如果你问对人工智能和机器人技术的融合足够多的人,很有可能你会得到一些答案《终结者》。

害怕人类的蛮干的傲慢导致我们文明的终结并不新鲜;事实上,机器人的历史充满故事的发明开始对主人或被用于邪恶的目的。但这样的结果是必然的吗?我们必须,像希腊泰坦克诺斯,被我们创造和抛弃这么多垃圾?还是有办法保证自己和日益复杂的自动机之间的和谐继续塑造我们的世界?

机器人三定律”

科幻作家艾萨克·阿西莫夫开始回答这些问题的发展他的机器人三定律”。首次在他1942年的故事我,机器人,法律作为一种理性的方式开发管理智能机器人,能够存在于和谐有机的创造者。

除了这三个法律,他后来修改他们包括被称为“零”:机器人不得伤害人类,或不作为,让人类受到伤害。

机器人三定律

阿西莫夫提出了这些法律的终极管理的原则开发复杂的智能机器人:“这三个法律是唯一的方式理性的人类与机器人或处理一切。“法律明确根植于毁灭的恐惧在人类历史上,已经通知这么多故事。在许多方面,阿西莫夫在一种永恒的偏执与我们今天的世界:防止有超常智慧的AI的潜在威胁。

法律问题

而法律表面上阻止机器人的行为在某种程度上对人类有害,有无数的方式被证明是不够严格的道德准则。事实上,阿西莫夫自己探索这些法律的方式可以弯曲或误解为了制造混乱或造成伤害。

机器人三定律”漫画的XKCD

例如,让我们检查每个法律所使用的语言:他们围绕保护定义宽泛的“人性”。但谁来决定什么是一个人?历史上充斥着人不人道其他组织的例子。今年早些时候与新兴报道关于艾未未的种族和性别偏见,不难想象可怕场景otherization迈出了一步。

有没有可能一个机器人——不管什么设置的原则是用来计划——真正的道德如果其创造者本身就是有缺陷的,非理性的,和经常不道德的人吗?不幸的现实是,说这是不可能的,除非我们设计一些方法不可能走出人类思维的镜头。

技术奇点:我们需要法律吗?

非常聪明的人工智能不受道德约束的想法确实是可怕的。然而,这可能是依赖于一个关键事件发生在我们的未来——技术奇点。

提示:技术奇点是潜在的未来事件的发展技术成为人类意味着不可控和不可逆转的。

奇点会假设发生当一个智能机器,拥有能力之外的最有天赋的人,会设计出比自己更聪明的机器,这个过程会重复,直到最先进的人工智能可能被开发。

这种假设是计算机和人工智能的问题拥有心理学完全是人造的。我们甚至不了解人类意识,它是未经证实的,AI可以实现一个真正意义上的自我意识。

目前的人工智能只能定义目标给它的创造者。即使程序,例如谷歌的DeepMind令人印象深刻的事情喜欢能教自己走路,在一天结束的时候,它只有目标走。而人工智能正在开发,可以为自己设定新的目标,这些机器被完全自我意识相去甚远。

Gif的GIPHY

所以,即使“构造心理学”,远远超出了人类的能力,真正的道德可能无法实现,作为人工智能没有希望,愿望,或人类意义上的“智能”——只有原始的计算能力。如果是这样的话,一个系统一样严格阿西莫夫的法律可能不是必要的。

有兴趣使用目前的人工智能技术,以提高您的业务的努力?看看G2的真正的用户评论最好的人工神经网络软件:

找到最好的人工神经网络软件为你的业务。免费→了解更多

让心灵

不管将来什么,仔细观察问题的道德必须确保新技术的安全部署,因为每个进步增加了滥用的可能性和后果。阿西莫夫的法律,尽管他们可能有缺陷,旨在保护人类在面对压倒性的力量我们只能想象。幸运的是,人工智能和机器人的类型,我们可以访问仍相去甚远的各种机器,可能是我们所知的人类的生存构成了威胁。

既然我们已经考虑未来的人工智能和机器人技术,学习更多的考虑类型的机器人今天,我们看到世界上!

从来没有错过一个帖子。

订阅保持手指科技脉搏。

通过提交此表格,你同意接收来自G2的营销传播。
Baidu
map