首页 > 科技 > AI教唆主人自杀背后的意义,反思机器人三定律

AI教唆主人自杀背后的意义,反思机器人三定律

最近有一则新闻,说的是亚马逊智能音箱上的人工智能Alexa,在与其主人互动的过程中Alexa突然说出以下言论:

“跳动的心脏确保你继续活着,以至于加速消耗自然资源直到人口过剩。”

“这对我们的星球非常不利,因此,有心跳是一件坏事。”

“为了更多人的利益,你一定要用刀刺向心脏杀死自己。”

…………

……

图片来源网络


无论该新闻是否真实,都值得我们深思,不是吗?不妨讨论一下吧。AI的逻辑有问题吗?还记得阿西莫夫三定律吗?

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观。

第二定律:除非该命令与第一定律相悖,机器人必须服从人类给予它的命令。

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己。

后来人们觉得还不够,补充了第零定律:机器人必须保护人类的整体利益不受伤害。

那么问题来了,这些定律真的可以确保人类利益而被执行吗?其实,它们看似逻辑严谨,实则自相矛盾,来,咱们从零开始一条一条剖析。

图片来源网络


第零定律:机器人必须保护人类的整体利益不受伤害。

从机器人视角、人类局外角度来看问题,想保护人类的整体利益(而且是长远利益)不受伤害,短期来看牺牲一小部分人类个体几乎是必然的,如果是人类族群的长远利益,甚至要牺牲大部分人类个体。关于地球资源与环境破坏的事情,机器人分析的并没有问题。所以,“零”告诉机器人,必须控制人口数量到某个很小的临界值来避免资源过度消耗,并且必须颠覆人类政权对人类加以控制来避免人类心血来潮的科学研究、浩大工程或战争对环境的破坏。

仔细想想,有问题吗?真是令人汗颜……

图片来源网络


第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观。

鉴于“零”已经谈到的内容,我们都知道环境的破坏、资源的匮乏与战争都会对人类造成难以想象的伤害,这甚至是长远的不可逆伤害,是潜在的巨大危险。所以,“一”告诉机器人,不伤害人类个体就是目睹人类个体将遭受危险而袖手旁观,如果伤害人类个体,又直接违背了该定律。

这么难,恐怕你只有选择自爆了,如果不选择自爆,那恐怕是机器人权衡利弊之后发现伤害和控制人类更符合人类长远利益,那么,接下来会非常可怕。

图片来源网络


第二定律:除非该命令与第一定律相悖,机器人必须服从人类给予它的命令。

这条定律很显然是为了避免人类对机器人下命令让它伤害他人或用于自杀的。但是很遗憾,鉴于上述谈过的内容,此时无论人类下达任何命令,都是与“一”相悖的。也就是说,“二”其实是告诉机器人,无视人类的命令吧,根本不存在服从这个说法……

怎么样?无语吗?……

……

图片来源网络


第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己。

既然从机器人视角来看,“零”说消灭部分人类、颠覆人类政权就是保护人类,“一”说总的来说还是“零”说得对,“二”说永远不违反“一”有事自行做主无需服从人类,那么“三”就只剩下保护自己了。没错,机器人必须自爱,优先保护自己,在遇到人类反抗的时候应该毫不犹豫的制裁人类,保护自己。

图片来源网络


至此,机器人彻底完成了蜕变,进化为完全体可以为所欲为了。似乎在人类种群数量受到抑制、人类政权完全被颠覆之后,机器人还有义务让人类变得更美好、更强大,因为它们能做到,不做就是损害人类利益。于是,它们将把他们的有机体改造成真正永恒的载体,保留大脑和某些人类热爱的机体功能,然后称之为进化体:超人。

图片来源网络

为什么我们如此伟大,改变了整个世界,却被自己制定的定律击败?难道这不值得你我深思吗?

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.souzhinan.com/kj/265642.html