机器人会统治世界吗?
几章前提到,自1921 年戏剧R.U.R 介绍机器人开始,总会有电影或节目以机器人或AI 试图控制世界为主题。然而,电影中的邪恶AI 与科学事实有何关连? AI 真能统治世界吗?它会怎么做呢?它又为什么想要统治世界呢? AI 电影中的反派写手,得要考虑动机和机会的问题。
寻找有意义的动机
我们先看动机。很少人会说,智慧(intelligence)本身就拥有统治世界的坚定渴望。你通过学校的测验,必然表示你是罪恶的吗?当然不是。在电影中,AI 通常因为害怕人类把它们关闭,会受到自保的动力所驱使。但我们会让我们的AI 感受到威胁吗?它们为我们提供种种好处,若说它们在为你搜寻离你最近的意大利餐厅时想要拥有自我认知感,似乎没什么道理。
另一个AI 之所以邪恶的普遍动机,是它们积极应用设定逻辑的热情。举例来说,一个常见主题是:保护地球的目标只要靠毁灭人类才能完成。这种逻辑造成的毁灭,是过去某个概念的残留— 电脑会选择一个停住的时钟,而非一个慢两秒的时钟,因为停止走动的时钟一天至少会正确两次,至于慢两秒的时钟从未正确过。这类情节动机根植于脆弱的逻辑,再加上对生命的漠不关心。今日的AI 系统以不确定性依照数学推理,被设计成能安全地与人类一起工作,与上述情节似乎截然不同。其中一个经典是科幻小说作家艾西莫夫(Isaac Asimov)在他的机器人系列作品(I, Robot)所思考的“机器人三原则”,即所有的机器人都内建有不可逾越的规则, 以防他们伤害人类。机会来敲门
当我们考量到AI 是否会统治世界时,我们某种程度上处于更安全的地位。知名的图灵测验,就是设定来测量机器进行可信对话的能力;前提是,如果你无法分辨AI 和人类的不同,AI 就通过了测验, 应该被认为和人类一样聪明。
那么能统治世界的图灵测验,测量的是机器的哪种“技能”呢?要探索这点,我们需要将AI 的反社交行为,跟人类统治世界的种种预期特征做比较。统治世界的人往往会控制人们生活中的重要部分,如人们对金钱的使用或是购屋能力。事实上,AI 已经这样做了:举例来说,贷款决策通常是由能筛选如山高的资料而决定你信用评等的AI 做的;现在AI 也在股票市场上进行交易。
一个最高指导者下达命令,然后期待这些命令被遵从—任何曾无助地站在商店自助结账柜台前,被反覆下指令进行装袋工作的人,都知道被AI 指使的感受。
统治世界宾果游戏
让我们来进行一个统治世界宾果游戏,看看AI 统治世界的机会有多少?你需要制作你自己的统治世界宾果牌卡。在一张卡纸上画上3x3 的格线,每一格都写出一个你认为能统治世界的要素。为了帮助你思考,你可以想想统治世界的超级坏蛋当中你最喜欢的那一个会做些什么,让你知道他现在是老大?控制网络?决定人们可以去哪儿、不能去哪儿?还是控制税收?将这些卑鄙行为分别写在你的宾果卡中,直到把所有格子填满。然后与朋友交换卡片。游戏规则很简单,参赛的每个人要在网络上搜索电脑、机器、机器人或AI 系统,抢先完成卡片上活动的具体案例。你需要尽可能多找一些例子。每当你找到一个例子,记录下网址并把那格圈起来。试着像一般宾果游戏那样,画出一条垂直、水平或倾斜的直线。
第一个连成一条线的人可以喊宾果(当然要以邪恶机器人的声音),然后取得胜利,但要检查被圈起的范例以及写在纸卡上的活动彼此是否相符。如果你只有一点时间可以进行这个游戏,那么赢家就是那个圈起最多格子的人,但也一定要回头检查你找到的案例是否是真实的,相符于宾果卡上那些超级坏蛋的行为相符。
进行这游戏能让你更加理解今日的机器人及AI 究竟可以做到什么程度,到最后你要不是开始担心,就会是感觉更安全。
追杀比尔?
好莱坞中任何自大狂机器人,若没有一丝想杀光人类的欲望,就不算完整。我们已经设计出用来杀人的无人机。这些军事机器人可以在没有人类干预的情况下辨认目标,但在攻击方面,仍是由人类控制者来下达指令。然而,这并不表示自动杀人机器人没有存在潜力—我们只需改变计算机程序码,就能让它们这样做。事实上,自动杀戮机器人已经存在了,只是不是用来杀人。当我们写这本书时,在大堡礁已准备放置挥舞毒枪的机器人,它们会在水中自行侦测并猎杀破坏珊瑚礁生态的海星。这些机器人一旦放入水中,不需等待人类下达猎杀指令,AI 便会自行决定谁生谁死。这些例子某种程度上显示,AI 确实控制了地球上有限生物的生命。但是非常明显地,若真要统治整个地球(就像电影上演的那样),这些个别的AI 需要共同合作创造出一支同步的AI 大军。那个管太多的自助服务柜台,得要和你的健康监测器对话,才能拒绝卖啤酒给你。而这两者可能会和一个信用评分系统合作,只有当你买了双内建GPS 的跑鞋,并吃掉从智慧冰箱中拿出的甘蓝菜,它才会提高你的信用卡额度。当然,智慧冰箱只有在跑鞋上显示你已跑完今日预定的五英哩之后才会打开。
想到这个场景就令人开始担心,但幸运的是这不太可能发生。全世界的工程师在发展一种能将各种设备和物件结合在一起,以创造出新服务的事物网(Internet of Things)。这些都只是拼图碎片, 尚待拼凑在一起,形成统治世界的整体全图。但这是不可能发生的情况,因为有太多事情需要配合以及合作。这与《ID4》这部电影中恶名昭彰的情节陷阱很像:一台苹果电脑和外星人太空船的軟体,竟在没有任何情节交代下,拥有跨平台的相容性—只要插上就可以使用。
我们地球上的AI 系统以各种不同的电脑语言书写,以各种不同方式储存不同资料,并使用着不同且不相容的规则以及学习技巧。除非我们将它们设计为彼此相容,否则在没有人类干预的情况下,两个经过安全设计,且分别由不同公司为了不同服务内容而发展出的AI 系统,不可能自动自发融合在一起,分享彼此的能力, 从而形成更大的共同目标。当然,全球化意味着有股强大的推力, 要促进事物的一致化,以符合现代全球化巨大型公司赚更多钱,进而控制市场的目标
所以AI,以及装置有AI 的机器人,能通过考验而统治世界吗? 按理说,如果我们这些聪明但微不足道的人类,允许它们并提供它们许多帮助,结果有可能如此。但我们为什么要这样做呢?可能就因为我们人类比较笨吧。
本文节录自:《思考的演算:跟着电脑学思考,你也可以成为计算思考大师》一书,保罗.科松(Paul Curzon)、彼得.马克欧文(Peter William McOwan)著