AI 理论家说核战争比开发高级 AI 更可取

一位著名的人工智能理论家写了一篇专栏文章,呼吁结束以空袭和核战争威胁为后盾的人工智能研究。

AI
2023-04-03 14:24:20
分享文章

image.png

洛斯阿拉莫斯国家实验室照片。

一位人工智能研究人员呼吁世界各国利用核战争的威胁来阻止通用人工智能的兴起。 

在TIME 的一篇专栏文章中,AI 理论家 Eliezer Yudkowsky 表示,暂停对 AI 的研究是不够的。Yudkowsky 说,世界必须愿意用空袭摧毁训练 AI 的 GPU 集群,并威胁要用核武器威胁不会停止研究新技术的国家。

Yudkowsky 的专栏文章是对一封呼吁暂停 AI 研究六个月的公开信的回应要求全世界停止所有 AI 研究。在尤德科夫斯基看来,停顿的时间还不够长。对他来说,AI是否会杀死人类不是问题,而是什么时候“不是‘也许可能是某个遥远的机会’,而是‘那是很明显会发生的事情’,”他写道。

Yudkowsky 认为,要阻止 AGI(与人类相媲美或超越人类的机器智能)的诞生以及由此导致的整个人类的毁灭,唯一的方法就是采取不可避免地引发更广泛战争并导致数百万甚至数十亿人死亡的行动, 死去的人类。

在他为 TIME 撰写的文章中,Yudkowsky 表示,世界必须关闭所有大型 GPU 集群,并为训练 AI 的计算系统使用的功耗设定上限。“政府和军队也不例外,”他说。“立即达成多国协议,以防止被禁止的活动转移到其他地方。跟踪所有售出的 GPU。如果情报表明协议之外的国家正在建设 GPU 集群,与其害怕国家之间的枪击冲突,不如害怕违反暂停令;愿意通过空袭摧毁流氓数据中心。”

Yudkowsky 要求观众更害怕 AI 会杀死人类的假设可能性,而不是他的处方会引发核战争的可能性。“不要将任何事情视为国家利益之间的冲突,要清楚,任何谈论军备竞赛的人都是傻瓜。在这方面,我们都作为一个整体生活或死亡,这不是一项政策,而是一个自然事实,”他说。“在国际外交中明确表示,防止 AI 灭绝情景被认为比防止全面的核交换更重要,如果需要降低大规模 AI 培训的风险,盟友核国家愿意承担一些核交换的风险跑。”

美国和中国是这里的相关例子,因为它们的军事和民用基础设施都在竞相发展人工智能。在 Yudkowsky 的设想中,这些国家最有可能空袭其竞争对手中心的数据中心。 

需要明确的是,任何一个进行这种空袭的国家都将开始一场战争,句号。中美之间的紧张局势已经很严重,而且两国都拥有核武器。如果五角大楼不将气球击落,中国就无法在美国上空漂浮气球,很难想象它会以不全力以赴的方式应对对圣安东尼奥数据中心的空袭。

同样,中国很可能不会在其领空遭受入侵和轰炸。尤德科夫斯基明确表示,核威胁已经摆在桌面上,世界大国不应停止全面的核交火,以防止人工智能的崛起。中国和美国进行全面的核交火将导致数十亿人死亡,并永久改变地球的气候,使数十亿人挨饿在他的道德演算中,他愿意杀死潜在的数十亿人,并可能在一代人的时间里毁灭这个星球,以防止终结者的发生。

这是我们应该退后一大步的地方。Yudkowsky 提议破坏的规模将使乌克兰的可怕战争看起来像儿戏,以防止他担心的事情发生。关于 AI 带来的生存风险的建议有很多,其中一个常见的建议是意外后果的结果:AI 可能会强行调集所有人类资源以实现某些预定义的目标。最近,Yudkowsky 似乎喜欢将高级机器学习程序描绘成一种不可知的——本质上是可怕的——外星人的头脑,它的目标与人类背道而驰,既会欺骗我们,又会聪明到无法阻止。 

这与 Yudkowsky 之前关于 AI 的名声保持一致:对在论坛上发布的关于超智能未来 AI 的思想实验感到震惊,该 AI 将折磨任何没有努力创造它的人。他禁止在论坛上讨论这个名为 Roko's Basilisk 的想法,后来解释了原因:“我被吓得措手不及,因为我对有人会发布他所谓的“纯粹的情感冲击”感到愤慨。 “信息危害”会伤害人们的大脑,他在 Reddit 帖子中写道。 

克苏鲁式“修格斯”人工智能的想法与当今最先进的人工智能相去甚远——就像从大峡谷底部向月球呼喊一样。它们是随机鹦鹉,正如研究员 Timnit Gebru 创造的那样,它们没有独立的“思想”可言。尽管如此,它们仍然构成了生存风险,可以而且必须在不考虑核战争的情况下合理解决这些风险。具有足够插件的 AI 模型可能已经能够被骗子分配任务并采取必要的步骤来执行它,包括通过操纵人类警方使用的人工智能面部识别系统已经将无辜的黑人送进了监狱。不过,这似乎不是 Yudkowsky 最担心的。 

同样,核武器现在也存在。它们不是六个月或六年后甚至可能永远不会到来的假设未来的一部分。他们是真实的。我们已经看到了它们的破坏性影响,研究了破坏并了解了后果。

近年来,核战争的风险有所增加。New START 是美国和俄罗斯之间最后一个剩余的核裁军条约,实际上已经死了莫斯科已经取笑了它的一套新的和先进的核武器。五角大楼计划花费数十亿美元对其核武库进行现代化和升级。中国曾经是核武器数量相对较少的稳健之手,现在正急于建造更多核武器。

在这种情况下,一个核超级大国可以说服另一个国家停止研究人工智能的想法是愚蠢的。尤德科夫斯基写道,我们必须将其定义为“绝不是国家利益冲突”,这是荒谬的。这是一个无视数百年历史和现实政治的幻想问题。它正在发明一个怪物,并要求世界领导人像你一样害怕它。

获取更多?
您可以随时联系我们的邮箱 [email protected] 告诉我们您需要的内容,我们的AI将为您提供最佳的服务。
随时查看
输入你的邮箱,随时获得最新内容
随机推荐

驻马店市“万场普法基层行”活动启动大会举行

驻马店市“万场普法基层行”活动启动大会举行