科技巨头要求人工智能(AI)研发暂停6个月
文章来源: 风城黑鹰2023-03-29 17:09:54

今天,包括马斯克在内的1千多名顶级科技巨头联署要求人工智能(AI)研发暂停6个月,不要超过目前GPT-4 的水平, 他们的公开信内容如下:

图片

图片

 

广泛的研究表明,包括得到顶级 AI实验室的认可,具有与人类竞争智能的人工智能(AI)系统可能对社会和人类造成深远的危险。正如广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的一项深刻变化,所以应以相应的关怀和资源 (对其)进行规划和管理。不幸的是,这种级别的规划和管理(目前)并没有发生。尽管最近几个月来,人工智能实验室陷入了一场失控的竞赛,(大家目的在)开发和部署更强大的数字思维,没有人能够(甚至他们的创造者)——都无法理解, 预测,或可靠地控制。

当代人工智能系统在一般任务上已变得与人类具有竞争力,我们必须扪心自问:(如果没有规则控制),我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们应该让所有的工作自动化吗?包括已经是令人满意的工作吗?我们是否应该发展最终可能从数量上即智力上超过我们(人类),并取代我们的非人类思维?我们应该冒险地失去对我们文明的控制吗?不得将此类决定委托给未经选举而产生的技术领导者。只有当我们确信它们的影响是积极的,并且它们的风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着AI系统潜在影响的大小而随之增加。OpenAI 最近关于通用人工智能的声明指出,“在某些时候,在开始训练未来系统之前进行独立审查可能很重要,并且用最重要的努力来同意限制用于创建新的计算模式的增长速度。” 我们同意(这一点)。(那个“某些时候”)就是现在。

因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的训练那些比 GPT-4 更强大的 AI 系统。这种暂停应该是公开的和可验证的,并且包括所有关键参与者(或AI实验室)。如果不能迅速实施这种暂停,政府就应介入并(强迫)暂停。

人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统无可置疑地是安全的。这并不意味着总体上去暂停 AI 开发,而只是从危险的竞赛中倒退一步,不至于发展到更强大的,新兴功能,但不可预测的黑箱模型在人类可控制前就已开发出来。

人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。

与此同时,AI 开发人员必须与政策制定者合作,以加快开发强有力的 AI 监督管理系统。这些至少应包括:专门负责 AI 的新的,有能力的监管机构;监督和跟踪高性能人工智能系统,和它们拥有的大量计算能力;出处和水印系统,以帮助区分真实与合成并跟踪模型泄漏;强大的审计和认证生态系统;人工智能造成的伤害的责任;为技术人工智能安全研究提供强大的公共资金;以及资源充足的机构来应对人工智能将造成的巨大的经济和政治破坏(尤其是对民主的破坏)。

人类可以享受人工智能带来的繁荣未来。成功创建强大的 AI 系统后,我们现在可以享受“AI 之夏”,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。我们可以在这里这样做。让我们享受一个漫长的 AI 夏天,而不是毫无准备地陷入秋天。