观点:在给 AI 贴上“灭绝风险”的标签前,还请具体澄清担忧

 行业新闻    |      2023-06-14

撰文:巴斯大学人工智能教授 Nello Cristianini

来源:The Conversation

图片来源:由无界 AI工具生成

本周,一群知名的人工智能研究人员签署了一份由 22 个英文单词组成的声明

减轻人工智能带来的灭绝风险应该是一个全球优先事项,与其他社会规模的风险如疫情和核战争并列。

作为人工智能领域的一名教授,我也赞成减少此类风险,并准备亲自为之努力。但是,任何以这种方式措辞的声明都必然会引起恐慌,因此其作者可能应该更具体,并澄清他们的担忧。

根据《大英百科全书》的定义,灭绝是“一个物种的消亡或灭绝”。我见过该声明的许多签署者,他们都是该领域中最有声望,最为可靠的科学家 -- 他们当然是出于好意。然而,他们没有给我们提供这样一个极端事件可能发生的具体场景。

这并不是我们第一次处于这种境地。今年 3 月 22 日,一份由不同企业家和研究人员签署的请愿书要求暂停人工智能部署六个月。在生命未来研究所(Future of Life Institute)网站上的请愿书中,他们提出了自己的理由:“对社会和人类的深刻风险,正如广泛的研究和顶级人工智能实验室所承认的那样”-- 并在他们的请求中列出了一系列反问:

我们应该让机器用宣传和谎言充斥我们的信息渠道吗?我们应该把所有的工作都自动化吗,包括那些有意义的工作?我们是否应该开发非人类思维,使其最终超过我们,胜过我们,淘汰我们并取代我们?我们应该冒着失去对我们文明的控制的风险吗?


普遍的警觉


毫无疑问,在带来诸多好处的同时,这项技术也带来了风险,对此我们需要认真对待。然而,前面提到的情景似乎都没有勾勒出灭绝的具体途径。这意味着我们只有一种普遍的警觉感,而没有任何可能的行动可以采取。

最新声明出现在人工智能安全中心(Centre for AI Safety)的网站上,该网站在一个单独的部分概述了八大风险类别,包括人工智能的“武器化”,被用来操纵新闻系统,人类最终变得无法自我管理的可能,为压迫性政权提供便利,等等。

OpenAI 首席执行官 Sam Altman 于 2023 年 5 月 16 日在美国国会作证。

除了武器化,不清楚其他风险(仍然是可怕的)将如何导致我们这个物种的灭绝,而把它说清楚的重担落在了这一声明的作者身上。

当然,武器化是一个真正令人担忧的问题,但这意味着什么也应该得到澄清。在其网站上,人工智能安全中心的主要担忧似乎是使用人工智能系统设计化学武器。我们应该不惜一切代价防止这种情况发生——但化学武器已经是被禁止了的。灭绝是一个非常具体的事件,需要非常具体的解释。

5 月 16 日,在美国参议院的听证会上,开发了 ChatGPT AI 聊天机器人的 OpenAI 首席执行官 Sam Altman 两次被要求阐明最坏情况。他最后回答说:

我最担心的是,我们(这个领域、这项技术、这个行业)对世界造成重大伤害……这就是我们创办公司的原因 [以避免这种未来]...... 我认为如果这项技术出了问题,它可能会出大问题。

但是,尽管我强烈支持尽可能地谨慎,并且在过去十年中也一直公开强调,但保持分寸很重要——尤其是在讨论一个拥有 80 亿个体的物种的灭绝时。

AI 会造成必须真正避免的社会问题。作为科学家,我们有责任了解它们,然后尽最大努力解决它们。但第一步是命名和描述它们——并且要具体。

本文内容部分来自网络,仅供参考。如有侵权,请联系删除。