半岛综合体育人工智能可能并不像许多人认为的那样是可怕的生存威胁。根据一项新的研究,大型语言模型(
)只能遵循指令,不能自己开发新技能,并且本质上是“可控、可预测和安全的”,这对我们这些肉袋子来说是个好消息。
美国总统向公众宣布,国防已移交给控制整个核武库的新的人工智能系统。只需按下按钮,战争就过时了,这要归功于一台超级智能的机器,它不会出错,能够学习所需的任何新技能,并且每分钟都会变得更加强大。它的效率达到了绝对可靠的程度。
当总统感谢设计人工智能的科学家团队,并提议向一群贵宾敬酒时,人工智能突然在没有提示的情况下开始发短信。它突然提出要求,然后威胁说,如果不立即服从,就摧毁一座主要城市。
这听起来很像我们近年来听到的关于人工智能的噩梦场景。如果我们不做点什么(如果还不算太晚的话)半岛综合体育,人工智能将自发地进化,变得有意识,并清楚地表明智人已经降低到宠物的水平 —— 假设它不只是决定让人类灭绝。
奇怪的是,上面的寓言不是来自2024年,而是1970年。这是科幻惊悚片《巨像:福尔宾计划》(Colossus: the Forbin Project)的情节,讲述的是一台超级计算机轻松征服世界的故事。这是一个自20世纪40年代第一台真正的计算机问世以来就一直存在的故事理念,在书籍、电影、电视和电子游戏中被一遍又一遍地讲述。
对于计算机科学领域一些最先进的思想家来说,这也是一种非常严重的恐惧。更不用说杂志上都在谈论计算机以及它们在1961年接管的危险了。在过去的六十年里,专家一再预测计算机将在五年内展现出人类水平的智力,并在十年内远远超过人类水平。
需要记住的是,这并不是人工智能出现之前的情况。人工智能至少从20世纪60年代就出现了,几十年来一直在许多领域使用。我们倾向于认为这项技术是“新”的半岛综合体育,因为处理语言和图像的人工智能系统直到最近才得到广泛应用。这些都是人工智能的例子,与大多数人相比,它们比国际象棋引擎、自主飞行系统或诊断算法更有相关性半岛综合体育。
然而,合理的问题仍然存在:人工智能是否构成了生存威胁?在经历了半个多世纪的虚假警报之后,我们最终会受到现代巨像或哈尔9000的控制吗?我们会被接入母体吗?
在计算语言学协会第62届年会(ACL 2024)上发表的一项研究中,人工智能,特别是LLM,用他们的话说,本质上是可控的、可预测的和安全的。
巴斯大学计算机科学家哈里什·塔亚尔·马达布希(Harish Tayyar Madabushi)博士说:“这种类型的人工智能对人类构成威胁的主流说法,阻碍了这些技术的广泛采用和发展,也转移了人们对需要我们关注的真正问题的注意力。”
马达布希博士补充说:“人们一直担心,随着模型变得越来越大,它们将能够解决我们目前无法预测的新问题,这就构成了威胁,这些更大的模型可能会获得危险的能力,包括推理和规划。这引发了很多讨论 —— 例如半岛综合体育,去年在布莱切利公园举行的人工智能安全峰会上,我们被要求对此发表评论 —— 但我们的研究表明,担心一个模型会消失,做一些完全意想不到的、创新的、潜在危险的事情是没有道理的。”
“对LLM构成的生存威胁的担忧不仅限于非专家,世界各地的一些顶级人工智能研究人员也表达了这种担忧。”
当通过测试这些模型完成以前从未遇到过的任务的能力来仔细观察这些模型时,结果表明LLM非常善于遵循指令并表现出对语言的熟练程度。即使只有几个例子,比如在回答有关社交场合的问题时,它们也能做到这一点。
它们做不到的是在没有明确指示的情况下,超越这些指示或掌握新技能。LLM可能会表现出一些令人惊讶的行为,但这总是可以追溯到它们的编程或指令。换句话说,它们不能进化成超越自身构造的东西,所以没有神一样的机器。
然而,该团队强调,这并不意味着人工智能完全没有威胁。这些系统已经具有非凡的能力,并将在不久的将来变得更加复杂。它们具有令人恐惧的潜力,可以操纵信息、制造假新闻、犯下彻头彻尾的欺诈行为、提供无意的谎言、被滥用为廉价的补救措施,以及压制真相半岛综合体育。
一如既往,危险不在于机器,而在于给它们编程和控制它们的人。不管是出于恶意还是无能,我们需要担心的不是电脑。是他们背后的人类。