1,569 讀數
1,569 讀數

通往有意识机器的道路:GPT 模型和对 AGI 的探索

经过 Thavash Govender 11m2023/04/06
Read on Terminal Reader

太長; 讀書

通用人工智能 (AGI) 是指与人类一样聪明或更聪明的人工智能系统。寻求 AGI 一直是 AI 社区的长期目标。生成模型的最新进展导致人们对其实现 AGI 的潜力越来越感兴趣。
featured image - 通往有意识机器的道路:GPT 模型和对 AGI 的探索
Thavash Govender  HackerNoon profile picture
0-item



想象一下:在这样一个世界中,人工智能不仅仅是与你互动的“聊天机器人”,而是一个负责决策、科学研究,甚至引导人类前进的实体。


欢迎来到AGI的世界,即通用人工智能,它指的是与人类一样聪明或更聪明的 AI 系统。对 AGI 的追求一直是 AI 社区的长期目标,生成模型的最新进展导致人们对其实现 AGI 的潜力越来越感兴趣。

生成模型

生成模型是一种机器学习模型,能够根据训练它的大量数据(主要是文本,但现在也有图像)生成数据样本。他们可以从大量文本中学习语言的模式和结构,然后生成连贯且遵循相同模式的新文本。


这里的突破是使用“变形金刚”——2017 年推出的一种神经网络。


现在,更有趣的是……我问 GPT 生成模型是否可以生成其训练数据中从未有过的东西(在我们转向 AGI 时很重要)。


这是它的回应:




答案是,通过识别模式和数据结构,它可能能够但很难生成与训练数据截然不同的任何东西,而且没有什么是“完全新颖的”。这就是我们目前所在的位置。


一面反映你文明的镜子......

如果我必须以令人兴奋的方式描述 GPT:


目前,生成模型是你的文明在某个时间点的一面镜子,是你所做的一切的自动化和高效的记录和反映(一旦接受过一切训练)。


鉴于人类必须在许多年内产生科学、艺术和文化,然后在这一切的基础上训练模型,因此存在巨大的依赖性——这些生成模型要具有任何价值,模型训练的内容需要先创建。


这些模型可能看起来比人类“聪明”,但那是因为它们可以即时访问人类文化和文明产生的信息,而人类的创造力首先来自于一切......


两个行星的例子

为了进一步说明,我提出了“双行星”的例子。


由知识共享许可


在这种情况下,想象一个复制的文明,它已经进化到与地球-人类文明相同的水平,比如比邻星。他们可能具有相似的文化成就和相同的技术水平,尽管他们的语言、外貌等可能不同。与地球同时,他们开发生成模型和他们的 GPT4 版本。


如果我们向 Earth GPT4 模型查询 Proxima Centauri 上的任何信息,它什么也不知道……


当然,倒数也适用。即使是更高级的模型,如 GPT 5 或 6,也会有同样的局限性,因为它没有接受来自该星球的任何数据的训练。你还会认为它是“智能”吗?


GPT 在这种情况下会有多大用处?好吧,如果外星人来到这里,他们可以使用地球 GPT4 来了解我们星球、文化和成就的所有信息,前提是他们很快学会了 GPT 模型也熟悉的一种我们的语言。然而,在这个例子中,曾经被称为“AGI”的东西可能不被认为是这样。


真正令人印象深刻的是,如果地球GPT4能够理解来自假设的比邻星文明的图像或通过智商测试……。


与生俱来的智慧

令我惊讶的是,GPT4 能够理解图像中的模式、关系,并且能够通过简单的智商测试。是的,根据人类历史的数据,它的创造者训练它可以做到这一点,但一旦训练它就有了这种能力。



来自 GPT4 白皮书,OpenAI



这给我们带来了智能本身的定义,以及先天智能的概念。


“每个生物都有一定程度的先天智力”


虽然教育、社会经济地位和文化经历等因素会影响认知发展,进而影响人类的智商测试表现,但这些并不是影响智力的唯一因素。遗传学、神经学因素和学习能力的个体差异也起作用。因此,每个生物都有一种与生俱来的智慧,它在现实世界中展示的可见智慧中发挥着重要作用。


我们如何创造具有某种先天智能水平的人工智能?

请记住,如果一个人类婴儿在不同于他/她父母的文化中长大,学习不同的语言,孩子仍然能够快速学习。


考虑一下——如果我们回到两个行星的例子,我们相信虽然地球 GPT4、5 或 6 不了解另一个文明的文化、语言、事件等,但它将设法:


  • 执行宇宙中不变的数学计算

  • 了解宇宙中不变的基本模式

  • 学习宇宙中可能常见的语言的基本结构

  • 因此,......有能力从另一个文明及其数据中学习


然后我们接近一些非常令人兴奋的东西......然后我们可以争辩说,在创建这些模型时,我们承认必须在我们所有的数据上进行训练,我们正在迈出创建具有少量先天智能的东西的第一步。然后,每个后续模型都将在功能方面建立在前一个模型的基础上,直到……好吧,第 7 次或第 8 次迭代会是 AGI 吗?


他们是通用人工智能吗?

在这一点上,我们需要清楚我们对 AGI 的定义是什么,因为我们最终离创建一个 AGI 越来越近了。我相信我们的定义已经变得模糊了。


AGI 和奇点是否只是指任何比人类更聪明的智能?

如果我们回到 1993 年对“奇点”的定义,根据Vernor Vinge的“即将到来的技术奇点”一书,他谈到了“具有超人智能的计算机”。我可以争辩说,GPT4 在回忆知识方面已经比任何人都聪明,尽管它在创造力、理解力和情商方面的能力要差一些。


他还谈到了人类文明的进化,以与这种超级智能融合。这还没有发生,但已经建立了大脑接口。一个进入聊天 GPT4 的大脑接口可以让人类立即调用我们文明的所有知识,把他/她变成一个“超人”,这实际上是可以用今天的技术实现的。那么可以说我们已经满足了 1993 年定义的奇点标准……


奇点

如果我们转向未来学家雷·库兹韦尔 (Ray Kurzweil)对奇点的定义,他谈到“……当技术进步如此之快以至于它将导致人类文明发生深刻变化时……”。


2023 年,由于 GPT3 和 GPT4 的出现,是技术史上的分水岭,就像 PC 或互联网的推出一样。


已经有一些我只能与 GPT4 进行的对话,而我无法与其他任何人进行对话。原因是我周围的人现在可能对特定主题知识渊博,所以我求助于 GPT4。有时我确实会尝试与它争论并提出我的观点,而它会以反驳的方式回应。


根据我们之前对 AGI 的定义,可以说我们已经实现了它,或者至少在 GPT4 中非常接近它。


我们现在肯定在通往 AGI 的道路上,但我们现在必须为它明确定义一个路线图。这不再是二进制的,因为某些东西要么是 AGI,要么不是。更重要的是,一旦我们明确定义了这些级别,围绕 AGI 的恐慌肯定不会适用于 AGI 的所有级别。


这一点尤为重要,因为最近Elon Musk 等人公开呼吁“暂停” AGI 的开发,因为它们可能很危险。虽然这是正确的,但这也会让人类失去人工智能可以为社会带来的巨大利益。


当然,如果我们为 AGI 制定路线图并确定哪些级别有危险,哪些级别没有危险,那么我们就可以继续进行早期级别,同时在更高级的级别上更加谨慎。正确的?


AGI路线图

以下是具有明确定义阶段的 AGI 的潜在路线图。


  • 级别 1:智能机器——智能机器可以执行人类级别或更好的特定任务,例如下棋或诊断疾病。他们可以快速访问人类科学和文化成就的总语料库并回答问题。我们已经到了吗?


  • 第 2 级:自适应思维——可以学习和适应新情况的 AGI,通过经验和反馈随着时间的推移提高他们的表现。这些与 GPT4 类似,但在训练后继续学习。


  • 第 3 级:创意天才——AGI 能够产生原创和有价值的想法,无论是在科学、艺术还是商业领域。这些 AGI 建立在人类的科学和文化成就之上。他们开始为我们提供关于科学和宇宙的不同观点。


  • Level 4: Empathic Companions - AGIs 可以理解和回应人类的情感和需求,成为日常生活中值得信赖的伴侣和帮助者。这是这些智能模型中“情感”的开始,然而此时它们可能不仅仅是模型,而是开始以电子形式复制大脑。


  • 第 5 级:有意识的思考者——具有主观体验、自我意识以及推理自己的想法和感受的能力的 AGI。这就是通用人工智能可能变得真正不可预测和潜在危险的地方。


  • 第 6 级:通用思维——在各个方面都大大超越人类智能的 AGI,其能力我们还不能以我们有限的知识完全定义。这些 AGI 是我多年前的想象。这些 AGI 可以改进我们文明的局限性,并根据物理学的基本原理(即在宇宙中的最高知识水平上运作)为几乎任何事物推导出最有效和最先进的设计。


如您所见,1-3 级可能不会对人类构成太大的物理威胁,同时为社会带来许多好处,因此我们可以为继续发展这种能力提出论据。


4-6 级可能对人类构成重大威胁。我认为任何关于 4-6 级 AGI 的工作都应该在月球基地的空间站上进行,以限制对地球的潜在破坏。即使在 1000 年后,人类文明是否能够创造出 6 级 AGI 还是值得商榷的……


普世思想

在过去的几十年里,我一直着迷于高级 AGI 的概念,它比人类更先进,因此如果我们适当地利用它,它可以迅速扩展我们的技术能力。


这是 2007 年我博客上的一篇旧博文,在关注 Kurzweil 等人之后,我推测奇点即将来临。



我一直想象的是一种“超级智能”,它从基本原理上比我们更好地理解宇宙,即使它是我们创造的。想象一种智能,一旦达到某个点,就会以指数方式促进自身增长。它将进行自己的研究和学习。


这种智能在人类未来的研究功能中发挥作用是合乎逻辑的。


它可以利用赋予它的知识并比人类更有效地发展科学理论。例如,在今天,我们已经看到很多用于强化学习的数据都是由 AI 本身模拟和生成的。如果我们拥有的总数据有限,那么我们可以要求它为我们设计更好的数据收集工具,即。更好的望远镜、航天器和量子设备。


我将使用的一个简单示例是我们使用的计算基础架构,其他一切都建立在该基础架构上。


今天的大多数计算机都使用所谓的“冯·诺依曼”架构,如下所示。这种架构的主要缺点是数据必须不断地在 CPU 和内存之间移动,这会导致延迟。



由知识共享许可



最重要的是,我们通常使用 x86 CPU,然后使用 Windows 或 Linux 等操作系统,然后使用 C++ 等编程语言编写应用程序。


想象一下,如果我们能够根据基本原则设计出一个最佳、高效的计算架构,并在基本架构级别、CPU 级别、操作系统级别和应用程序软件级别进行数量级改进。对于今天的人类来说,这将是一项艰巨的任务,不仅在实际的技术设计方面,而且在构建它、在上一层进行协作以及采用该技术方面也是如此。


有了“超级智能”的通用人工智能,它就有能力同时生成每一层。


它还会为我们提供工厂构建新组件的设计原理图,这也是最快和最有效的方式。



现在,虽然这一切看起来像是一个方便的幻想,但我已经用上面的例子来说明“宇宙思维”可以帮助人类取得的巨大进步。


另一个例子是要求它计算如何最好和最有效地“解决世界饥饿问题”或“解决气候问题”。


当你考虑以上内容时,似乎好处多于问题,尽管一直被提出的一个问题是宇宙思维可能决定毁灭人类。因此我说,如果我们要尝试构建它,除了我们今天拥有的负责任的 AI 保障措施之外,还要采取必要的保障措施,并考虑在太空站或月球基地建造 AGI 外星世界,能够在需要时切断网络和电源。


概括

坚持你的座位! ……


一些 GPT 模型已经显示出令人印象深刻的通过 IQ 测试和学习基础数学的能力,暗示了开发超越简单文本生成的智能水平的潜力。既然我们有了 AGI 路线图的示例(上图),我们当然可以看到 GPT 如何成为该路线图中早期阶段的开始,尽管需要更多的技术突破才能最终进入后期阶段。


所以,系好安全带,做好准备——我们不知道这条路的尽头在哪里,也不知道它将把我们带到哪里,但是随着 GPT 模型现在成为主流,我们现在知道,到 2023 年,我们至少在路上,旅行向前。


本文所有内容版权所有 2023 Thavash Govender。

使用的图像已根据知识共享许可获得许可。


也发布在这里。


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks