OpenAI 通用人工智能(AGI)的计划被揭露
OpenAI 通用人工智能(AGI)的计划被揭露
💡
作者:AIGC 研修社
内容来源于推特用户的搜集和推测,是各种报道和推文的拼凑猜测,大家可以当娱乐看,自行辨别文中推测的可能性。
今天凌晨一篇名为《揭示 OpenAI 计划在 2027 年前实现通用人工智能(AGI)的计划》的 google 文档开始在网络上传播,这篇文档一共 54 页,是来自推特 Jackson (@vancouver1717),他搜集了目前网络上所有的公开资料来推论 AGI 已经实现,真是太刺激了,可以结合前几天马斯克告 OpenAI违约,要求其公布进行中的 AGI 计划这个新闻,还有去年 Ilya 公开反对全体的董事会成员,开掉了 CEO 奥特曼,大家一直想知道 Ilya 究竟看到了什么?openai 的 AGI 真的已经实现了么?我们可以一起来看看这篇揭露文档。
以下是这篇文档的中文翻译。文末附上英文版PDF。
在这份文件中,我将揭示我收集到的有关 OpenAI(推迟)计划在 2027 年前创建人类水平的通用人工智能(AGI)的信息。并非所有信息都能轻易验证,但希望有足够的证据来说服你。
摘要:OpenAI 于 2022 年 8 月开始训练一个拥有 125 万亿参数的多模态模型。第一阶段被称为 Arrakis,也叫做 Q*。该模型于 2023 年 12 月完成训练,但由于高昂的推理成本,发布被取消了。这是原计划在 2025 年发布的 GPT-5。Gobi(GPT-4.5)已被重新命名为 GPT-5,因为原来的 GPT-5 已被取消。
Q*的下一阶段,最初被称为 GPT-6,但后来重新命名为 GPT-7(原计划在 2026 年发布),由于埃隆·马斯克最近的诉讼而被暂停。
计划在 2027 年发布的 Q* 2025(GPT-8)将实现完全的 AGI... ... Q* 2023 = 48 智商 Q* 2024 = 96 智商(推迟) Q* 2025 = 145 智商(推迟) 埃隆·马斯克因为他的诉讼导致了推迟。这就是我现在揭示这些信息的原因,因为不会再造成进一步的伤害。
我已经看过很多关于人工通用智能(AGI)的定义,但我将简单地将 AGI 定义为一种能够完成任何聪明人类所能完成的智力任务的人工智能。这是现在大多数人对这个词的定义。
2020 年是我第一次对一个 AI 系统感到震惊——那就是 GPT-3。GPT-3.5 是 GPT-3 的升级版本,也是 ChatGPT 背后的模型。当 ChatGPT 发布时,我感觉更广泛的世界终于赶上了我两年前就开始互动的东西。我在 2020 年广泛使用 GPT-3,并对它的推理能力感到震惊。
GPT-3 及其半步后继者 GPT-3.5(在 2023 年 3 月升级为 GPT-4 之前,它驱动了现在著名的 ChatGPT)在某种程度上是朝着 AGI 迈出的巨大一步,而早期的模型则不是这样。需要注意的是,像 GPT-2 这样的早期语言模型(基本上自 Eliza 以来的所有聊天机器人)实际上没有真正连贯回应的能力。那么为什么 GPT-3 会有如此巨大的飞跃呢?
参数数量
“深度学习”是一个基本上可以追溯到 20 世纪 50 年代人工智能研究初期的概念。第一个神经网络是在 50 年代创建的,而现代神经网络只是“更深”,意味着它们包含更多的层——它们要大得多,并且在更多的数据上进行训练。今天 AI 中使用的大多数主要技术都根植于 20 世纪 50 年代的基础研究,结合了一些较小的工程解决方案,如“反向传播”和“变换器模型”。总体而言,AI 研究在过去 70 年里并没有根本性的变化。因此,AI 能力最近爆炸式增长的真正原因只有两个:规模和数据。
越来越多的领域内人士开始相信,我们几十年前就已经解决了 AGI 的技术细节,只是直到 21 世纪才有足够的计算能力和数据来构建它。显然,21 世纪的计算机比 20 世纪 50 年代的计算机强大得多。当然,互联网是所有数据的来源。
那么,什么是参数呢?你可能已经知道,但为了给出一个简短且易于理解的总结,它类似于生物大脑中的突触,即神经元之间的连接。生物大脑中的每个神经元大约有 1000 个与其他神经元的连接。显然,数字神经网络在概念上类似于生物大脑。
人类大脑中大约有多少个突触(或“参数”)?
关于大脑突触数量最常被引用的数字大约是 100 万亿,这意味着每个神经元(人类大脑中大约有 1000 亿个)大约有 1000 个连接。
附件不支持打印
加载失败,