Ilya向全世界宣布:预训练结束了!全球AI数据耗尽,超级智能才是未来
北京时间10月15日凌晨02:45,欧国联A级联赛第4轮,比利时坐镇主场博杜安国王体育场,迎战法国。上半场,多库发挥活跃,萨利巴送点,但蒂勒曼斯将点球踢飞,随后费斯禁区内手球,也送给法国一粒点球,穆阿尼一蹴而就,奥蓬达在半场结束前头球扳平比分。
新智元报道
编辑:Aeneas 好困
【新智元导读】全球顶会Ne IPS 2024中,Ilya登场演讲,向全世界宣告:预训练结束了!数据如同化石燃料般难以再生,未来,AI的发展方向就是具备自我意识的 智能。
刚刚,Ilya现身Ne IPS 2024,宣布:从此将彻底终结。
短短16分钟的发言,足以震撼全场。
是的,他的原话是——
正如我们所知的那样,预训练毫无疑问将会终结,与此同时我们也不会再有更多数据了。
原因在于,我们只有一个互联网,训练模型需要的海量数据即将枯竭,唯有从现有数据中寻找新的突破,AI才会继续发展。
Ilya的预测是,以后的突破点,就在于智能体、合成数据和推理时计算。
未来,我们会走向何方?
Ilya告诉我们:接下来登场的就是(supe ntelligence)——智能体,推理,理解和自我意识。
十年再登巅峰,Ilya感谢前同事
论文地址:https://arxiv.org/abs/1409.3215
Ilya感谢了自己的两位合著者O el Vinyals和Kwok-Lee,放出了下面这张图。
这是在十年前,2014年蒙特利尔Ne IPS 会议上一次类似演讲的截图。Ilya说,那是一个更加纯粹的时代。
而如今,图中的三位青葱少年已经长成了下面的模样。
Ilya要做的 件事,是展示10年前同一个演讲的PPT。
他们的工作,可以用以下三个要点概括——
这是一个基于文本训练的自回归模型;它是一个大型神经网络;它使用了一个大规模的数据集。
10层,只需几分之一秒
下面,Ilya与我们探讨了「深度学习假设」。
如果你有一个10层的大型神经网络,它就可以在几分之一秒内,完成任何人类能做的事。
为什么要强调几分之一秒内?
如果你相信深度学习的基本假设,即人工神经元和生物神经元是相似的,并且你也相信真实神经元的速度比人类快速完成任务的速度更慢,那么只要全世界有一个人能够在不到一秒内完成某项任务,那么一个10层神经网络也能做到。
只要把它们的连接,嵌入到你的人工神经网络中。
这就是我们的动机。
我们专注于10层神经网络,因为在那个时候,这就是我们能够训练的神经网络。如果你能突破10层,你当然可以完成更多事。
下面这张PPT,描述的是他们的「主要想法」。
核心观点就是,如果你有一个自回归模型,并且它能够足够好地预测下一个Token,那么它实际上会抓取、捕获、掌握接下来任何序列的真实分布。
在当时,这是一个相对新颖的观点。
尽管它并不是 个被应用于实践的自回归神经网络,但Ilya认为,这是 个令他们深信不疑的自回归网络:如果把它训练得足够好,那么你就会得到想要的任何结果。
当时,他们尝试的是翻译。这个任务如今看来平凡无奇,当时却极具挑战性。
接下来,Ilya展示了一些可能很多人从未见过的古老历史——LSTM。
不熟悉的人会觉得,LSTM是Tran ormer出现之前,深度学习研究者所使用的工具。它可以被看作是一个旋转了90度的ResNet,但更复杂一些。
我们可以看到积分器(integr or),如今被称为残差流(residual stream),还涉及一些更为复杂的乘法操作。
Ilya还想强调的一点是,他们当时使用了并行化。
不过并不是普通的并行化,而是流水线并行化(pipelining),每层神经网络都分配一块GPU。
从今天来看,这个策略并不明智,但当时的他们并不知道。于是,他们使用8块GPU,实现了3.5倍的速度。
从这里,Scaling Law开始了
最终,ILya放出了那次演讲中最为意义重大的一张PPT,因为,它可以说是「Scaling Law」的开端——
如果你有一个 大的数据集,训练一个 大的神经网络,那么可以保证成功。
从广义上来说,后来发生的事情也的确如此。
接下来,Ilya提到了一个真正经得起时间考验的想法——联结主义(connectioni ),这样说深度学习的核心思想。
这种理念认为,如果你愿意相信人工神经元在某种程度上有点像生物神经元,那么你就会相信,超大规模神经网络并不需要达到人类大脑的级别,就可以用来完成几乎所有人类能做的事。
但它与人类仍然不同。因为人类大脑会弄清楚自己如何配置,它使用的是 的学习算法,需要与参数数量相当的数据点。
在这一点上,人类仍然更胜一筹。
所有这些,最终都引出了「预训练时代」。
这个时代,可以用GPT-2、GPT-3和Scaling Laws定义。
此处,ILya格外感谢了前同事Alec Radford,Jared Kaplan和Da o Amodei。
这项技术,是推动我们今日所见所有技术进步的核心驱动力。
预训练时代,即将终结
然而,我们所知的预训练路线,毫无疑问会终结。
为什么?
这是因为,尽管计算能力正通过更好的硬件、更优的和更大的集群不断增长,但数据量并没有增长——我们只有一个互联网。
甚至可以说,数据是AI的化石燃料。它们是以某种方式被创造出来的,而如今,我们已经达到了数据峰值,不可能再有更多数据了。
当然,目前现存的数据,仍能支持我们走得很远,但我们只有一个互联网。
接下来会发生什么?Ilya给出了下列预测。(或者只是提到他人的猜测)
首先,智能体会有一些突破,这些能自主完成任务的AI智能体,就是未来的发展方向。
其次,还会有一些模糊的合成数据,但这到底意味着什么?很多人都会取得有趣的进展。
最后,就是推理时计算了,最引人瞩目的例子,就是o1。在预训练后,我们接下来该探索什么?o1给出了生动的例子。
下面,是一个来自生物学的例子。
这张图,展示了哺乳动物的身体大小与大脑大小之间的关系。
在生物学中,一切都很混乱,但上面这个紧密联系,却是一个罕见的例子。
从人类及其近亲的进化分支上看,包括尼安德特人、能人等等,大脑与身体比例的缩放指数都不同。
这意味着在生物学中,确实存在不同比例缩放的先例。
如今我们所扩展的,可以说是 个我们知道该如何扩展的事物。这个领域中的每个人,都会找到 办法。
而我们在相关领域,也取得了惊人的进步。10年前这个领域的人,还会记得当时是多么无能为力。过去2年进入深度学习的人,可能都无法感同身受。
智能是未来,还会与意识结合
最后Ilya谈到的,就是 智能(supe ntelligence)了。它是公认的发展方向,也是研究人员们正在构建的东西。
从本质上来说, 智能与现在的AI完全不同。
目前,我们拥有出色的LLM和聊天机器人,但它们也表现出某些奇怪的不可靠性——时常会感到困惑,但却能在评估中表现出远超人类的能力。
虽然我们还不知道如何调和这一点,但最终迟早会实现以下目标:AI将真正具备实际意义上的智能体特性,并将正学会推理。
由于推理会引入了更多的复杂性,因此一个会推理的系统,推理量越多,就会变得越不可预测。相比之下,我们熟知的深度学习都是可以预测的。
举个例子,那些优秀的国际象棋AI,对于最顶尖的人类棋手来说就是不可预测的。
所以,我们将来不得不面对的,是一些极其不可预测的AI系统——它们能够从有限的数据中理解事物,同时也不会感到困惑。
同样,自我意识也是有用的,它构成了我们自身的一部分,同时也是我们世界模型中的一部分。
当所有这些特性与自我意识结合在一起时,就会带来与现有系统完全不同性质和特性的系统,它们将拥有令人难以置信的惊人能力。
当然,虽然无法确定如何实现、何时实现,但这终将发生。
至于这种系统可能带来的问题,就留给大家自己去想象吧。
毕竟预测未来是不可能的,任何事情都有可能发生。
参考资料:
https://x.com/_jasonwei/st us/1867696401830096970
https://x.com/blueberry_feed/st us/1867764724206629224
https://x.com/tmychow/st us/1867695173783925071