我觉得这个是往前了一步,但是离AGI还是有一定的距离。
现在在o1 中把不少精力放在了推理上,这更加符合人类的思考方式。在o1之前,llm只是一个死记硬背的孩子(llm 本质上是一种数据压缩)。现在的o1,让机器有了一定的推理能力。所以在特别注重推理的领域,数理,解码,等领域有了非常不错的表现。也可以推断,o1 在程序调试,在漏洞挖掘领域也会有非常不错的表现。
但是,这和我们人类还有那些差距呢?
对于新知识的获取与及时调整,aka 真正的学习能力。
人类有长期记忆,可以类比于,训练好的大模型。但是人类随时可以通过新的知识,学习新的内容,来解决问题,最后更新我们的长期记忆。
这部分其实是有类似的模型的。
这就需要动到底层的transformer模型了,现在比较promising的是TTT模型。Test-Time Training (TTT)。
但是最终的模型什么样的,现在谁都不确定,但是transformer这大概率承担不了AGI的重任。
AGI 的路还有很长要走。
ref
https://t.co/CuFqjwniD6