这里是为什么大型语言模型(LLMs)已经是原型通用人工智能(proto-AGIs)的原因。


7 个月前

AGI 应该是一个程度的量表,承认 LLM(大型语言模型)本身已经在响应测试中表现出一般智能。

AGI 中的一般智能单位与 LLM 的功能是无法区分的。

可以说,先进的 AGI 可以通过应用流程设计和数据及感知访问,从 LLM 的步骤中构建而成。

LLM 涉及的范围如此广泛,以至于不将它们标记为一般智能是荒谬的。它们可能因为缺乏数据或自主性而有些“受限”,但这不应使它们失去一般智能的资格。

盲人或残疾人并不是不聪明。

如果某物是一般智能的,并且是非人类的,那就是 AGI。

LLM 是原型 AGI。

主流的“定义”或流行的科幻情绪认为 AGI 必须达到某个模糊定义的人类阈值,这实际上毫无意义。

争论 LLM 还不是一般智能是荒谬的。它们当然是!

自 GPT-3 以来,LLM 可以:

  1. 制定合理的计划

  2. 执行这些计划中的多个步骤

  3. 在数百万个主题上进行逻辑推理

这取决于任务和计划的大小,以及数据或现实世界的访问,LLM 是否能够在一次调用中完成它。

具有先进应用流程和数据访问的 LLM 基础应用(如 COT 或 OpenAI 的 o1 模型)已经证明,多次调用大大提高了基于 LLM 的智商。

愚蠢的任务

具体说明一个计划的步骤必须在“单个 AI 或 LLM 调用”中执行多少次才能达到一个任意定义?

这是愚蠢的任务。

所以:不,我没有错。

AGI 是一个程度的量表。

LLM 确实是原型 AGI。

当然它们是人工的,当然它们是经过响应测试的一般智能。

AGI 的特性将通过应用流程和数据访问的增加而稳步提升。

但一般智能的本质在于 LLM 本身,而不是应用流程!

当然,LLM 的改进也会发生。

推荐阅读:

FluxAI 中文

© 2025. All Rights Reserved