这里是为什么大型语言模型(LLMs)已经是原型通用人工智能(proto-AGIs)的原因。
7 个月前
AGI 应该是一个程度的量表,承认 LLM(大型语言模型)本身已经在响应测试中表现出一般智能。
AGI 中的一般智能单位与 LLM 的功能是无法区分的。
可以说,先进的 AGI 可以通过应用流程设计和数据及感知访问,从 LLM 的步骤中构建而成。
LLM 涉及的范围如此广泛,以至于不将它们标记为一般智能是荒谬的。它们可能因为缺乏数据或自主性而有些“受限”,但这不应使它们失去一般智能的资格。
盲人或残疾人并不是不聪明。
如果某物是一般智能的,并且是非人类的,那就是 AGI。
LLM 是原型 AGI。
主流的“定义”或流行的科幻情绪认为 AGI 必须达到某个模糊定义的人类阈值,这实际上毫无意义。
争论 LLM 还不是一般智能是荒谬的。它们当然是!
自 GPT-3 以来,LLM 可以:
制定合理的计划
执行这些计划中的多个步骤
在数百万个主题上进行逻辑推理
这取决于任务和计划的大小,以及数据或现实世界的访问,LLM 是否能够在一次调用中完成它。
具有先进应用流程和数据访问的 LLM 基础应用(如 COT 或 OpenAI 的 o1 模型)已经证明,多次调用大大提高了基于 LLM 的智商。
愚蠢的任务
具体说明一个计划的步骤必须在“单个 AI 或 LLM 调用”中执行多少次才能达到一个任意定义?
这是愚蠢的任务。
所以:不,我没有错。
AGI 是一个程度的量表。
LLM 确实是原型 AGI。
当然它们是人工的,当然它们是经过响应测试的一般智能。
AGI 的特性将通过应用流程和数据访问的增加而稳步提升。
但一般智能的本质在于 LLM 本身,而不是应用流程!
当然,LLM 的改进也会发生。
推荐阅读:
FluxAI 中文
© 2025. All Rights Reserved