首页  

LLM本质上是“猜词”系统,它根本看不懂世界     所属分类 AI 浏览量 18
LLM本质上是“猜词”系统,它根本看不懂世界
Meta首席AI科学家Yann LeCun指出,当前主流大模型存在三大核心缺陷,导致其在真实智能层面甚至“不如动物”。
	
一、 无法理解世界:本质是“猜词”而非“思考”
	
AI的第一个缺陷是无法真正理解物理世界。它并非在“看世界”,而是在基于海量数据“猜下一个词”。
	
例如,一只猫能凭本能理解重力、距离和空间,而AI面对“桌边水杯是否会掉落”的视频时,无法基于常识判断,只能进行概率猜测。
这种能力的缺失,是实现通用物理交互(如家庭机器人)的主要障碍。
	
AI能处理语言符号,但不懂符号背后的物理现实。
	
二、 缺乏持久记忆:永远的“陌生人”
	
其次,AI缺乏有效的长期记忆,如同“金鱼记忆”。它对用户的每次交互都是“一次性回应”,无法有效积累过往经验,形成对用户的持续认知。
	
这导致AI难以建立真正的个性化、默契感和共情能力。它无法像动物记得主人那样,通过点滴积累形成稳定而深入的关系,因此始终是一个功能强大但缺乏深度的“陌生”工具。
	
三、 不会有效规划:只是“看似有条理”
	
最后,AI不具备真正的规划能力。它能生成看似逻辑清晰的计划文本,但这只是在模仿和堆砌词语,而非进行目标分解、权衡选择和动态决策。
	
LeCun强调,“智能不只是反应,而是做选择”。当前的AI缺乏明确的目标感和在遇到意外时灵活调整的能力,本质上仍是“会说话的机器”,而非“能做事的智能”。
	
结论:未来在于“重构”而非“堆料”
	
LeCun总结,理解世界、拥有记忆和学会规划,是构建真正智能不可或缺的基石。
	
AI的未来发展,关键不在于继续扩大模型规模、堆砌算力,而在于进行范式上的重构——即研发重心转向为AI建立这些底层的核心能力。
只有完成了这场深刻的重构,AI才能从模仿智能的阶段,迈向真正拥有智能的未来。
	
原文:AI深度研究员《热潮回落,AI 的硬标准:看世界、记得住、会规划 |Meta 首席科学家 Yann LeCun》

上一篇     下一篇
AI知识点解释

docker info 结果示例说明

mybatisplus IService 与 BaseMapper 的区别

docker 命令实战 单台物理机上使用 Docker 部署 Java 应用、Redis、MySQL、PostgreSQL 和 MinIO