「认知科学家马库斯: ChatGPT错在哪?一个简单函数暴露神经网络的硬伤 」| 泛化能力 | 恒等函数 | 抽象变量 | 结构化表示 | Sam Altman | 神经网络 | 符号主义
Автор: 北美王路飞
Загружено: 2025-08-30
Просмотров: 69709
核心摘要
立场澄清:作者是各大顶尖模型的重度付费用户(ChatGPT、Gemini Ultra、Claude、Perplexity),认可 AI 的效率价值;对加里·马库斯(Gary Marcus)的批评持“有依据、值得听”的态度。
主旨:以马库斯20多年前的《代数大脑》(The Algebraic Mind)为线索,讨论连接主义(神经网络)与符号主义的长期争论,指出仅靠神经网络难以解释/实现人类智能的关键能力。
马库斯的三大“代数本质”支柱:
抽象变量与规则(如“过去式=动词+ed”的可泛化规则);
递归与结构化表示(“桌子上的书”≠“书上的桌子”,关系结构必须被编码);
区分“个体”与“种类”(持续追踪独特个体的能力)。
关键论证与实验:
恒等函数示例:标准 MLP 易学到“训练集偏好”(如末位常为0)而非“输出=输入”的抽象规则,表现为自由泛化失败。
7个月婴儿 ABA/ABB 听觉实验:婴儿能在极短时间内抽取抽象模式(A=第1与第3相同),显示人类早期就具规则提取能力。
英语过去式过度规则化(went→goed 等):说明人脑可能采用“规则模块+例外记忆”的双轨制,而非单一连接网络。
结构化表示难题:纯分布式表示易遭遇“叠加灾难”(多个实体与关系共享资源时相互干扰)。马库斯提出“树苗”式模板(槽位:施动者/动作/受事)来保证关系结构不丢失。
个体追踪难题:神经网络依赖特征聚类,难以稳定标识同类中的不同个体;而人脑能给个体贴“持久标签”,跨时空追踪。
与当下大模型的对照:LLM 很强的模式识别与生成能力,但仍存在幻觉、脆弱性、逻辑与抽象规则处理欠稳、复杂结构/个体追踪不完美,与马库斯早年批评呼应。
方向判断:通往 AGI 的路,可能不是把神经网络“更大更深”,而是神经+符号(Neuro-Symbolic)混合:把学习与模式匹配(连接)和规则/结构操作(符号)结合。
对普通人的启发:
学习法:少背多“抽象”,寻找可自由泛化的“公式/规则”;
解题法:先判定问题是“模式识别”还是“逻辑推理”,对症下药;
看待AI:区分“炫技式匹配”与“真正理解结构与规则”,保持批判性使用。
对书的批评与定位:具体模型与论文已显陈旧,但其思维框架与问题切中要害,在大模型时代更具参照意义。
一句话 takeaway
人脑像一个“符号×连接”的混合引擎;要想迈向真正通用智能,AI 也需要这两套系统的合体,而非单一路线的堆料放大。
欢迎follow 我的推特: @kingluffywang
加入油管的会员: / @王路飞
-制作ppt工具Gamma:https://try.gamma.app/f51e7j4btgcq
-Perpleixy AI 优惠链接:https://perplexity.ai/pro?referral_co...
请我喝杯咖啡: https://www.buymeacoffee.com/luffywang
微博:北美王路飞
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: