2026.2.8 Live Notice: How Should We Learn in the AI Era
2026.2.8直播通知:人工智能时代我们该如何学习
AI 的发展让很多人产生恐惧,一些家长在这种恐惧下,不仅没有让孩子更轻松地学习和生活,反而把自己的焦虑释放到——让孩子无休止地报班学习之路上。本文引用【黑洞 AI】团队系统架构师 Kurt 博士的著作《人工智能经济革命》的选段来阐释人类在 AI 时代所产生的思维变化,文章旁征博引,内容颇有深度。如果您有任何想要参与讨论的欢迎参加 2 月 8 日晚 19:30-21:00 的公开直播分享。
腾讯会议号:692-494-579
声明:本文由人类主导撰写
关于本文
- 本文系【黑洞 AI】系统架构师 Kurt 博士所著——《人工智能经济革命》中的前言选段
- Kurt 博士写作的方式是由他本人撰写框架,与 AI 共同讨论,AI 辅助搜集资料,再由他本人筛选素材重新撰写
- 本文正文所有图片均为权威机构官网图片引用,无人工智能生成
人类并不是因为聪明而统治世界——从演化生物学到人类教育变革
我想从一开始就把话说得足够清楚:这本书并不准备把人类写成"更聪明的赢家",也不准备把人工智能(Artificial Intelligence)写成"更聪明的新物种"。我更愿意把人类看作一种长期被误读的生物——我们最独特的优势,并不是智力上限的炫耀,而是思考成本的压缩能力。
在人类漫长的演化过程中,真正让我们活下来的,并不是每一次都能想得更深,而是大多数时候,能够在不确定的环境中,用更少的认知能量做出"够用"的判断,并把这种"够用"固化为习惯、工具、仪式、制度与叙事,最终变成文明的基础设施。
这听起来像是在贬低"理性",但恰恰相反,它是对演化生物学(Evolutionary Biology)最基本事实的尊重:自然选择(Natural Selection)并不奖励最会沉思的个体,而奖励那些能在成本约束下活下去、繁衍下去,并把这种机制复制下去的结构。
一块被带回洞穴的石头
1925 年,在南非(South Africa)的马卡潘山谷(Makapan Valley)一处洞穴中,人们发现了一块奇怪的卵石。它并非人工雕刻,却在天然的磨蚀与凹陷中呈现出一种"像脸"的结构。这块石头后来被学界称为一种"手搬物"(manuport):不是工具,却被原始人特意带回居住地点。
他们为什么要带回这个物件呢?以今天我们的视角来看,这很正常,就像捡了一块人形的萝卜带回家,拍一个照片分享到社交网络。这背后的动机是:你们看,这是大自然的奇迹。一种带有"艺术审美"倾向的心理动机。
但是在数万年前,这是一件不可思议的事情,因为这些早期人科动物并未建立"大自然"这一概念,也没有社交分享动机。那是什么构成了他们"要带回它"这一动作呢?
也就是说:为什么"像一张脸"这件事,会重要到让人愿意把它带走?
我更愿意相信他们一定不是因为"艺术和审美",而是因为恐惧!因为这张脸,可能带有影响早期人科动物生存的信息。
在一个充满噪声与不确定性的世界中,人类的大脑并不是被训练来追求"事实的准确性",而是被塑造成优先判断这里是否存在威胁,或任何可能需要我做出反应的外部因素。
他们可能会想:这个我的同类是怎么死在这里,并且变成石头的;或者是否不带走它,就会遭受神的惩罚;或者这就是神,他在警示我们危险即将来临?尽管他们还没有"神"这个词,但是关于世界是由超越他们的存在所掌控这件事,他们心知肚明。
在远古环境中,把风声误判为野兽来临,代价最多是虚惊一场;但把真正的野兽误判为无害,代价可能就是生命本身。
正是在这种风险不对称的条件下,人类演化出了一套看似多疑、却极其高效的认知策略:宁可过度警觉,也不要反应迟钝。
这也解释了为什么"像脸"会如此重要。它并不一定是真的脸,却足以触发那套古老的判断机制——提醒我们:这里也许存在某种需要警惕、需要回应的风险源。这不是审美的起点,而是生存的底线。
想想今天大多数人对人工智能的恐惧,是不是很相似?我们并不怕超高速的列车,也不怕能载人上天的宇宙飞船,我们极其恐惧"像人且超越人"的不明物种,那意味着可能存在"被替代和被毁灭"的信息。
我们看到大部分人对于人工智能的出现,第一直觉不是研究它的真相,而是警惕,要么迅速使用,要么迅速避开甚至抵制,就是这种面对生存环境复杂性演化的结果。
演化心理学(Evolutionary Psychology)中的"错误管理理论"(Error Management Theory)讨论的正是这种偏置:当误判的两种方向(把无害当危险 vs 把危险当无害)在代价上不对称时,认知系统会进化出系统性偏差,以减少更致命的那类错误。
用中国古话说,就是"宁可错杀一千,也绝不放过一个"。
所谓"看到脸""看到意图""看到征兆",并不只是迷信或浪漫,它常常是节能的生存策略:你不必理解所有细节,你只要先把世界粗暴地分成"可能有我需要回应的东西"和"暂时可以忽略的东西"。
于是,那块马卡潘石,不管最终是不是"艺术史的第一件作品",它都像一枚钉子,把我想说的第一层逻辑钉死在墙上:人类(以及更早的人类)不是先学会深思才活下来,而是先学会用廉价的认知规则过滤世界,才拥有了后来深思的时间与空间。
超节能的大脑
要理解"人工智能"到底意味着什么,我们的大脑能跟人工智能匹敌吗?我们必须面对第二个问题:我们的大脑是怎么运作的?
大脑从来不是一台挥霍算力的机器,它是一台极端节能、极端抠门、极端讲究投入产出比的生物装置。
成年人的大脑大约只占体重的 2%,却消耗了身体约 20% 的能量与氧气;并且这种高耗能在许多情况下相当"恒定",并不会因为你在发呆还是在解高数题而发生数量级的变化。
如果把身体当作一家公司,大脑就是那个永远在烧钱、却又不能停机的核心数据中心。
正因如此,演化生物学(Evolutionary Biology)里才会出现"昂贵组织假说"(Expensive Tissue Hypothesis):人类大脑太贵,就必须在其他地方补回来,例如消化系统的相对缩小与饮食结构的变化。我们与其他动物相差实在是太大了。
当我把这两件事放在一起——"偏置的识别机制"与"昂贵的大脑"——我得到一个几乎无法回避的结论:节能不是人类智慧的副作用,它是人类智慧的设计目标之一。
伊尚戈骨的刻痕
大约在两万年前,在今天刚果民主共和国(Democratic Republic of the Congo)境内的伊尚戈(Ishango)附近、爱德华湖(Lake Edward)岸边,比利时地质学家让·德·海因泽林(Jean de Heinzelin)在发掘中找到一段十厘米左右的骨器:一端嵌着石英(quartz)碎片,骨身刻着三列成组的刻痕。
如今,这件文物由布鲁塞尔(Brussels)的自然科学研究所(Institute of Natural Sciences)长期保存与展出,其官网介绍明确提到:刻痕呈现分组结构,并出现类似"3 与 6、4 与 8、5 与 10"这样的成对关系,因此引发了关于计数、运算或历法的长久热议。
我在读到这段文字时,并不想去探究到底哪个国家"数学"诞生的更早,这不是我感兴趣的命题。我的第一直觉是:这可能是一种外置记忆的原型。
人类的"智力跃迁"往往不是发生在脑内,而是发生在脑与世界的接口处——发生在我们把记忆、规则、计数、甚至推理的某些步骤,搬到身体之外之后。也就是从远古时期,人类就学会了——外置大脑策略。
认知科学(Cognitive Science)里有一个著名的观点叫"延展心智"(Extended Mind)。安迪·克拉克(Andy Clark)与戴维·查尔默斯(David Chalmers)在经典论文中提出:如果外部工具在功能上与内在记忆、推理连续耦合,那么它应当被视为认知系统的一部分。
也就是说:我们从来就不只是进化人体自身来发展的,延展自身能力和之外的完整系统才是进化目标。
把这一观点映射到伊尚戈骨,我会更大胆地说:那根骨头是不是"数学"我不知道,但它几乎必然是一种把思考步骤固化在外部介质上的尝试。
为什么这种外置化如此关键?因为大脑内部的"工作台"其实很小。乔治·米勒(George A. Miller)在信息加工研究中用"神奇的数字七"(Magical Number Seven)描述短时处理的限制;后续研究更常引用"神奇的数字四"(Magical Number Four)来描述工作记忆(Working Memory)。
别嘲笑金鱼,我们人类的记忆也很有限。
约翰·斯韦勒(John Sweller)的认知负荷理论(Cognitive Load Theory)则从学习与问题解决角度指出:当任务把工作记忆挤爆,学习会显著受损;而有效的教学与训练,本质上是在减少"外在负荷"(extraneous load),让有限的认知资源用于形成可迁移的结构。
这就是为什么今天的 AI 音乐能够迅速占领音乐市场的原因,人的大脑更愿意接受已知的信息,过去很多人类音乐人用的是"挪移大法"来进行流行音乐拼凑,今天,AI 帮你实现了"无限排列组合"秒速生成。而训练数据最多的风格,也就是人们通常能接受的风格。
所以,伊尚戈骨的真正震撼感,并不是它让我们惊叹"古人也会算数",而是它让我们看到:人类很早就开始用材料、纹路、分组、刻痕,把本来必须占用工作记忆的东西转移到外部——让大脑从"记"里解放出来,去做更昂贵的"推断"。
当我在后面几章讨论世界模型(World Model)时,我会不断回到这根骨头:它不是"知识",它是"结构",一种足以使人类变得更强大的结构;不是"答案",它是"把问题变简单的方式"。
海浪写成的地图
在太平洋(Pacific Ocean)的马绍尔群岛(Marshall Islands),曾长期流传一种航海者的秘术:他们用椰子叶中脉编织框架,用贝壳标记岛屿位置,用弯曲与交错的木条表达涌浪(ocean swells)的方向与折射——这就是著名的"棒图"(stick charts)。
更有意思的是:许多航海者并不把棒图带上独木舟(canoe),而是在陆地上学习与记忆,然后在航行中靠身体对海浪的感觉来"读图"。
为什么不带上独木舟来使用呢?他们一定经历过带上独木舟的风险(折损或者丢失),甚至同伴失去性命的代价。我们人类总是在痛苦中学到有用的技能。
这是一种高度成熟的模型压缩,而这种压缩更重要的意义在于——信息传递,我内化到自身之中后,可以极速调用,而不必随时把"外脑"带在身上。并且可以通过语言和示范教给他人,构成自己的经验价值。
它把连续的海洋动力学(复杂、不可穷举、不可随时计量)压缩成有限的可训练表征:几类涌浪、几种相互作用、几个关键岛屿的扰动模式——剩下的交给身体与经验去拟合。
从演化角度看,这更接近人类的"文明专长":我们不是靠单个大脑的算力赢,而是靠社会传递的结构赢。
埃丝特·赫尔曼(Esther Herrmann)等人在《科学》(Science)发表的"文化智力假说"(Cultural Intelligence Hypothesis)研究,用人类幼儿与黑猩猩(chimpanzees)、猩猩(orangutans)的对比实验展示:人类在社会学习、沟通与共同意向(shared intentionality)相关能力上存在早期优势,这些优势使得知识能在群体内更有效累积与扩散。
我们今天的学校教育依然沿用的是人类的教育模式:我先学会,我再教别人。这一点本身没有问题。但后面我们会提到这导致了今天人类教育者的尴尬处境:人类教师还没学会,人工智能先学会了。人类教师怎么教?
马绍尔人的棒图也让我提前看见了本书后面要谈的教育变革方向:学习不是把信息塞进脑子,而是把"世界的规律"压进身体,让你在现场不需要重新计算,也能做出稳定动作。
如果把"读海浪"看成一种高难度技能,那么棒图像极了一个早期的沉浸式学习(Immersive Learning)系统:有具象化的训练装置、有导师的口传与示范、有反复的航行反馈、还有严格的知识传承门槛。
如果教育者教的仍然是知识和普及技能,那么肯定要被人工智能取代,我更倾向于人类教师转型为"船长",你有独一无二的驾驭"人工智能"这艘大船的航行经验,并已经内化到自身之中,你才配带领一群新船员出海航行。
否则代价也十分严重,一位从未航行过的船长,能把一群刚上船的新手带向何处?
人类的外包文化
后面我们还将提到一个更热门的话题:既然人工智能能干人类的各种工作,那就都外包给他好了,人类只负责收钱就行。
这在我看来虽然十分荒谬,因为很快我们就会面临一个问题——就算收到钱你都不知道该做什么,所有物质能满足的新鲜感几乎撑不过一周,而且所有组织都避谈一件事:如何分配金钱?谁多谁少?
我常举一个粗浅例子,就算所有人得到平均且无限可用的金钱和物质,但获得配偶、价值感、尊重感的权限也无法按需分配。人类所有过去面对的窘迫感、失落感、虚无感依然存在。
这个问题我将在后面提到——人工智能经济模型时会提到一个新的经济形态"情感经济"或"依恋经济",因为英文和中文的差异性,我们后面统一称之为**"依恋经济"(Attachment Economy)**,因为中文的情绪和情感是有区分的,但在很多传统翻译中,会把情绪和情感统一翻译成情绪(Emotional)。
回到上面提到的海浪地图的案例,我们引申思考一个问题:能否把我们每个人的个人成长外包给人工智能呢?或者甚至把我们的所有思考和决策都外包给人工智能,让它帮我们思考和决策呢?
"把人类要做的事情外包"不是今天才发生的事。
人类一直在外包,只是外包的对象从石头、骨头、棒图、纸张、书本、电脑、机构,逐渐走向了可对话、可生成、可行动的人工智能系统,但这一定会有一个边界,谁也不会把自己吃饭这件事外包给别人。
人类几乎只会把对自己的存在无关紧要的事外包给他人,被迫外包除外,而今天,"被迫外包"正在形成。
酒席上的"文明之物"
古代美索不达米亚(Mesopotamia)的神话里,有一则极少进入大众叙事却极适合本书的故事:在《伊南娜与恩基》(Inana and Enki)的苏美尔文本中,女神伊南娜(Inana)前往智慧之神恩基(Enki)的水域宫殿,与他饮酒作乐;在酒意与仪式的交织中,恩基把"me"(可理解为文明的权能、技艺与制度之源)赠与伊南娜。随后,当恩基回过神来试图追回,"me"已随船队被带回乌鲁克(Uruk)。
我并不需要把这当作历史事实。神话的价值从来不在"发生过",而在"被反复讲述"。我之所以把它放在这里,是因为它揭示了文明真正的发动机:文明不是知识的堆叠,而是"把复杂行为打包成可分发的默认模板",也就是归类和总结,以便复用。
熟悉 AI 的朋友都知道"工作流"(Work Flow)和"技能"(Skills),这就是人类延续下来的"打包模版"的方式,但是,人工智能的危险在于,你可以把工作流打包成模版,那是否可以把打造工作流这一工作流打包呢?如此套娃,最后你会发现,人类必然想要——干脆把我的大脑全都打包算了。
但,所谓"传统"、"传承"实际上本质就是如此——用默认的模版避免思考的沉重,一代一代的墨守成规,以便使我们的大脑不必胡思乱想。
你可以把"me"理解为早期人类对制度技术(institutional technology)的直觉表达:把狩猎、分工、婚姻、贸易、惩罚、祭祀、权威、艺术——这些原本需要每个人随时做高成本判断的事情——固化成一种共同承认的"应该如此"。
经济学里最早把这件事说透的人之一,是赫伯特·西蒙(Herbert A. Simon)。他在"有限理性"(Bounded Rationality)的框架下指出:所谓理性选择,并不是全知全能的优化,而是在有限信息、有限计算能力、有限时间下的"满意"(satisficing)。
而人类之所以能在这种限制下组织起复杂社会,靠的是用简化模型去替代现实,并用组织与规则去缩短选择路径。也就是我们常说的:抽象能力或哲学能力。
在这个意义上,文明本身就像一个巨型的"世界模型(World Model)分发系统":它把少数人的结构化理解,变成多数人的默认行动。
默认选项(default options)之所以强大,尤其是在今天的各种网络系统操作中,几乎是最大多数人的选择,正是因为它把"做决定"外包给了一个系统。
但我在后面提出意义(Meaning)并不是情绪而是一种结构时,你会发现我并非在玩文字游戏。我只是把"me"换成现代语言:意义,是一种让你无需每次都重新计算的压缩结构;它能把决策分支缩短,把不确定性降到可行动水平,从而降低风险。
而意义的升级则依靠的是不断的风险、震荡、调整,最后优化成新的意义。
人类只要能升级自身存在的意义,并用意义驾驭任何外在延伸物,就不会被任何技术性物种取代,除非,人工智能自己创造了完全超越于人的存在意义,并认定人类的存在毫无意义,且能执行一键清除人类计划。
这一点,我相信即便是山姆·奥特曼和马斯克也不希望它发生。
可是,很多掌握 AI 核心技术的组织,并没有为人类整体思考这个问题。"短视频推荐算法"就是一个糟糕的例子,它利用人最大的弱点:嫉妒、愤怒、懒惰、欲望来诱惑人们把宝贵的大脑算力逐渐放弃。
这不是道德判断,而是结构判断:当世界过于复杂,默认路径就会像重力一样,把人拉向"尽量不思考"的方向。
我把这种现象在本书里称为意义引力定律(Law of Meaning Gravity)的前奏:当某个节点能替更多人降低决策不确定性,它就会获得更多注意力、信任与资源——不论它最初的动机是什么。
但今天,你在看什么短视频内容,你在看哪些达人的直播,是你的选择还是你默认让平台用强大的算法帮你选择呢?你当初理解和热爱世界的动机还在吗?
我常举一个浅薄的案例,某位世界顶级短视频平台的 CEO 在上任时信誓旦旦地说:我要把 XX 做成视频的百科全书。结果现在,这家平台是视频的百货商场,少量的百科全书内容也是为了卖些质量参差不齐的货物。甚至连"视频版的夜总会"也可以入住到这个平台,并且毫无防止未成年进入观看的措施。
一位书目学家的焦虑
1545 年,在苏黎世(Zurich),瑞士学者康拉德·格斯纳(Conrad Gessner)出版《书目总汇》(Bibliotheca universalis),试图把印刷术(printing press)兴起后的"已知书籍"编成一部近乎不可能完成的总目录。他在序言里抱怨"有害而混乱的书籍丰盈",并把这种"书太多"的恐惧当成一个公共难题,呼吁权力者与学者共同应对。
我喜欢这个故事,因为它提醒我们:所谓信息爆炸(Information Explosion)并不是互联网时代才出现的心理创伤。
每一次媒介技术把信息供给曲线推向右侧,人类就会在同一个地方崩溃——崩溃的不是智力,而是注意力(Attention)与工作记忆(Working Memory)这样的瓶颈。
从认知科学(Cognitive Science)角度,我们对这种崩溃并不陌生:工作记忆容量有限,认知负荷过载会抑制学习与推理质量;而在高压、高切换的环境里,人们更容易依赖启发式(heuristics),更容易把复杂判断外包给权威、群体与既有叙事。
"决策疲劳"(Decision Fatigue)正是这种结构性过载的一个常见描述:当连续做出高成本选择,后续判断可能变得更冲动、更保守或更依赖默认。
需要诚实的是,这一概念在不同领域的证据强度并不相同,且存在争议与方法论讨论;但至少在高风险职业(如急诊医学)场景中,它被作为值得严肃对待的潜在问题进行综述与评估,这本身就说明:认知资源的枯竭并非纯粹的鸡汤话术。
如果把格斯纳的焦虑带到今天,你会发现我们甚至走得更远:我们开始把记忆本身外包给搜索引擎,把"我知道什么"外包给"搜索引擎知道什么",把"我想吃什么"外包给"外卖平台"。
很快,我们身边很多人就会问手机里的聊天机器人:今晚该吃点什么呢?很快,你甚至要问它:我今天该干点什么呢?
所以,人工智能崛起后,到底是谁在指挥谁?
于是,一个更尖锐的问题就出现了:当我们已经把检索外包、把记忆外包、把部分推理外包之后,如果下一步外包的是"理解"本身——也就是我们人类完全不需要思考,而完全交给一个系统替人思考和决策——人类会发生什么?
我不敢想象,但不得不思考,这是我所坚守的人类存在价值的最后底线,一旦脑机接口技术成熟,人人都装上了"本地超脑"或"云端超脑",任何人所说的话和决定是他自己的思考和决策还是系统给出的指令?
每每想到此,我都不寒而栗,如果人类不能找到一种绝对不可外包的价值,那才是人类智能的终结。
而今天的教育却对我上述说的种种问题都无能为力。
蓝盒子里的飞行员
二战(World War II)期间,在盟军训练基地里,有一种设备被无数新手飞行员反复钻进又爬出:它外形像一个蓝色箱体,因此被称为"蓝盒子"(Blue Box);它并不真的起飞,却能用气动结构与仪表系统模拟俯仰、滚转与仪表飞行的关键体验——这就是链接飞行训练器(Link Flight Trainer),由埃德温·林克(Edwin A. Link)推动完善,并在战争时期成为大规模飞行训练的重要基础设施。
我把这个故事放在本章的后段,是因为它几乎预示了我最终要写到的教育变革方向:训练不是背诵说明书,而是要给人脑搭建反馈回路(Feedback Loop)。
链接训练器的意义不在于"把知识讲得更清楚",而在于它把高风险技能拆解成可重复、可纠错、可量化的练习闭环。类似的"仿真训练"(simulation-based training)在医学等领域也被作为提升安全性与技能迁移的重要工具来讨论。
换句话说,人类能力的升级路径往往不是"知道更多",而是**"在模拟世界里反复做对"**,直到复杂动作变成低成本直觉。
认知负荷理论(Cognitive Load Theory)之所以对教育如此重要,也正因为它把学习解释为"有限工作记忆 + 高质量结构化训练"的工程问题,而不是"天赋"的玄学问题。
到这里,我才愿意把人工智能(Artificial Intelligence)放进同一条演化链条里:AI 不是简单的工具升级,它更像一种制度性变量(institutional variable),因为它改变的不是某个动作,而是"把哪些认知步骤外包给外部系统"这一整体结构。
当 AI 开始能生成文本、生成解释、生成计划、生成代码,甚至能以代理(agent)形式代表你行动时,它就在成为一种新的"默认路径提供者"。
你可以把它理解为更高级的外置骨刻、更可迁移的棒图、更大规模的"me"分发系统——同时也是更强的意义引力源。诱惑与危险并置!
因此,本文的结论并不是"别用 AI",恰恰相反,我认为我们应该更激进地使用它——但使用方式必须从"替代"转向"陪练"。
如果 AI 被用来替你做决定,它会强化认知吝啬和信息茧房;如果 AI 被用来使你具备更强的认知、选择、思考、决策能力、使你能构建自己的意义世界(Meaning World),它才可能成为人类下一次升级的加速器。
我在中国著作《史记》里看到了未来
中国古代叙事中,有一类故事常被当作"个人苦难"或"道德楷模"略过,但如果从认知与代价的角度看,它们其实在反复讲同一件事:智慧并非天赋,而是以真实代价换取的结构性能力。
在《史记·老子韩非列传》中,司马迁记载孔子见老子,出而叹曰:"鸟,吾知其能飞;鱼,吾知其能游;兽,吾知其能走。走者可以为罔,游者可以为纶,飞者可以为矰。至于龙,吾不能知其乘风云而上天。"
这不是赞美玄妙,而是一次认知受挫——孔子第一次清楚意识到:自己已有的知识模型,无法解释更高维度的秩序。
而在《史记·屈原贾生列传》中,屈原"上下而求索",不是因为答案近在咫尺,而是因为旧有秩序已经崩塌,新的意义尚未生成。他的代价不是某个象征物,而是被流放的时间、被误解的生命、以及最终不可逆的结局。
智慧在这里并不表现为"知道了什么",而是表现为:在没有反馈、没有认可、没有正确率的环境中,仍然持续建模的能力。
这就是我所看到的"人类的魅力"。
我更愿意把这些故事当作同一个隐喻:真正的理解从来不是免费的,尤其不是在复杂世界里。你要么在脑内支付时间、算力与不确定性;要么在现实中支付身份、路径与安全感;要么在未来支付更大的错误与代价。
司马迁本人在《史记·太史公自序》中,把这件事说得更直接。他在遭受极刑之后写道:"亦欲以究天人之际,通古今之变,成一家之言。"
这不是文学姿态,而是一句极冷静的判断:如果不付出极端代价,结构性认知无法完成闭环。
这正把本章真正的问题引了出来:人类的智慧其实远未被开发殆尽。
人类的意志、使命感、责任感、道德感、依恋情感,对这个世界独一无二的敏锐反应,都是人工智能难以具备的能力。
你的灵巧双手,对人工智能而言并不是"复制一下动作"那么简单。
以当今最先进的人形机器人与机器人操作系统为例:人类完成一次"刷碗"动作,涉及 20–30 个自由度的连续协同控制(手指、腕部、前臂、肩部)、实时触觉反馈(压力、摩擦、滑移)、视觉—触觉—力觉的多模态融合、对"脆裂风险""清洁程度""水流变化"的即时预测。
人类大脑完成这一整套过程,耗能不过就是吃半个鸡蛋就能解决的事。
但对人工智能系统来说:目前一次"刷碗级别"的机器人操作,通常需要:
- 数百到上千次策略推理或控制回合(policy steps)
- 多轮视觉识别与三维重建
- 实时力控仿真与安全约束计算
- 单次完整任务消耗的算力约为 10¹¹–10¹³ 次浮点运算(FLOPs)
- 对应的电能消耗约为 0.05–0.5 千瓦时(50–500 Wh)
- 这相当于让一台高性能 GPU 连续运行数分钟到十几分钟
- 能量消耗是人类完成同一动作的上千倍到上万倍
更关键的是:人类刷碗时并没有"执行程序",而是在不断做预测、修正、压缩。你并不精确计算每一次力矩,而是依靠人类数万年的生存经验自动省略 99% 的计算。
所以差距并不在于"手是否灵巧",而在于:人类用的是进化出来的思维模型,而人工智能仍在用暴力计算逼近同一结果。
但你的双手和大脑真的未来只能用于洗碗?
这也是为什么,在可预见的未来:AI 可以在某些封闭规则下超越人类!但在开放世界、模糊目标、道德权衡、依恋关系与责任决策中,人类依然占据结构性优势。
不是因为我们更快,而是因为我们更懂得在什么时候不算。
但今天的严重问题在于:过去两百年的教育体系,几乎完全反其道而行之。
它训练的是"把信息搬进来",而不是"让大脑的'免计算'的模型跑起来";训练的是"答对",而不是"时刻修正";训练的是"记住结论",而不是"在反馈中进化整个人的系统"。
如果这条路径不发生改变,那么意义引力定律(Law of Meaning Gravity)不会以阴谋或暴力的方式降临,而会以一种更温和、却更残酷的方式发生:
越来越多的人,会把理解外包出去,把判断外包出去,把选择外包出去,最终在不知不觉中失去一种最关键的能力——决策能力(Decision Capability)。
教育改革的三个方向
因此,我把本章收束在一个尚未回答、但必须从这里被点亮的问题上:
在尚未被穷尽的人类大脑潜能面前,我们是否已经选错了进化路径?
我现在不会给出答案。我只给出一个方向的影子,把它留到全书结尾去真正落地,尽管本书叫《人工智能经济革命》,但我始终力指今天的全球各地的大部分教育落地方向问题,因为教育极大影响了今天人类进化的模式,教育不改革,经济模式就无法改革,结果就是,科技无论怎么发展,普通大众的感知就是"越来越累"。
看看某些地区仍然沿用明显谬误的知识以及测试和选拔人才的方式,我们就能知道未来面临的经济困境。
改革落地方向就 3 点:
1. 教育转向沉浸式学习(Immersive Learning)
学任何内容,须先构建沉浸式环境,这在过去成本太高,AI 把它压缩到了过去的数百分之一,以后压缩比会更大;只有沉浸式环境,接近于现实 1:1 的学习,才能帮助人类思维进化。
2. AI 成为陪练员(Coach)
AI 做决定必须要有边界,它最适合的身份应该是人类的陪练员,把人类的能力推向更高处。
3. 电子游戏成为训练场(Training Ground)
而不是逃避现实的麻醉剂。电子游戏是现今人类影响力最大、最接近真实世界的"艺术形式",但是在前几十年,过多的被当作"娱乐产业"来对待,以至于我们极少看到真正对人类有影响价值的游戏作品,甚至造成了很多家长和孩子的冲突来源。
但在我看来,游戏是最好的模拟训练场景,这种游戏可以是电子游戏,也可以是线下游戏。形式并不是最重要的。重要的是:它能训练一个人建立不断适应生存环境的反馈回路。
达尔文在《物种起源》中说:不是最聪明的物种能生存,也不是最强的物种能生存,而是对变化反应最迅速的物种才能生存!
(全书请登录黑洞 AI 官网阅读)