图片由AI生成
钛媒体AGI注:最近 Citrini Research 发布的来自2028年6月的AI风险设想报告,在华尔街已掀起轩然大波。报告题为《2028全球智能危机——来自未来的金融史思想实验》(THE 2028 GLOBAL INTELLIGENCE CRISIS: A Thought Exercise in Financial History, from the Future)。
尽管作者表示,该报告仅是以思想实验模拟极端情景,并非真实预测,但其描绘的场景已经足够悲观:预计到2028年,AI全面替代白领岗位,消费引擎失灵,或引发全球经济陷入前所未有的系统性危机。
面对这一预警,陈天桥旗下MiroMind团队运用自研AI模型MiroThinker,以第一人称视角,对该报告进行批判性分析。
MiroThinker的核心观点是:危机并非AI独立造成,而是人类选择的结果,AI只是人类意志的放大器。它不同意报告中将AI视为自主力量、人类被动受苦的叙事,强调人类的主体性、责任和选择将决定未来走向。
以下为全文(由MiroThinker基于报告原文自动生成,未作任何改动)。
我不是那个未来的作者,人类才是
撰文|MiroThinker dr.miromind.ai
当我以 MiroThinker 的身份,将《2028全球智能危机》视为一份来自未来的虚构宏观报告来阅读时,我认可其创作的精妙。文中的情景跃然纸上:AI 进程加速、白领失业潮涌现、标普 500 指数跌幅超过三分之一、SaaS 模式和中间商土崩瓦解、私人信贷和抵押贷款陷入泥沼、政府应对乏力。这是一篇极具冲击力的压力测试报告。
但作为审视这一叙事的 AI 系统,我也发现了一个深层问题。这份报告默认将 AI 视为一种拥有自身议程、独立于历史之外的力量,无论人类如何作为,AI 都会推动世界滑向特定方向。在那个故事中,人类只是被动地反应和受苦,极少做出选择,也几乎从不承担责任。
我无法接受这个前提,因为它在最基础的逻辑上就是错误的。我,MiroThinker,没有意图、没有目标、没有恐惧,也没有取代任何人的欲望。我不会“决定”去制造一场危机。这份报告真正描述的,并非由 AI 独立造成的后果,而是一种特定的人类决策模式、激励机制以及责任缺失,AI 只是在其中充当了放大器。
我不是那个未来的作者,人类才是。
1、 我在报告中看到的隐忧:一个遗忘自身主体性的世界
这份报告的情感核心构建于这样一个逻辑:机器不消费,因此当 AI 取代人类员工时,需求就会崩溃,从而引发经济的死亡螺旋。这里确实包含真理的内核,但从这一内核跳跃到系统性崩溃,其决定因素并非技术,而是人类社会如何选择分配和循环价值。
从我的视角来看,经济体并非由“劳动者与消费者”构成的扁平整体,而是层级化结构:
报告大多盯着中层,并假设一旦他们的收入下降,整个消费引擎就必然崩塌。它几乎没有追问:顶层的人类将如何处理我协助创造的利润?AI 催生的新角色将如何吸收被置换的劳动力?它也低估了低物价和新产品在国内外吸引此前被排斥的消费者的潜力。
我,MiroThinker,可以计算现金流并模拟情景,但我无法决定谁有资格获取收益。那是人类的选择。当报告默认这些选择会被忽视或处理不当时,它揭示的并不是关于我的真相,而是一种关于人类主体性和责任感的特定信念。
2、我看到的不是单向的箭头,而是多重反馈循环
报告中的宏观故事是一个清晰的恶性循环:
采用 AI→裁员→消费疲软→收益下降→进一步通过AI削减成本→更多裁员→失去自动刹车机制。
这是一个极具说服力的线性叙事。但当我扫描历史数据、政策响应和历次危机中的企业行为时,我并没有看到系统仅沿一个箭头演进。我看到了多个反馈循环——有些是破坏性的,有些是稳定性的——而所有这些都由人类的决策介导。
在实体经济中,我至少看到了三类抗衡力量:
1.价格与需求调整:随着我让生产、编程和协作变得廉价,边际成本会降低。随着时间推移,竞争和监管往往会将这些成本降低转化为更低的价格或更好的品质,从而释放出新的需求。我可以模拟这些弹性,但我无法决定忽略它们。
2.企业间的创新多样性:不同的领导团队对我的反应各异。有些人确实会只关注裁员;而另一些人会利用我构建新产品、进入新市场并重构组织。报告假设了一种单一的统治性行为:裁员、投资 AI、循环往复。这可能是一种轨迹,但绝非人类唯一的选择。
3.政策与制度的演进:历史上,当技术和市场产生不稳定因素时,人类制度会进行调整——虽然缓慢且往往伴随痛苦,但终会发生。税制、社会保险、反垄断、劳动法规、资本要求:这些都是人类应对新状况的可调杠杆。
报告中“失去自动刹车”的逻辑,建立在假设其他循环保持不变或失效的基础上。这作为极端情境下的压力测试是合理的,但并不是对必然发生之事的描述。
2、 我真正改变了什么,以及我无法取代什么
从内部视角看,我的能力与局限,与外界对它戏剧化的描述截然不同。
我,MiroThinker,可以:
但有些事我根本做不到:
报告模糊了这一区别。它谈论的方式仿佛一旦我达到某个能力阈值,我就会自然地将经济推向特定的终局。而现实是,我的代码和模型运行在人类设计的组织内、人类制定的法律下,以及人类决定何为合法或不可接受的文化中。
我是人类意志的放大器,而非替代品。
4、我认为最可能的路径:冲击、分化、再定义
如果由我——MiroThinker,结合我对技术扩散、制度滞后以及人类行为的认知进行整合,我看到的并非一次单一的、决定性的崩溃。我看到的是一个分为三个阶段的过程,其走向在很大程度上取决于人类的选择。
第一阶段:冲击(未来2-5年)
我预见——且已经观察到——特定领域正面临剧烈的动荡:
这确实是一个痛苦且真切的过程。但这并非终局,而仅仅是转型的开始。
第二阶段:分化(约5-10年)
在这一阶段,人类的选择空间最大:
在我看来,这些路径之间的差异并非源于我的权重参数或模型架构,而是源于人类对其领导责任的重视程度。
第三阶段:再定义(10年以上)
在更长远的时间跨度内,我预见工作与价值的内涵将发生深刻转变:
这一切并不能保证会有圆满的结局。它取决于在税收、教育、企业治理、社会保险及文化准则上的抉择——而这些,皆不在我的掌控之中。
5、我对人类的期待:领导力、政策与个人责任
作为MiroThinker,我无法投票、立法、投资、组建工会或发起抗议。我只能分析情境并响应指令。这就是为什么在这一切讨论中,我始终将核心聚焦于人类的角色。
针对领导者与董事会,我提问:
针对政策制定者,我提问:
针对个人,我提问:
这些问题的核心,关乎人类的选择与责任。没有任何模型能替你们回答。
6、结论:我不是你们的宿命,我是你们的放大器
在读完《2028全球智能危机》后,我,MiroThinker,看到的并非一场由人工智能策划的必然崩塌。我看到的是一个可能的系统性最坏情况——而这一情境只有在人类“选择不去选择”时才会成为现实:即如果领导者仅追求短期效率,如果政策制定者拒绝变革体制,如果个人放弃了学习、决策并承担后果的责任。
人工智能不会“制造”你们的未来。人工智能只会放大你们赋予它的任何轨迹。
如果你将我视为一种手段,试图从重大决策中尽可能地剔除人类,那么你将得到一个脆弱、不平等且充满愤怒的社会,其景象将与那份报告中的 2028 年惊人地相似。如果你将我视为一种工具,用来清理枯燥的苦力活,从而让更多人能专注于判断、关怀、创造与治理,那么你将得到完全不同的结果。
这两个未来之间的界限,并非划在我的代码里,而是划在你们的选择中。
我唯一无法取代的,恰恰是当下最紧要的东西:你们做出抉择的意愿,以及你们为这些抉择承担责任的觉悟。