关于人工智能的“鹦鹉论”已经终结,现在的问题在于“许可”

采用人工智能并不能保证安全,但不采用人工智能则必然会面临风险

    • 对许多决策者而言,他们对人工智能能力的看法将不再重要。
    • 对许多决策者而言,他们对人工智能能力的看法将不再重要。 图片来源:PIXABAY
    Published Thu, Apr 30, 2026 · 01:08 PM

    本文由AI辅助翻译

    查看原文

    六个月前,人们还在讨论人工智能是否重要,或者说它是否有任何实际用途。现在,讨论的焦点变成了,无论代价如何,谁又能承受得起不使用它的后果。

    这是一个强有力的论断,需要加以剖析,因为其影响已超出了技术辩论本身,触及了企业投资、政府监管以及国家如何保护其关键基础设施等层面。

    还记得那些严肃人士曾声称人工智能不过是“自动补全”吗?他们称之为“随机鹦鹉”(stochastic parrot),只是按概率重新排列符号,并以足够的自信来愚弄那些容易上当的人。这个论点曾盛行一时,并因其无法被证伪的特性而存在了一段时间。

    你指出一项能力,“鹦鹉论”的捍卫者们会说这是模式匹配。你指出一个基准测试,他们会说是数据污染。你指出一个新颖的输出,他们会说模型见过足够相似的东西。

    对于某一类评论员来说,这个立场是他们的重要支柱。没有它,他们就不得不更新自己的观点了。

    几个月前发布的 Claude Code,悄然终结了这场辩论。鹦鹉不会编写可运行的生产代码,不会在代码失败时进行调试,不会按要求进行重构,更不会交付一个可行的系统。当程序员们自己开始将人工智能生成的代码作为其工作流程的常规部分来交付时,“鹦鹉论”的立场便退回到了学术研讨会的范畴。

    DECODING ASIA

    Navigate Asia in
    a new global order

    Get the insights delivered to your inbox.

    此后发生的一切比任何合理的预测都要快。最新发布的前沿模型通过封闭的合伙业务形式提供,它们在经过广泛审计、人类已审查数十年的代码库中,自主识别出了新的漏洞。它们找到了没人想过要去寻找的错误。

    这种网络安全能力并非设计出来的,而是涌现出来的。这些模型是为了通用的代码推理能力而被扩大规模,结果却在另一方面催生出了一位“专家”。

    “鹦鹉论”者说对了什么

    人工智能不过是一种统计排列——这其实是一个非常有效的论点,值得大声说出来。它们是方程式,是由梯度下降法训练、在硅芯片上运行的数字矩阵。这里面没有鬼魂。

    这个让步本应是“鹦鹉论”捍卫者的王牌,但实际上恰恰相反。

    方程式具有人类不具备的一个特性:它们可以被复制。一个 Feynman 或一个 Einstein 是不可复制的。如果一个国家拥有 Oppenheimer,另一个国家不可能在下个季度就雇佣到一个类似的人才。

    天才的聚集是缓慢的,建立在天才之上的战略优势衰退得也很缓慢。这是二十世纪大部分时间里技术竞争的潜在结构。

    方程式并不遵循这一框架。一个实验室里能产生前沿模型的训练流程,在几个月内就能在其他地方产生功能上等效的能力。这不是一种可能性,而是一条无视实验室边界的扩散曲线。

    Einstein 无法规模化,但模型可以。

    为更强而生,却无特定目的

    与大多数产品不同,每一个新的人工智能模型都被构建得比上一个更大或更高效,但就连其创造者也几乎不知道它可能会做什么。你无法在规划这些系统时就明确其规格。通常,即使在它们建成之后,你也无法明确其规格。

    对于大多数工程项目而言,设计本身就是解释。但对于人工智能模型,只有在一切完成后观察到的行为才是解释。将参数扩大百分之十,就会出现没人为之训练过的能力。

    能力曲线不仅是上升的,它在每一步都会产生新的能力,而这些步骤并不在任何人的路线图上。

    因此,任何针对当前能力的防御姿态,在部署之时就已过时。你不是在针对一个已知的威胁进行规划,而是在针对一个不断产生没人训练它去产生的威胁的前沿进行规划。

    当模型制造者成为仲裁者

    意识到所释放的力量,前沿实验室已经开始向一小部分合作伙伴提供有限的访问权限,以作准备。这些合作伙伴包括主要银行、云服务提供商、关键基础设施运营商。他们正在防御性地使用这些工具,以便在同等能力落入不那么谨慎的人手中之前,修补关键软件。

    这是负责任的做法,但它也催生了下一个问题。

    没有自然法则规定下一个实验室也会同样谨慎。几乎可以肯定的是,Anthropic 的模型能做到的事,很快就会有许多其他模型也能做到。下一个实验室可能位于不同的司法管辖区,由一个希望将这种能力用于攻击的政府所拥有。遏制策略只有在普遍适用时才有效,但它不会是普遍的。

    每一项遏制策略都会因其排斥的对象而暴露自身的弱点。

    每一家不在合作伙伴名单上的银行,每一个医院网络,每一个公用事业公司,每一个运行着遗留系统的中型企业,都处于这样一种境地:它们的漏洞对“围栏内”的防御者是已知的,而对“围栏外”的人却是未知的。这是一个由安全决策造成的不公平竞争环境。

    地缘政治层面的问题则更为庞大。

    访问权限实际上是由少数几家在美国法律下运营的美国公司决定的。一个发现自己处于“围栏外”的政府,无论是欧洲的某个部门、亚洲的某家中央银行,还是拉丁美洲的某个监管机构,都面临着令人不安的选择。它可以等待,可以游说,或者可以委托自己的实验室,以国家财力允许的任何速度,建立起同等的能力。

    无论如何,一家中国实验室都会进行规模扩张。一家欧洲实验室现在可能会因为布鲁塞尔未被纳入封闭的合伙业务而进行扩张。一家印度实验室现在可能会因为新德里未被纳入而进行扩张。从“围栏内”看是负责任的遏制措施,从“围栏外”看,却成了加倍速发展该能力的理由。

    各国政府不会让实验室长久地掌握这个决定权。关于出口管制,或者就此而言,关于国有化的初步讨论,可能已为时不远。

    以铁克铁

    有一句古老的印地语谚语:lohe ko kat-ta loha。意思是铁能断铁。它抓住了问题的结构性要点。

    一旦一个前沿模型能够发动规模上任何人类团队都无法匹敌的攻击,唯一能防御人工智能原生攻击的,就只有人工智能原生的防御。架构仍然重要,零信任网络仍然重要。但面对一个能够自主在身份验证库本身中发现零日漏洞的模型,这些都无法单独幸免。

    当对抗人工智能驱动的攻击需要部署同样前沿的人工智能驱动的防御时,人工智能已经从一种竞争优势转变为一种生存必需品。仅仅是保持均势,本身就已经代价高昂。

    一家中型银行的首席财务官需要人工智能,不是为了击败竞争对手,而是为了确保他们的银行在十八个月后仍能正常运营,且所有客户信息不被泄露。一家医院网络的 IT 主管需要人工智能,不是为了赢得采购奖项,而是为了确保病历不被加密并被勒索。

    这种从“想要”到“需要”的转变是被迫的,而非自愿选择。采用人工智能并不能保证安全,但不采用人工智能则必然会面临风险。

    “谨慎标准”正在被改写

    公司的“谨慎标准”正在被悄然改写。2026 年的重大疏忽,看起来与 2024 年的审慎管理毫无二致。

    当一家金融机构因一个本可被前沿防御模型捕获的自动化漏洞利用而遭受重创时,随后的诉讼将不会争论 IT 预算。他们将争论的是,在一个防御性人工智能已成为强制性配置的世界里,董事会是否履行了其应尽的谨慎义务。

    对许多决策者而言,他们对人工智能能力的看法将不再重要。他们不再需要为潜在的成就或利益制定计划。在未来几个月做决策时,他们会更少地关注那些声称人工智能是炒作的调查报告。

    那些依赖“鹦鹉论”、规模法则(scaling laws)或“南海泡沫”类比来理解人工智能不会做什么的人,他们争论的从来都不是人工智能本身。他们争论的是一种“许可”——一种不去更新、不去重新分配资源、不去仔细思考未来的“许可”。

    那个“许可”已经被撤销。现在的问题不再是是否要更新,而是这种更新是主动选择,还是被动承受后果。

    作者是总部位于新加坡的全球创新投资公司 GenInnov 的首席执行官

    本文改编自发表于 https://www.geninnov.ai/blog 的一篇文章

    Decoding Asia newsletter: your guide to navigating Asia in a new global order. Sign up here to get Decoding Asia newsletter. Delivered to your inbox. Free.

    此翻译对您是否有帮助?

    Share with us your feedback on BT's products and services