2026年4月15日,英伟达CEO黄仁勋接受了播客《Dwarkesh Patel》的访谈,他说:
DeepSeek绝非无关紧要的进步,如果DeepSeek先在华为的平台上发布,对我们国家来说是一个灾难性(horrible)的结果。
在黄仁勋看来,DeepSeek+华为芯片,会是一场“灾难”,会动摇美国在AI领域的领先位置。不到十天,他的话就应验了。4月24日,DeepSeek V4 大模型正式发布,引发轰动。而在DeepSeek的发布稿中,有一段关键的话,被藏在了不起眼的注释里。
受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅度下跌。
这意味着,黄仁勋口中“灾难性”的事,已经发生了。
01
V4是什么
上一次DeepSeek引发全球震动,是2025年初V3正式发布的时候。
当时,一个中国团队用据称不到600万美元的算力成本,训练出了一个可以和GPT-4正面竞争的模型,然后把它开源,整个硅谷集体失语了几天,还带动了美股的暴跌。
之后的一年,AI圈的发布节奏快得令人眩晕。Anthropic发了Claude 4系列,Google推了Gemini-Pro-3.1,OpenAI在o系列上持续迭代,最近更是恐怖,一周时间里,我们相继见证了image 2.0和GPT-5.5的发布,全球AI领域堪称是“勃勃生机,万物竞发”的境界。
而DeepSeek那边,只发了几个不算引人注目的中间版本:V3.1、V3.2-Exp,每次跑分和前代差不多,看起来像是在原地踏步。
人们都在等待,DeepSeek什么时候真正出手。
关于V4什么时候发的传言从2025年底就没停过。有人说是和之前一样在春节前,结果却是一直等到了四月底。
然后零帧起手,毫无预警,DeepSeek把V4放出来了。同步开源,同步上线官网和App,同步更新API。发布稿结尾引了一句荀子:「不诱于誉,不恐于诽,率道而行,端然正己。」
现在回头看那些"没什么亮点"的中间版本,才明白那是在铺路。

这次V4一口气发了两个版本。
DeepSeek-V4-Pro,总参数1.6万亿,每次推理激活490亿。定位是对标顶级闭源模型的旗舰版本。DeepSeek-V4-Flash,总参数2840亿,激活130亿,是更小更快的经济版本。
理解这两个数字需要先理解V4的架构。
V4采用的是MoE(混合专家)架构,模型内部有大量"专家"子网络,每次处理一个token时,由路由机制决定激活哪几个专家参与计算。这意味着,V4-Pro虽然有1.6万亿参数,但实际每次推理的计算量更接近一个490亿参数的稠密模型。总参数决定知识容量,激活参数决定推理成本,这是MoE架构最核心的商业逻辑。
为什么这个原理很重要呢?
因为推理成本主要由激活参数量决定,不是总参数量。
所以V4-Pro的实际推理开销更接近一个49B的稠密模型,而不是1.6T。但它的"知识容量"理论上接近1.6T,因为不同token会激活不同的专家组合。
打个简单的比方就是:一家公司有1600个员工,个个都身怀绝技,每个项目只调49人上阵,但可以按需组合不同专家。
在能力评估上,DeepSeek的官方定位有几个值得注意的地方。
首先,他们没有回避上限,这本身就是一种坦然和自信。发布稿明确写道,V4-Pro的Agent能力优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。这种有上限有下限的写法,在国内AI发布稿里相对罕见,反而增加了可信度。
其次,能力的分布是不均匀的。在数学、STEM、竞赛型代码等推理密集的任务上,V4-Pro声称超越所有开源模型,比肩顶级闭源。这和DeepSeek历来的强项一致。但在世界知识方面——也就是对事实性信息的覆盖广度——V4-Pro仅稍逊于Gemini-Pro-3.1,大幅领先其他开源模型。世界知识这块的差距来自数据,Google有Search索引和更大规模网页抓取的结构性优势,这不是算法可以短期弥补的。
V4-Flash的定位是明确的性价比选择。推理能力接近Pro,世界知识稍逊,但因为激活参数只有13B,API价格更便宜,响应更快。在Agent测评中,Flash在简单任务上和Pro旗鼓相当,复杂任务上有明显差距。对于大多数实际部署场景,Flash可能是更合理的默认选择。
02
1M上下文:从王牌变成“基本操作”
这是V4最值得认真对待的变化,但理解它需要一点背景。
一年前,百万token的上下文窗口是Gemini的独家特性,是Google用来区隔竞争对手的产品王牌。彼时其他所有主流模型,闭源的要么128K要么200K,开源的几乎没人能在这个量级上做到可用。1M上下文意味着可以把一整部长篇小说、一个大型代码库、几十份研究报告同时塞进模型的"工作记忆"里。这是一种质变,不只是量变。
今天,DeepSeek把1M上下文定成了所有官方服务的标配,并且开源。
问题是:为什么现在可以做到了?
传统Transformer架构有一个根本性的扩展难题:注意力机制的计算量随上下文长度平方级增长。上下文翻倍,计算量变四倍。这意味着把上下文从128K扩展到1M,理论上计算量会增长约60倍。在这个约束下,1M上下文要么需要极大的算力投入,要么速度慢到不可用,要么两者兼而有之。
V4的回答是DSA,DeepSeek Sparse Attention,稀疏注意力机制。
用大白话解释一下就是:想象你在读一本1000页的书,你要回答的问题是"第500页的观点和哪些内容有关"。笨办法是把第500页和其他999页逐一比较,一共做999次比较。页数翻倍,工作量变四倍——这就是平方增长的问题。
聪明办法分两步:
第一步(DSA):先粗略扫一眼,判断哪些页面可能相关,只精读那几十页,其他的直接跳过。大多数页面和第500页根本没关系,不算也不会影响答案。
第二步(token压缩):就算是那几十页"相关页面",也不需要一字不差地读,可以先把每页压缩成一段摘要,用摘要来做比较。信息量再缩一轮。
两步叠加之后,书从1000页变成2000页,工作量不再是原来的四倍,而是大概两倍多——增长曲线被压平了。

这就是V4能把1M上下文做得既长又不贵的核心原因。。
这个架构的种子早在V3.2-Exp就已经种下。当时外界几乎没有人注意到DSA的引入,因为跑分变化不大,看起来像是一次无聊的中间版本。现在回头看,那是在用一个低调的版本验证新架构在生产环境下的稳定性。V3.2是V4的地基,不是一次失败的尝试。
1M上下文变成开源标配的意义,不在于数字本身,而在于成本曲线的改变。这个技术壁垒一旦被打穿并且开源,任何团队都可以在这个架构基础上继续迭代。长上下文从一个"有足够算力才能玩"的高端功能,变成了任何人都能用的基础能力。
这对Agent应用的影响尤其直接。
Agent任务的一个核心约束一直是上下文管理:任务链越长,需要维护的状态越多,有限的上下文窗口很快就成为瓶颈。1M窗口意味着Agent可以在一个更长的操作链里保持状态连贯,处理更大规模的代码库,跨越更多文档进行推理。
这也部分解释了为什么V4在Agent评测上的提升幅度如此显著——不只是模型变聪明了,底层条件也发生变化了。
03
国产算力:一条不依赖英伟达的路
而这一次,DeepSeek和华为昇腾联手,下半年批量上国产算力。
这句话的分量,需要放在过去两年的地缘政治背景里才能看清楚。
2023年以来,美国对华芯片出口管制持续升级,英伟达H100、H800、A100相继被限制出口中国。这对中国AI公司的算力供给构成了实质性压力。训练和部署大型语言模型需要大量高端GPU,而可以合法获得的选项越来越少。
DeepSeek此前的训练主要依赖英伟达算力,V3的训练用的是H800集群。但随着出口管制收紧,这条路的可持续性越来越存疑。
昇腾系列是目前国内最成熟的替代方案。这次发布稿里,昇腾方面提供了相当详细的技术数据。昇腾950超节点上,V4-Pro的推理延迟可以达到TPOT 20毫秒,V4-Flash达到10毫秒。
当然,这些数字都是在离线推理模式下采集的,不包含实际服务调度的负载,现实部署中的数字会有折扣。但方向是明确的:昇腾已经能够支撑V4系列模型的量产部署,不再只是实验室里的备选方案。
"下半年批量上国产算力"意味着什么?至少有两个层面的含义。
第一层是供给安全。如果DeepSeek能在昇腾上实现和英伟达相近的推理性能,那么算力供给就不再是一个单点风险。出口管制的影响会被部分对冲。
第二层是生态信号。DeepSeek是中国最具影响力的开源模型之一,如果它正式在昇腾上规模部署,会带动整个开源社区和下游应用去适配昇腾生态。这对国产算力来说是一个远比单纯硬件销售更有价值的背书。
不过,无论如何吧,DeepSeek和国产算力的深度绑定,是这次发布里最具长期战略意义的一笔——算是从底子上开辟新格局,有自己的生态了。
虽然说现在还是有一定的遗憾,但能看出来,时期
V4发布稿结尾引的那句荀子的话,放在整个故事的语境里有点意味深长:
不诱于誉,不恐于诽,
率道而行,端然正己。
走自己的路,让他们说去吧!
这个节奏本身,也许就是他们最想传递的信息。
黄仁勋警告:若DeepSeek率先适配华为,对美国是“极其愚蠢”的结果

01
一个CEO的罕见直言
黄仁勋于2026年4月15日接受了知名科技播客主持人 帕特尔(Dwarkesh Patel)的深度专访 。从黄仁勋的措辞、语气和论证方式来看,这位英伟达CEO带着明显的焦虑和着急走进了这次对话。他不再使用企业高管惯常的委婉措辞,而是用了一系列直白而有力的表述。当他说"你这是在害美国"时,这已经不是商业辩论,而是一种近乎警告的呼吁。
更值得注意的是,黄仁勋在对话中罕见地使用了"研究性对话"这样相当软性的表达,说"把中国变成敌人,可能并非最佳方案"。这种措辞的温和,恰恰反映了他内心的深度忧虑——他在试图用最理性、最不具有对抗性的方式,向美国政策制定者传达一个紧迫的信息。
但最让人印象深刻的,是他对政策后果的警告。黄仁勋明确指出,建立"美国封闭栈vs外国开源栈"两个割裂生态对美国是"极其愚蠢"的结果。这个词的选择很重要——"极其愚蠢"不是一个商人会轻易使用的词汇,它反映的是黄仁勋对当前政策方向的深度担忧。
02
芯片出口管制的悖论
对话的开始,帕特尔提出了一个看似无懈可击的论证:如果美国芯片真的更好,那么在自由竞争的条件下,美国应该能够击败中国竞争对手。既然如此,为什么还要实施出口管制?
黄仁勋的回答简洁而有力:"因为我们的芯片更好。总的来说我们的芯片更好。这是毫无疑问的。"但他随即补充了一个至关重要的观点:出口管制本身就是在承认美国芯片的优越性,而这种优越性恰恰是通过向中国销售产品来维持的。
他用一系列数据来支撑这个论点:"如果没有我们的芯片你能承认华为经历了创纪录的一年吗?你能承认一大批芯片公司已经上市了吗?"这不是在为出口芯片辩护,而是在指出一个被忽视的事实:美国芯片产业的全球竞争力,本身就依赖于全球市场的参与。
03
被忽视的历史教训
黄仁勋在对话中多次引用了电信行业的例子,这不是偶然的。他指出:"现在你所倡导的政策导致美国电信行业基本上被政策排挤出世界,以至于我们不再控制自己的电信。"
这个观点触及了一个被许多政策制定者忽视的历史教训。20世纪80年代,美国曾对日本半导体产业实施过类似的出口管制和贸易壁垒。结果是什么?美国失去了对全球电信市场的控制权,而日本企业则在被排挤出美国市场的同时,反而加强了对亚洲市场的控制。
黄仁勋的警告是明确的:"我不认为那是明智的。这有点狭隘并且导致了我在向你描述的、你似乎很难理解的意外后果。"他在这里用了一个很强的措辞——"你似乎很难理解"——这表明他对政策制定者缺乏对产业逻辑的理解感到沮丧。
04
成本与收益的真实计算
帕特尔试图从另一个角度论证出口管制的必要性。他指出,如果中国因为获得了更多算力而更早开发出具有攻击能力的AI模型,这将是一个严重的安全威胁。"美国公司先达到Mythos那种能力水平然后暂缓发布,给美国公司和美国政府时间修补漏洞并加固软件这是好事。"
但黄仁勋提出了一个同样重要的成本分析:"如果我们放弃中国市场即世界第二大市场,就等于把AI堆栈中最重要的一层也就是芯片层整个让了出去。"这不仅仅是一个商业问题,而是一个关系到美国技术领先地位的战略问题。
他的逻辑是:如果美国主动放弃中国市场,中国企业将被迫加快自主研发芯片的步伐,并在国内市场建立自己的生态系统。"他们会在自己的市场里发展规模并建立自己的生态系统。未来的AI模型会针对他们的技术栈做优化而他们的模型又是开放的。"
05
DeepSeek是黄仁勋最深的担忧
在对话中,黄仁勋提到了DeepSeek,这是他最着急的地方。他指出:"中国庞大的AI研究团队正通过更高效的计算机科学来提升模型性能。"然后他用了一句分量很重的话:"要是哪天像DeepSeek这样的成果先在华为平台上出现,那对我们国家会是非常糟糕的结果。"
这句话的分量在于,它触及了黄仁勋最核心的担忧。DeepSeek代表的不仅仅是一个优秀的AI模型,更代表了一种可能性——中国的AI研究可能不再依赖于美国的芯片和技术栈。
帕特尔试图质疑这个观点,问道:"为什么将来会不是这样?"黄仁勋的回答揭示了他真正的担忧:"假设它针对华为优化了且针对他们的架构优化了,那就会让我们的处于劣势。"
这里有一个关键的转变。黄仁勋强调的不是DeepSeek本身的性能,而是它如果针对华为硬件进行优化后的影响。他进一步解释:"你描述了一种我认为是好消息的情况。一家公司开发了软件并开发了一个AI模型且在美国技术栈上跑得最好。我认为那是好消息。你把它作为前提说那是坏消息。我来告诉你真正的坏消息即世界上所有的AI模型都是在非美国硬件上开发的并且跑得最好。"
这句话道出了黄仁勋最深的恐惧:美国技术栈失去全球主导地位。
06
架构、生态与摩尔定律的死亡
对话中最具技术深度的部分涉及到芯片架构与计算生态的关系。帕特尔基于一个假设提出了质疑:未来中国可能会停留在7纳米工艺,而美国则会进入1.6纳米时代。在这种情况下,中国企业可能会针对7纳米芯片进行深度优化,使得他们的模型在7纳米上的表现反而优于在美国先进工艺上的表现。
黄仁勋对这个论证进行了有力的反驳。他首先质疑了一个基本假设:"我们能不能先看看事实?Blackwell在光刻技术上比Hopper先进了50倍吗?差得远。"他指出,从Hopper到Blackwell,晶体管的提升只有75%,但性能提升了50倍。这个数据说明了什么?"摩尔定律已经死了。"
这是一个关键的洞察。在摩尔定律失效的时代,芯片性能的提升不再主要来自工艺进步,而来自架构创新和系统设计。黄仁勋强调:"我的观点是架构很重要且计算机科学也很重要。半导体物理学当然重要但计算机科学同样重要。"
他进一步解释了为什么CUDA生态系统如此重要:"AI的影响力主要来自整个计算堆栈,这就是为什么CUDA如此有效且如此受欢迎的原因。它是一个生态系统且一个计算架构并提供了极大的灵活性。"这不是在夸大CUDA的作用,而是在阐述一个产业现实——在AI时代,软件生态的重要性与硬件工艺同等重要。
黄仁勋用具体的例子来说明这一点:"你想彻底改变架构且搞出MoE、搞出扩散模型、搞出分解式架构都能做到而且很容易做到。"这表明,CUDA的真正价值在于其灵活性和可扩展性,而不仅仅是性能指标。
07
华为昇腾的威胁
黄仁勋的焦虑,根本上源于对华为昇腾生态发展的深刻理解。虽然在技术指标上,华为的910C芯片与英伟达的H200相比确实有差距(帕特尔指出"华为那款大概只有H200的二分之一到三分之一"),但这个指标上的差距,远不足以说明全部问题。
华为昇腾的优势
首先,华为昇腾拥有一个巨大的国内市场。中国的AI研究团队、互联网企业、科技公司都在被迫或主动地转向华为芯片。这个市场的规模足以支撑华为进行大规模的研发投入和生态建设。
其次,华为拥有完整的产业链控制能力。从芯片设计、制造、到系统集成,华为都有自己的能力。这意味着华为可以进行端到端的优化,而不受制于任何第三方。这是英伟达所不具备的优势。
第三,华为在通信和网络领域的深厚积累,为其AI芯片的应用提供了独特的优势。特别是在5G、云计算、边缘计算等领域,华为的昇腾芯片可以与华为的其他产品形成完整的解决方案。
生态的力量
但最关键的威胁,来自于生态的建设。黄仁勋在对话中强调:"中国现在是全球开源软件最大的贡献者也是开放模型最大的贡献者。而今天这些开源生态是建立在美国技术栈、建立在英伟达之上的。"
这个观点很深刻。它说明,即使中国获得了英伟达的芯片,这些芯片仍然运行在美国的技术栈上。中国的AI研究人员使用CUDA进行编程,中国的开源模型也是基于英伟达的硬件优化的。
但如果华为昇腾能够建立起自己的软件生态,情况就会完全不同。一旦DeepSeek、通义千问等优秀的开源模型开始针对华为昇腾进行优化,一旦中国的AI研究人员开始学习使用华为的编程框架而不是CUDA,一旦中国的AI生态开始围绕华为芯片进行优化,那么美国技术栈的全球主导地位就会面临真正的威胁。
华为昇腾的进展
虽然华为在芯片工艺上与英伟达有差距,但华为在生态建设上的进展是快速的。华为推出了自己的AI框架、编程工具、优化算法等一系列配套软件。更重要的是,华为正在与中国的AI研究机构、互联网企业合作,共同优化针对昇腾芯片的AI模型。
这个过程中,每一个针对昇腾芯片优化的模型,都是在建立一个不依赖于CUDA的AI生态。当这样的模型足够多、足够优秀时,就会形成一个自我强化的循环——更多的研究人员会选择使用昇腾芯片,更多的模型会针对昇腾进行优化,昇腾的生态就会越来越强大。
黄仁勋对这个过程的理解,比许多政策制定者都要深刻。他知道,华为910C芯片虽然在性能上不如H200,但一旦它的生态足够完善,它就可以通过更高效的算法、更优化的系统设计来弥补这个差距。而且,随着时间的推移,华为的芯片工艺也会不断进步。
08
两个割裂生态的灾难
黄仁勋最深的担忧,体现在他对"两个割裂生态"的警告中。他指出,建立"美国封闭栈vs外国开源栈"这样的局面,对美国是"极其愚蠢"的结果。
为什么这样说?因为在开源时代,开放的生态往往比封闭的生态更具竞争力。如果美国的技术栈变成了一个封闭的、只有美国企业能够充分利用的生态,而中国的开源生态则对全球开放,那么从长期来看,中国的开源生态可能会获得更多的全球支持和贡献。
黄仁勋强调:"中国现在是全球开源软件最大的贡献者也是开放模型最大的贡献者。"这意味着,如果中国的开源生态围绕华为芯片进行优化,这个生态会吸引全球的开发者参与。随着时间的推移,这个开源生态可能会成为全球AI开发的标准,而美国的技术栈反而会变成一个小众的、专有的生态。
这正是黄仁勋所说的"极其愚蠢"的结果。通过出口管制,美国试图维持自己的技术优势,但实际上可能是在推动全球AI生态向中国的开源生态转移。
09
一个被忽视的事实
对话中有一个细节值得特别关注。黄仁勋指出:"中国现在是全球开源软件最大的贡献者也是开放模型最大的贡献者。而今天这些开源生态是建立在美国技术栈、建立在英伟达之上的。"
这个观点揭示了一个深层的战略现实:即使中国获得了英伟达的芯片,这些芯片仍然运行在美国的技术栈上。但这种优势是脆弱的。一旦中国建立起自己的芯片和生态系统,这个优势就会消失。
黄仁勋对此有一个明确的判断:"如果我们被迫离开中国这是一个政策错误,显然会适得其反且对美国不利。它会加速他们的芯片产业并迫使他们所有的AI生态系统专注于自己的内部架构。"
10
AI技术栈的五层论
黄仁勋在对话中提出了一个关于AI技术栈的重要框架:"AI技术栈的五层都很重要且美国应该每一层都赢。当然最重要的是最上面的应用层,谁能把AI扩散到社会里用得最多谁就从这场工业革命里受益最大。但每一层都必须成功。"
这个观点很有启发性。它表明,芯片只是AI技术栈的一层,而不是全部。但正因为芯片的基础性地位,一旦这一层被中国控制,其他层面的优势也会受到威胁。
11
对恐惧文化的批评
黄仁勋在对话中对美国社会中弥漫的AI恐惧进行了尖锐的批评。他指出:"如果我们把这个国家吓住让所有人都觉得AI是核弹且所有人都讨厌AI、害怕AI,我不知道这对美国有什么好处。你这是在害美国。"
他进一步阐述了这种恐惧可能带来的实际后果:"如果我们吓唬所有人让他们别去学软件工程说AI会消灭所有软件工程岗位,结果我们真的没了软件工程师那才是对美国最大的伤害。"
这个观点触及了一个深层的问题:政策制定者对技术的理解往往是片面的。黄仁勋用医学的例子来说明这一点:"如果我们吓唬所有人让他们别当放射科医生,说计算机视觉已经免费了且AI读片比人强,那我们是混淆了工作和任务。放射科医生的工作是照护病人而读片只是其中的一项任务。"
12
战略平衡的艺术
黄仁勋在对话的最后提出了一个核心的战略观点:"我们应该始终把最好的技术、最多的技术优先留在美国,并且让美国最先拥有。但与此同时我们也应该去全球各地竞争并赢下市场。这两件事可以同时做到。只是需要一些分寸、一些成熟而不是非黑即白。这个世界不是非黑即白的。"
这个观点代表了一种成熟的战略思维。它不是简单的非此即彼,而是承认现实的复杂性,并在这种复杂性中寻找平衡。黄仁勋强调的"分寸"和"成熟",正是当今全球化时代所需要的政策制定理念。
但黄仁勋也发出了一个明确的警告:"但几年后当美国想把我们的技术栈、我们的技术推广到全世界比如到印度、中东、非洲、东南亚,当我们的国家想出口技术且想出口标准的时候,我希望到那时我们俩能再聊一次。到那天我会告诉你你今天设想的这些政策是如何让美国无缘无故地放弃了世界第二大市场的。"
13
把中国变成敌人的代价
黄仁勋罕见地使用了"研究性对话"这样相当软性的表达,说"把中国变成敌人,可能并非最佳方案"。这种措辞的温和,恰恰反映了他内心的深度忧虑。
他的逻辑是:通过出口管制,美国正在把中国推向自主研发的道路。这个过程中,中国会建立自己的芯片产业、自己的软件生态、自己的技术标准。一旦这个过程完成,中国就不再需要美国的芯片和技术了。到那时,美国失去的不仅仅是一个市场,而是对全球AI生态的影响力。
黄仁勋的警告是:通过试图限制中国,美国实际上是在加速中国的独立。这是一个战略上的自我伤害。
14
加速计算的长期使命
对话的最后,黄仁勋回到了英伟达的根本使命。他指出,即使没有AI,英伟达也会是一家伟大的公司,因为"我们公司的基本判断是通用计算的扩展能力基本到头了。"
这个判断很深刻。它说明,英伟达的成功不是建立在某一个技术趋势之上,而是建立在对计算未来的深刻理解之上。"所以我们把GPU和CUDA跟CPU结合起来,把CPU上的某些工作负载卸载到GPU上加速。这样可以把一个应用提速100倍甚至200倍。"
黄仁勋强调,加速计算的应用远超AI领域:"这些应用可以是工程、科学、物理、数据处理、计算机图形、图像生成等等。"他甚至指出,GTC大会的开头部分与AI无关,"包括计算光刻、量子化学、数据处理。这些工作依然非常重要。"
这个观点很重要,因为它提醒我们,AI只是加速计算的一个应用领域,而不是全部。过度关注AI,可能导致对其他同样重要的应用领域的忽视。
15
结 语
黄仁勋与帕特尔的对话,本质上是一场关于战略思维的讨论。但更重要的是,这是一个全球最重要芯片公司CEO对当前政策方向的深度担忧。
黄仁勋代表的是一种全球化时代的战略思维,强调的是在开放竞争中维持领先地位,而不是通过保护主义来维持优势。他的焦虑,源于对一个可能的未来的清晰认识:如果美国继续实施出口管制,中国会被迫加快自主研发的步伐,建立独立的芯片和生态系统。一旦这个过程完成,美国失去的不仅仅是中国市场,而是对全球AI生态的影响力。
他对"两个割裂生态"的警告,更是触及了问题的本质。在开源时代,开放的生态往往比封闭的生态更具竞争力。如果美国的技术栈变成了一个小众的、专有的生态,而中国的开源生态则对全球开放,那么从长期来看,中国的开源生态可能会获得更多的全球支持。
黄仁勋的这次对话,实际上是在为一种更加成熟、更加理性的全球化时代的竞争战略进行辩护。这种战略既不是简单的开放,也不是简单的保护,而是在理解全球化现实的基础上,寻找既能维护国家利益又能保持竞争优势的平衡点。
但更重要的是,黄仁勋通过这次对话,向美国政策制定者发出了一个明确的警告:把中国变成敌人,可能并非最佳方案。建立两个割裂的生态,对美国是"极其愚蠢"的结果。在AI时代,美国需要的不是保护主义,而是更强的创新能力和更完善的生态系统。