美国副部长宣称:我们阻碍了中国生产ai的速度,堵死了中国的发展

360影视 2025-01-21 12:17 2

摘要:曾在美国政府中担任负责工业和安全的商务部副部长艾伦·埃斯特维兹 (Alan Estevez),他在过去的四年里,一直在寻找新的手段来阻碍中国试图利用美国技术开发尖端芯片和人工智能技术。

据英国权威媒体《金融时报》报道 ,曾在美国政府中担任负责工业和安全的商务部副部长艾伦·埃斯特维兹 (Alan Estevez),他在过去的四年里,一直在寻找新的手段来阻碍中国试图利用美国技术开发尖端芯片和人工智能技术。

据埃斯特维兹表示,“我们肯定是阻碍了中国生产这些芯片的能力,而 ergo 影响了他们开发大型语言模型的能力。”

美国针对中国在ai领域发展所进行的制裁,已经多达10次之多。

2022年10月,美国首次对中国实施AI芯片出口管制,禁止向中国大陆出口先进人工智能芯片及相关设备。2023年8月,美国总统拜登签署行政命令,授权美国财政部长监管美国在半导体、微电子、量子信息技术和某些人工智能领域对中国企业的投资。2023年10月, 美国商务部工业和安全局(BIS)发布新规,限制向中国出口更先进的人工智能芯片和半导体设备,进一步扩大限制范围。2024年3月, 美国商务部对《出口管理条例》中关于半导体相关出口管制内容进行调整和澄清,明确规定对中国出口的芯片限制将适用于包含AI芯片的笔记本电脑。2024年9月, 美国商务部发布公告,更新了量子计算和半导体制造的出口管制政策,对中国企业在进口光刻机等关键半导体设备提出挑战。2024年10月, 美国财政部正式发布在半导体、AI信息等领域的对华投资禁令。2024年11月, 应用材料公司和Lam Research等芯片制造企业在美国政府压力下,要求供应商将中国从供应链中剔除。2024年12月2日, 美国宣布新一轮对华出口限制措施,将140余家中国企业加入贸易限制清单,涉及半导体制造设备、电子设计自动化工具等多个种类。2025年1月13日, 美国发布历史上首个人工智能出口管制规则,对先进计算芯片及闭源AI模型实施新的管控措施,进一步限制向中国出口高端AI芯片。2025年1月15日,拜登在离任前宣布新一轮出口管制措施,进一步加强晶圆代工厂和封测厂的出口AI芯片限制,扩大了对14或16nm及以下AI芯片制造技术的限制。

在2022年,美国第一次对中国实行ai芯片的出口管制,禁止英伟达A100、H100芯片出口给中国企业。这些芯片主要的用途被放在了汽车辅助驾驶、高精度设备制造、医疗成像制药等涉及到推理以及大量训练的场景。

同年,美国对中国14nm以下芯片的制造设备进行了封锁,阻断了中国用美国技术设备来制造芯片的途径。

2023年,英伟达推出了最新的A800、H800产品,虽然是新产品,但是在性能上面与上一代差距不大,并没有大幅度缩短ai算力的训练时间。在这个期间,也正好给了中国企业追击ai技术的缓冲期。

2024年,中国本土的ai芯片市场份额已经占据了15%,而且出现持续上升的趋势。在这个期间,百度的昆仑3代、寒武纪、海光信息等企业的产品也开始逐步有了起色。

同年,美国进一步将ai芯片的范围扩大到14nm-16nm节点,并且禁止300亿晶体管密度的芯片出口给中国。同时将24种半导体制造设备、3种软件工具纳入出口管制范围,对高带宽存储器实施新一轮的管制措施。

2025年1月,美国颁布了《ai扩散暂行最终规则》,进一步限制AI芯片出口,将性能门槛降至150 TOPS,切断中国获取高端ai芯片的主要渠道。

并且该规则对全球范围内的ai芯片都产生了影响,一共分为三个等级区域:

第一等级:美国及其18个主要盟友,可以自由采购美国的ai芯片。第二等级:大约20个国家和地区将面临总算力限制,2025年至2027年期间,每个国家最多可获得约5万个AI GPU。第三等级:包括中国、俄罗斯、伊朗等国家在内的地区,全面禁止进口美国生产的高性能AI芯片。

在美国颁布了最新的规则限制之后,ai芯片的开发商英伟达表达了强烈的反对意见,称其在ai芯片上面的限制,会破坏全球经济的发展,对美国自身的全球竞争力造成损害。

英伟达的政府事务副总裁Ned Finkle指出,这些新规则试图通过官僚手段控制美国领先的半导体、计算机、系统甚至软件的全球设计和营销,这将扼杀创新并阻碍全球经济增长。

中国市场占据了英伟达数据中心业务收入的17%,而全球大约56%的收入都是来自于美国以外的市场。如果美国的最新政策全面铺开,那么可能会使英伟达的ai芯片销售额减少一半左右。

英伟达目前的高端ai芯片,例如A100、H100、GB200等产品,在单精度(FP32)、半精度(FP16)和整数(INT8)计算能力上表现卓越。光是A100的FP16算力,就已经达到了312T,绝大多数的国产ai芯片,在单卡性能上仍不及英伟达的A100。

英伟达的看家技术是CUDA,简单来说就是通过软件生态的转变,可以将一个游戏显卡变成科研领域的算力芯片,目前全球90%的ai语言模型,都是依靠CUDA技术开发的,甚至还有不少科研界的设备技术也是依靠CUDA来进行数据训练的。

在生态领域,中国ai芯片存在明显的劣势地位。虽然在科研领域,我们拥有一定程度的自主ai芯片,但是这些芯片只用于科研计算,无法投入到消费市场进行盈利。

与英伟达A100性能相近的芯片,有华为的昇腾910B(国产技术的昇腾910)、寒武纪思元590以及壁仞科技BR100这三款产品。

在半精度(FP16)计算能力上,昇腾910B的376TFlops高于A100的312TFlops。其单个时钟周期内可处理16x16x16的矩阵计算,远胜于A100的4x8x8。

但是910B只配备了64G HBM2E显存,显存容量低于英伟达A100的80GB。并且在功耗上面,910B是400w,A100是300w,A100优势明显。

最关键的,还是在内部的晶体管堆叠上面。昇腾910B是960亿晶体管,而A100只有540亿,晶体管数量差距很大,但是性能却差距不大,也在一定程度是说明了我们的ai芯片还有进步的空间。

昇腾910B是基于华为自研的CANN技术以及自主的ai生态,在消费电子领域有一定的市场空间,但是在大算力的科研机构领域,比英伟达的CUDA生态要差一些的。

来源:大漠过千里

相关推荐