终于!CUDA 官宣:添加原生 Python 支持,开发者狂喜

360影视 国产动漫 2025-04-07 19:52 2

摘要:如果你是一名 Python 开发者,曾想尝试 CUDA 却被 C/C++ 劝退,那么你终于可以松一口气了——今年 NVIDIA GTC 大会上传来了一条重磅消息:CUDA,英伟达深耕多年的并行计算平台和编程模型框架,正式加入了对 Python 的原生支持!

整理 | 郑丽媛

出品 | CSDN(ID:CSDNnews)

如果你是一名 Python 开发者,曾想尝试 CUDA 却被 C/C++ 劝退,那么你终于可以松一口气了——今年 NVIDIA GTC 大会上传来了一条重磅消息:CUDA,英伟达深耕多年的并行计算平台和编程模型框架,正式加入了对 Python 的原生支持!

这意味着:Python 开发者无需再学习 C/C++,就可以用最熟悉的 Python 写代码、调库、跑模型,直接在 GPU 上高效执行算法任务。作为长期以来开发者社群最为期待的能力之一,Python 原生支持的到来,无疑为 CUDA 注入了新的活力,也为数以百万计的 Python 工程师打开了加速计算的大门。

正式官宣:Python 成为 CUDA 原生语言

自 2006 年推出以来,CUDA 凭借其出色的并行计算性能,成为深度学习、科学计算、图像处理等领域的核心技术底座。但长期以来,CUDA 的生态始终围绕 C/C++ 构建,其编程语言支持也主要集中在 C、C++ 和 Fortran 上。

虽然有诸如 PyCUDA、Numba 等第三方库实现了部分 Python 封装,但始终缺乏官方、全面、原生的 Python 集成。尤其在 GitHub 2024 年度报告中 Python 超越 JavaScript、成为了“全球最受欢迎编程语言”之后,这种不匹配越来越明显。

如今,这一切终于迎来了转折点。

在 GTC 2025 中,英伟达正式宣布:CUDA 工具链将全面原生支持 Python 编程。CUDA 架构师 Stephen Jones 在 GTC 技术演讲中对此表示,“我们一直在努力让加速计算与 Python 深度融合,使其成为 CUDA 技术栈中的‘一等公民’。”

CUDA 的 Python 化改造

对于添加了原生 Python 支持的 CUDA,开发者可直接用 Python 编写算法,并在英伟达 GPU 上高效执行,无需手动调用底层内核或依赖 C++ 接口封装。

Stephen Jones 补充道:“这不仅仅是把原来的 C 语言翻译成 Python,而是要让 Python 保持本色,让 Python 开发者也感到自然。”

英伟达也强调,此次更新重新设计了一套真正符合 Python 编程习惯的 CUDA 开发模型,包括 API、库、执行方式和性能优化手段。开发者可以像使用 NumPy、PyTorch 那样,用 Python 脚本直接编写和调用 GPU 加速逻辑。

换句话说,英伟达对 CUDA 不是简单的语法包装,而是一次从运行时到编程模型的 Python 化重构。具体来看,英伟达提供了:

(1)CUDA Core:重新设计的运行时系统,支持完全的 Python 编程体验,执行流程也更贴近 Python 风格;

(2)cuPyNumeric:NumPy 的 GPU 加速替代品,修改一行 import 即可将代码从 CPU 迁移至 GPU;

(3)NVMath Python:统一接口库,支持在 host 和 device 两端调用各种库函数,这些函数调用支持自动融合(fusing),可带来明显的性能提升;

(4)采用 JIT 编译:几乎不依赖传统编译器,大幅减少依赖链复杂度,提高执行效率和可移植性;

(5)全套的分析工具支持:包括性能分析器、代码静态分析器等,帮助开发者进行性能调优。

除此之外,传统 CUDA 强调线程(thread)、块(block)等显式控制方式,而 Python 工程师则更熟悉“数组思维”——以矩阵、张量、向量等结构为基础组织计算。为此,英伟达还推出了全新编程模型 CuTile,它更像是面向数组、张量的抽象,更贴近 Python 开发者的思维模式。

CuTile 模型强调以 tile(小块)为基本计算单元进行调度,每个 tile 包含若干数据元素,由编译器负责自动映射到底层线程执行,从而实现高效的 GPU 加速。Stephen Jones 解释道,“相比线程,tile 更贴近 Python 语言的哲学;它足够高效,性能也不输 C++。”——tile 中的数据可以是向量、张量或数组,编译器可以更好地将整个数组操作映射到 GPU。

最终实现既保留了 CUDA 的性能优势,又贴近 Python 的开发习惯。

接下来还有什么值得期待?

根据市场研究机构 The Futurum Group 数据,2023 年全球 CUDA 开发者数量约为 400 万人。而与之相比,Python 开发者群体则以指数级增长,在全球范围内已突破数千万,尤其在印度、巴西等新兴市场展现出强大活力。

英伟达此次为 CUDA 添加原生 Python 支持,无疑将把这批人拉入 CUDA 生态中。无论你是 AI 工程师、科研人员,还是对 GPU 加速感兴趣的 Python 爱好者,这波更新无疑是一个好消息。

更为重要的是,英伟达在 GTC 大会上还透露:接下来还将在 CUDA 中支持 Rust、Julia 等语言,进一步扩大其多语言生态。也就是说,CUDA 不再设置“语言门槛”,正在从“专业工具”向“通用平台”演化,未来不再只有系统级程序员才能玩转 CUDA。

参考链接:https://thenewstack.io/nvidia-finally-adds-native-python-support-to-cuda/

来源:CSDN一点号

相关推荐