英伟达发布CUDA 13.1:GPU编程范式迈入新阶段

英伟达(NVIDIA)推出CUDA 13.1,并将其视为自2006年CUDA平台诞生以来规模最大的一次升级。此次更新的核心在于引入CUDA Tile编程模型,使GPU编程从传统SIMT模式进一步抽象化。开发者在处理任务时不再需要直接管理线程、内存与同步等底层细节,而是以数据块为单位组织计算,底层调度与资源映射由编译器和运行时完成。

为支持这一模式,CUDA 13.1新增虚拟指令集Tile IR,并提供cuTile工具,使开发者能够使用Python编写基于Tile的GPU Kernel。这一变化降低了GPU编程门槛,让不熟悉CUDA C/C++的研究人员也能构建加速代码。Tile模型并非替代SIMT,而是作为另一种可选路径,适用于不同应用场景。

CUDA 13.1的推出不仅涉及功能更新,也为未来跨架构GPU计算库奠定基础。通过在硬件与软件之间加入更高层抽象,NVIDIA强化了生态体系的技术壁垒。面对Tile IR这种更高抽象模式,竞争对手若仅依赖兼容层转译已难以满足需求,必须构建能够理解Tile IR的编译器。这将提高技术对齐难度,并进一步增强CUDA生态的黏性。