今天看啥  ›  专栏  ›  机器学习研究组订阅

斯坦福华人天团意外爆冷!AI用纯CUDA-C编内核,竟干翻PyTorch?

机器学习研究组订阅  · 公众号  · AI  · 2025-05-31 19:20
    

主要观点总结

斯坦福大学HAI华人大神团队使用纯CUDA-C语言编写的快速AI生成内核,超越了PyTorch性能,不借助CUTLASS和Triton等库和领域特定语言(DSL),实现了接近或超过PyTorch专家优化标准生产级内核的性能。该团队包括Anne Ouyang、Azalia Mirhoseini和Percy Liang,他们分享了研究成果,并指出最初目标只是生成合成数据来训练内核生成模型。研究亮点包括矩阵乘法、二维卷积、Softmax和层归一化的性能表现,结果已在英伟达L40S GPU上进行了基准测试。网友们对此展开了热烈讨论,指出AI能以更低成本实现更优化的内核。研究者们分享了方法、优化后的内核以及未来探索的第一步。

关键观点总结

关键观点1: 研究背景与目的

斯坦福大学HAI华人大神团队使用纯CUDA-C语言编写的快速AI生成内核,超越了PyTorch性能,不借助CUTLASS和Triton等库和领域特定语言(DSL),实现了接近或超过PyTorch专家优化标准生产级内核的性能。该团队包括Anne Ouyang、Azalia Mirhoseini和Percy Liang,他们分享了研究成果,并指出最初目标只是生成合成数据来训练内核生成模型。

关键观点2: 研究亮点

研究亮点包括矩阵乘法、二维卷积、Softmax和层归一化的性能表现,结果已在英伟达L40S GPU上进行了基准测试。

关键观点3: 网友反应

网友们对此展开了热烈讨论,指出AI能以更低成本实现更优化的内核。

关键观点4: 研究方法与未来探索

研究者们分享了方法、优化后的内核以及未来探索的第一步。


文章预览

就在刚刚,斯坦福HAI华人大神团队又出惊人神作了。 他们用纯CUDA-C语言编写的快速AI生成内核,竟然超越了PyTorch! 在这个过程中,完全不用借助CUTLASS和Triton等库和领域特定语言(DSL),就能让性能表现接近PyTorch内置的、经过专家优化的标准生产级内核,甚至在某些情况下还更胜一筹。 作者团队都是我们熟悉的名字——Anne Ouyang、Azalia Mirhoseini和Percy Liang,有趣的是,他们甚至直言,这个结果其实本不想拿出来发布。 一经发布,这个发现就引爆了技术圈,现在已经登顶Hacker News总榜第二。 说起来,这个发现还有很多意外的成分。 本来,他们的目标是生成合成数据,来训练更好的内核生成模型,合成数据生成的设计也十分简单。 然而,意想不到的事情发生了,仅用于测试的合成数据生成本身,竟开始生成非常优秀的内核,甚至超越了人类专家优化 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览