DeepSeek开源TileKernels:面向大语言模型的GPU算子库

2026-04-29 11:072阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

DeepSeek于刚刚在GitHub上开源了名为TileKernels的GPU算子项目,该仓库以MIT协议发布,定位为面向大语言模型训练与推理场景的高性能GPU算子集合,底层基于TileLang构建。作者署名包括王翔文、徐晨浩、曹焕琪、田瑞、赵伟霖、余快与赵成钢。

github.com

GitHub - deepseek-ai/TileKernels: A kernel library written in tilelang

A kernel library written in tilelang

据仓库README介绍,TileLang是一种用于在Python中表达高性能GPU算子的领域特定语言,具备易迁移、敏捷开发与自动优化的特性。项目方表示,库中大部分算子在算力强度与显存带宽方面已接近硬件性能极限,其中部分算子已应用于DeepSeek内部的训练与推理流程;不过官方也注明这些代码并不代表最佳实践,目前仍在持续改进代码质量与文档。

image620×441 51 KB

运行环境方面,项目要求Python 3.10及以上、PyTorch 2.10及以上、TileLang 0.1.9及以上,并需配备NVIDIA SM90或SM100架构GPU以及CUDA 13.1以上工具链。

网友解答:
--【壹】--:

适配吧,部署卡没啥问题,训练卡听说效率很差。上次消息说训练完了优先给华为适配


--【贰】--:

不是说转到华为了吗,怎么还在这里优化N卡呀,有没有懂得佬出来介绍一下


--【叁】--:

在 python 上优化啊。还是用 N 卡,这是要捧一下吗?再拉踩吗?


--【肆】--:

没有实锤转华为了吧,看这样子应该是谣言


--【伍】--:

剩下的卡总不能上转转吧,这个库是专为英伟达的优化,没准还有一个私有库是对国产的呢


--【陆】--:

就算用昇腾也不太可能完全抛弃CUDA,很怀疑昇腾的产量 ,而且今年华为的训练卡都还没出来呢吧


--【柒】--:

快把v4端上来罢,等好久了,天天各种假消息满天飞


--【捌】--:

动作真的是越来越多了,感觉这周上线的可能性真的有点高喔