仅用不到1200行代码,实现最小化且完全可读的vLLM!
DeepSeek研究员俞星凯搞了个开源项目引得大伙拍手叫绝。
项目名为Nano-vLLM(纳米级-vLLM),有三大特点:
快速离线推理:推理速度可与vLLM相媲美
可读性强的代码库:基于不到1200行Python代码实现,简洁干净
优化套件:包含前缀缓存、Torch compilation 、CUDA graph等
下面是vLLM与Nano-vLLM在不同硬件和模型配置下的基准测试情况。
在RTX 4070硬件、Qwen3-0.6B模型环境中,设置了256个序列的总请求数,输入和输出长度均在100-1024个 token间随机采样。
测试结果be like:
vLLM略微领先。
二者输出token量相同,vLLM耗时98.95秒、吞吐量为1353.86 tokens/s,Nano-vLLM耗时101.90秒、吞吐量1314.65tokens/s。
接着在H800硬件、Qwen3-8B模型环境中,总请求数为1024个序列,输入输出长度同样随机采样。
此时Nano-vLLM甚至反超原框架。
二者输出token量依旧相同,vLLM耗时98.67秒、吞吐量5916.89 tokens/s ,Nano-vLLM耗时86.73秒、吞吐量 6731.42 tokens/s。
这一成果来自于DeepSeek研究员俞星凯。
他2021年获得南京大学计算机科学与技术系学士学位,同年又被南京大学免试录取为硕士研究生,在校他同时也是由周志华教授领导的LAMDA团队的成员。
vLLM是一款专为LLM推理与部署优化的高性能框架,最初由加州大学伯克利分校的Sky Computing Lab开发,现已发展成为一个汇聚学界与业界贡献的社区驱动项目。
该项目在GitHub目前已累计49.5k+Star。
其核心技术灵感源自操作系统虚拟内存分页机制。此前LLM服务系统因采用连续内存存储KV缓存,导致内部/外部碎片化严重,且无法有效共享内存,极大限制了批处理规模。
针对这一问题,团队提出PagedAttention算法,允许将连续的键(key)值(value)对存储在非连续内存空间中,通过将KV缓存划分为固定大小的块(Block),利用块表动态映射逻辑块与物理块地址。
在注意力计算过程中,PagedAttention内核会分别识别和获取不同的KV块。
下面是一个示例,键和值向量分布在三个块中,且这三个块在物理内存中并不连续。
基于PagedAttention算法,团队构建了vLLM服务系统,其架构下图所示:
vLLM采用集中式调度器来协调分布式GPU工作节点的执行。
借助PagedAttention,KV缓存管理器以分页方式有效管理KV缓存。具体而言,KV缓存管理器通过集中式调度器发送的指令来管理GPU工作节点上的物理KV缓存内存。
vLLM实现了KV缓存内存近乎零浪费,请求内及请求间KV缓存的灵活共享进一步降低内存使用。
评估显示,与FasterTransformer和Orca等此前最先进系统相比,vLLM在相同延迟水平下将流行LLM的吞吐量提升2-4倍,且在更长序列、更大模型和更复杂解码算法场景中改进更为显著。
总结来说,vLLM灵活且易于使用,具备以下特点:
与流行的Hugging Face模型无缝集成,包括类Transformer模型、混合专家模型、嵌入模型、多模态模型;支持通过各种解码算法实现高吞吐量服务,包括并行采样、波束搜索等;支持张量并行和pipeline并行,以实现分布式推理;支持流式输出;兼容OpenAI的API服务器;支持NVIDIA GPU、AMD CPU和GPU、Intel CPU和GPU、PowerPC CPU、TPU以及AWS Neuron;支持前缀缓存;支持多LoRA。
值得一提的是,在实现层面,vLLM前端基于FastAPI,后端是基于GPU的推理引擎。vLLM引擎由8500行Python代码和2000行C++/CUDA代码构成。
而这次DeepSeek研究员仅用不到1200行代码就实现了轻量级vLLM,性能和原版相媲美。
参考链接:
[1]https://github.com/GeeeekExplorer/nano-vllm/tree/main
[2]]https://www.lamda.nju.edu.cn/yuxk/
[3]https://arxiv.org/pdf/2309.06180
[4]https://github.com/vllm-project/vllm
本文来自微信公众号“量子位”,作者:关注前沿科技,36氪经授权发布。
仅用不到1200行代码,实现最小化且完全可读的vLLM!DeepSeek研究员俞星凯搞了个开源项目引得大伙拍手叫绝。项目名为Nano-vLLM(纳米级-vLLM),有三大特点:快速离线推理:推理速度可与vLLM相媲美可读性强的代码库:基于不到1200行Python代码实现,简洁干净优化套件:包含前缀
【大河财立方消息】6月4日,据工业和信息化部,工业和信息化部党组书记、部长李乐成6月3日主持召开会议,研究推动人工智能产业发展和赋能新型工业化的思路举措。会议强调,要系统谋划、协同推进,一体推动战略、规划、政策、标准等方面任务落实,为人工智能产业发展和赋能新型工业化打造良好的生态环境,充分激发创新活
近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能上的跨越。训练
友达光电的全球顶尖透明显示屏、三一重机的全球首台电动无人微型挖掘机、革新了行业技术的科沃斯洗地机器人……从工业应用到生活消费,“江苏智造”背后是大数据、人工智能等技术在生产端的深度应用。最新数据显示,4月份,江苏规模以上高技术制造业增加值增长12.9%、数字产品核心制造业增长11.4%。作为工业大市
封面新闻记者 欧阳宏宇 付文超赛力斯回应人形机器人业务有新进展5月23日,有市场消息称,“赛力斯人形机器人原型已定型,赛力斯定于6月16日(周一)展示人形机器人Demo。”对此,赛力斯工作人员表示,公司的业务信息以官方发布的信息为准,目前公司没有发布上述的信息。该人员进一步透露,作为新能源汽车企业,
网站内容来自网络,如有侵权请联系我们,立即删除!
Copyright © 黑兔子百科网 琼ICP备2024032622号-19