操作系统
Linux
最近更新
2024-08-06
使用许可
开源
语言
不支持中文
文件大小
109.88 MB

vLLM(very Large Language Model)是一款用于大型语言模型(LLM)的高吞吐量和内存效率的推理和服务引擎。


以下是对vLLM的详细介绍及其功能特点:

  1. 高效性能:vLLM旨在提供先进的服务吞吐量,其性能高达HuggingFace Transformers的24倍,而无需进行任何模型架构的改变。这得益于其新的注意力算法PagedAttention,可以有效地管理注意力的键和值。
  2. 动态批处理请求:vLLM支持动态批处理请求,这有助于提高处理效率和响应速度。
  3. 优化CUDA内核:vLLM配备了优化好的CUDA内核,可以充分利用GPU的计算能力,进一步提升推理速度。
  4. 无缝集成:vLLM可以无缝集成与流行的HuggingFace模型,支持包括GPT-2(gpt2、gpt2-xl等)和OPT(facebook/opt-66b、facebook/opt-iml-max-30b等)在内的架构。
  5. 分布式推理支持:vLLM支持张量并行以支持分布式推理,这可以在多台机器上并行处理请求,进一步提高处理效率。
  6. 兼容性和扩展性:vLLM兼容OpenAI的API服务,使得用户可以轻松地将现有的应用程序或服务迁移到vLLM平台上。同时,由于其开放源代码和可扩展的架构,用户可以根据自己的需求进行定制和扩展。
  7. 流输出:vLLM支持流输出,这意味着它可以实时生成和处理文本输出,适用于需要实时响应的场景。


0.4.0 版本更新说明:

模型

新模型:Command+R, Qwen2 MoE, DBRX, XVerse, Jais。

新的视觉语言模型:LLaVA。


生产特性

自动前缀缓存,支持长系统提示在请求之间自动缓存。使用 --enable-prefix-caching 标志来启用它。

在 OpenAI 服务器中支持任意 JSON,使用 --use-delay 标志来改进多个请求之间的首个令牌生成时间,以及 EOS 抑制。

在分块预填充调度器和投机解码方面取得了进展。

自定义的 all-reduce 内核在进行了更多的鲁棒性修复后已重新启用。

由于其存在的缺陷,已替换 cupy 依赖。


硬件

改进了对 AWS Inferentia 的 Neuron 支持。

基于 CMake 的构建系统,以提高可扩展性。


生态系统

广泛的服务基准测试重构。

使用统计信息收集

其他版本
最近更新软件·Linux 软件更新列表
Apifox [开发] Apifox 2.6.32 ARM64
11-21
Apifox [开发] Apifox 2.6.32 64位
11-21
腾讯文档 [应用软件] 腾讯文档 3.8.11 ARM64
11-21
腾讯文档 [应用软件] 腾讯文档 3.8.11 64位
11-21
小鱼易连 [网络] 小鱼易连 3.10.0.23021 ARM64/麒麟,鲲鹏
11-21
小鱼易连 [网络] 小鱼易连 3.10.0.23021 ARM64/麒麟,鲲鹏
11-21
Brave Browser [网络] Brave Browser 1.73.91 ARM64
11-21
Brave Browser [网络] Brave Browser 1.73.91 64位
11-21
Slack [应用软件] Slack 4.41.97 64位
11-21
Cursor [开发] Cursor 0.42.5 64位
11-20
新软件·Linux 新软件列表
Cursor [开发] Cursor 0.42.5 64位
11-20
VMware Workstation [系统工具] VMware Workstation 17.6.1 64位
11-19
微信 [网络] 微信 4.0.0 龙芯
11-11
微信 [网络] 微信 4.0.0 ARM64
11-11
微信 [网络] 微信 4.0.0 64位
11-11
Another Redis Desktop Manager [开发] Another Redis Desktop Manager 1.7.0 ARM64
11-10
115浏览器 [网络] 115浏览器 27.0.6.9 64位
11-09
Python 3.13 [开发] Python 3.13 3.13.0 64位
11-07
Python 3.12 [开发] Python 3.12 3.12.7 64位
11-07
Python 3.11 [开发] Python 3.11 3.11.10 64位
11-07