专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏

verlai/verl Docker 镜像 - 轩辕镜像

镜像简介

verl 是一款聚焦大模型"训练+推理"全流程的工具集,核心定位是降低大模型强化学习(RL)训练与高效推理的门槛,支持 FSDP、Megatron-LM 训练后端和 vLLM、SGLang、TGI 推理引擎,内置多种 RL 算法,适用于企业级大模型落地场景。

镜像统计信息

收藏数: 5

下载次数: 558139

状态: active

发布者: verlai

类型: 镜像

verl
verlai/verl
verl 是一款聚焦大模型"训练+推理"全流程的工具集,核心定位是降低大模型强化学习(RL)训练与高效推理的门槛,支持 FSDP、Megatron-LM 训练后端和 vLLM、SGLang、TGI 推理引擎,内置多种 RL 算法,适用于企业级大模型落地场景。
5 收藏0 次下载activeverlai镜像
🚀专业版镜像服务,面向生产环境设计
版本下载
🚀专业版镜像服务,面向生产环境设计

verl - 大模型强化学习训练与推理工具集

前言

verl 是一款聚焦大模型"训练+推理"全流程的工具集,核心定位是降低大模型强化学习(RL)训练与高效推理的门槛,尤其适配企业级大模型落地场景。其本质是通过封装主流深度学习框架(如 PyTorch、Megatron-LM)和推理引擎(如 vLLM、SGLang),让开发者无需手动解决复杂的环境依赖、分布式配置问题,专注于模型优化与业务逻辑。

verl 的核心功能

verl 的能力覆盖"训练"和"推理"两大核心场景,且支持灵活扩展:

大模型训练:主打强化学习与分布式能力
  • 支持多训练后端:适配 FSDP(PyTorch 原生分布式框架,适合快速验证原型)、Megatron-LM(NVIDIA 高性能分布式框架,支持万卡级大模型训练,适合大规模落地)
  • 强化学习(RL)优化:内置 RL 训练流程封装,可直接用于大模型 RLHF(基于人类反馈的强化学习)、RLHF 变种任务,无需从零搭建训练 pipeline
  • 依赖自动兼容:自动适配 PyTorch、CUDA、FlashAttention 等核心依赖版本,避免"版本冲突导致训练崩溃"
大模型推理:高效生成 rollout 结果
  • 支持多推理引擎:集成 vLLM(业界领先的高吞吐推理框架,支持动态批处理)、SGLang(高性能推理引擎,提供丰富的优化特性)、TGI(Hugging Face Text Generation Inference,适合标准 Hugging Face 模型)
  • 聚焦"rollout 生成":专为强化学习场景设计——快速生成模型输出样本(如 RLHF 中的"模型回答候选"),推理访问表现比原生 Hugging Face pipeline 提升 5-10 倍
高扩展性与定制化
  • 支持自定义训练配置:可通过 YAML 配置文件修改训练参数(如学习率、batch size、分布式策略)
  • 源码级可定制:若使用挂载目录部署,可直接修改 verl 源码(如适配新的 RL 算法、自定义数据集),无需重新构建镜像

verl 的适用场景

用户类型适用场景
算法工程师快速验证大模型 RL 算法、搭建 RLHF 训练流程、测试不同推理引擎的 rollout 效率
企业运维/DevOps为团队快速部署统一的大模型训练/推理环境,避免"一人一环境"的运维混乱
初学者零门槛体验大模型分布式训练与高效推理,无需手动配置 CUDA、PyTorch 等复杂环境
大型团队基于 Megatron-LM 后端搭建大规模分布式训练集群,支撑百亿/千亿参数模型训练

系统要求

  • Python: 版本 >= 3.10
  • CUDA: 版本 >= 12.8
  • cuDNN: 版本 >= 9.10.0(推荐)

快速开始

使用 Docker 镜像(推荐)

verl 提供了预构建的 Docker 镜像,支持 vLLM 和 SGLang 两种基础镜像。您可以从 Docker Hub 拉取最新镜像:

bash
# 使用 vLLM 基础镜像
docker pull verlai/verl:vllm011.latest

# 或使用 SGLang 基础镜像
docker pull verlai/verl:sgl055.latest
运行容器
bash
docker create --runtime=nvidia --gpus all --net=host --shm-size="10g" --cap-add=SYS_ADMIN -v .:/workspace/verl --name verl verlai/verl:vllm011.latest sleep infinity
docker start verl
docker exec -it verl bash
安装 verl

在容器内安装 verl:

bash
# 安装 nightly 版本(推荐)
git clone [***] && cd verl
pip3 install --no-deps -e .

# 或安装特定框架支持
pip3 install -e .[vllm]
pip3 install -e .[sglang]

支持的算法

verl 内置了多种强化学习算法,包括:

  • PPO (Proximal Policy Optimization)
  • GRPO (Group Relative Policy Optimization)
  • DAPO (Decoupled Clip and Dynamic Sampling Policy Optimization)
  • SPIN (Self-Play Fine-Tuning)
  • SPPO (Self-Play Preference Optimization)
  • OPO (On-Policy RL with Optimal Reward Baseline)

硬件支持

  • NVIDIA GPU: 完整支持 CUDA 12.8+,推荐使用 A100、H100 等高性能 GPU
  • AMD GPU: 支持 ROCm 6.2+,适用于 MI300 系列 GPU(使用 FSDP 训练后端)
  • Ascend: 支持华为昇腾设备

相关资源

  • 官方文档: [***]
  • GitHub 仓库: [***]
  • Docker Hub: [***]

许可证

verl 采用开源许可证,详情请参阅项目仓库。

相关 Docker 镜像推荐

以下是 verlai/verl 相关的常用 Docker 镜像,适用于 不同场景 等不同场景:

  • hiyouga/verl Docker 镜像说明
  • infiniflow/ragflow Docker 镜像说明(RAG 知识库系统)
  • langgenius/dify-api Docker 镜像说明(AI 应用开发框架)
  • elestio/lobe-chat Docker 镜像说明
  • lobehub/lobe-chat Docker 镜像说明(AI 聊天应用,支持多种模型)

镜像拉取方式

您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 版本下载页面。

国内拉取方式

docker pull docker.xuanyuan.run/verlai/verl:<标签>

使用方法:

  • 登录认证方式
  • 免认证方式

官方拉取方式

docker pull verlai/verl:<标签>

相关镜像推荐

hiyouga/verl logo
hiyouga/verl
by hiyouga
VolcEngine/verl 是火山引擎推出的强化学习框架,旨在提供高效、易用的强化学习开发与训练工具,支持多种经典及前沿算法,具备高性能计算与灵活扩展能力,助力开发者快速构建、训练和部署强化学习模型;hiyouga/EasyR1 则是一款轻量级强化学习工具库,专注于简化强化学习流程,通过直观的接口设计、丰富的示例代码及详尽文档,降低入门门槛,适合初学者快速上手及科研人员进行快速原型开发,为强化学习学习与应用提供便捷支持。
850K+ pulls
上次更新:3 个月前
whatcanyousee/verl logo
whatcanyousee/verl
by whatcanyousee
Docker镜像whatcanyousee/verl是一款轻量级日志分析与可视化工具,支持多格式日志解析、实时数据采集及异常告警,可快速部署于各类环境。集成直观仪表盘与数据导出功能,帮助开发与运维人员高效定位问题、监控系统状态,无需复杂配置即可启动使用,适用于中小型项目日志管理与实时监控场景。
10K+ pulls
上次更新:7 个月前
查看更多 verl 相关镜像

部署与使用文档

verl Docker 容器化部署手册

无论你是刚接触大模型工具的初学者,还是需要高效管理训练任务的高级工程师,本教程都将带你一步步完成 verlai/verl 镜像的 Docker 部署——从工具认知、环境搭建到多场景部署实践,每个步骤均配备完整命令与详细说明,确保照着做就能成。

阅读全文

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

登录仓库拉取

通过 Docker 登录认证访问私有仓库

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

Docker Compose

Docker Compose 项目配置

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

宝塔面板

在宝塔面板一键配置镜像

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

极空间

极空间 NAS 系统配置服务

爱快路由

爱快 iKuai 路由系统配置

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

专属域名拉取

无需登录使用专属域名

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像支持哪些镜像仓库?

专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
verlai/verl
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
提交工单
免费获取在线技术支持请 提交工单,官方QQ群:13763429 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
免费获取在线技术支持请提交工单,官方QQ群: 。
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.
轩辕镜像 官方专业版 Logo
轩辕镜像轩辕镜像官方专业版
首页个人中心搜索镜像
交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 13763429