Shortcuts

OpenRL 介绍

OpenRL 强化学习框架

OpenRL 是由第四范式强化学习团队开发的基于PyTorch的强化学习研究框架,它提供了一个简单易用的接口,可以让你方便地接入不同强化学习环境。 目前,OpenRL框架有以下特点:

  1. 简单易用的训练接口,降低研究人员的学习和使用成本。

  2. 同时支持 单智能体多智能体 算法。

  3. 支持 离线强化学习 (Offline RL)算法。

  4. 支持 自博弈 (Self-Play)训练。

  5. 支持 自然语言任务 (如对话任务)的强化学习训练。

  6. 支持 DeepSpeed 训练。

  7. 支持 竞技场 功能,可以在多智能体对抗性环境中方便地对各种智能体进行评测。支持对 及第平台 的提交进行本地测试。

  8. 支持 Hugging Face 上的模型导入。支持加载Hugging Face上 Stable-baselines3的模型 来进行测试和训练。

  9. 支持LSTM,GRU,Transformer等模型。

  10. 支持多种训练加速,例如:混合精度训练,半精度策略网络收集数据等。

  11. 支持 gymnasium 环境。

  12. 支持词典类型的观测输入。

  13. 支持 wandb (更多请查看 wandb知乎教程)和 tensorboardX 等主流机器学习训练可视化平台。

  14. 支持环境的串行和并行训练,同时保证两种模式下的训练效果一致。

  15. 提供代码覆盖测试和单元测试。

在接下来的 快速上手 中,我们将介绍如何安装OpenRL框架, 并通过简单的例子来说明如何使用OpenRL。

用户还可以在 Gallery 中查看OpenRL所支持的算法和环境,并获取对应的代码。

Citing OpenRL

如果我们的工作对你有帮助,欢迎引用我们:

@article{huang2023openrl,
    title={OpenRL: A Unified Reinforcement Learning Framework},
    author={Huang, Shiyu and Chen, Wentse and Sun, Yiwen and Bie, Fuqing and Tu, Wei-Wei},
    journal={arXiv preprint arXiv:2312.16189},
    year={2023}
}
Read the Docs v: latest
Versions
latest
stable
main
v0.0.13
v0.0.6
Downloads
On Read the Docs
Project Home
Builds

Free document hosting provided by Read the Docs.