Ray 2.7.2

  • 欢迎来到 Ray !

Ray

  • 概述「100%」
  • 入门
  • 安装「100%」
  • 用例「100%」
  • 示例库「1%」
  • 生态「3%」
  • Ray 核心「100%」
  • Ray 数据「75%」
  • Ray 训练「0%」
  • Ray 调参「0%」
  • Ray Serve
  • Ray RLlib
    • RLlib 入门
    • 关键概念
    • 环境
    • 算法
    • 用户指南
      • 高级 Python API
      • 模型、预处理器和动作分布
      • 保存和加载您的强化学习算法和策略
      • How To Customize Policies
      • 样本集合和轨迹视图
      • Replay Buffers
      • 使用离线数据
      • 目录 (Alpha)
      • 连接器 (Beta)
      • RL 模块 (Alpha)
      • Learner (Alpha)
      • Using RLlib with torch 2.x compile
      • 容错与弹性训练
      • 如何为 RLlib 做出贡献
      • 使用 RLlib CLI
    • 示例
    • Ray RLlib API
  • 更多类库「40%」
  • Ray 集群「100%」
  • 监控调试「100%」
  • 参考「20%」
  • 开发者指引「30%」
  • 安全「100%」
Theme by the Executable Book Project
  • repository
  • open issue
  • suggest edit
  • .rst
Contents
  • RLlib Feature Guides

用户指南

Contents

  • RLlib Feature Guides

Note

From Ray 2.6.0 onwards, RLlib is adopting a new stack for training and model customization, gradually replacing the ModelV2 API and some convoluted parts of Policy API with the RLModule API. Click here for details.

用户指南#

RLlib Feature Guides#

Advanced Features of the RLlib Python API

Working With Models, Preprocessors and Action Distributions

Checkpointing your Algorithms and Policies, and Exporting your Models

How To Customize Your Policies?

How To Use Sample Collections and Trajectory Views?

Working With Offline Data

Working with ReplayBuffers

How To Contribute To RLlib?

How To Work With the RLlib CLI?

How To Use the RLlib Catalogs

previous

算法

next

高级 Python API

谢谢你的反馈!
是否能帮助到你?
是
否
反馈
提交

By The Ray Team
© Copyright 2024, The Ray Team.