为什么选择 Ray?
AI 面临的挑战
AI 每时每刻都在变得更加复杂,新的数据模态、模型、框架和加速器层出不穷。如果基础设施无效,团队将面临漫长的上线时间、资源利用不足以及成本激增的问题。为了实现真正的投资回报并克服 AI 复杂性壁垒,团队需要一个能够支持跨 AI、ML 和 Gen AI 等任何工作负载的引擎。
介绍
AI 计算引擎
要解决 AI 复杂性壁垒,你需要一个 AI 计算引擎:Ray。Ray 可以
适用于任何 AI 工作负载的计算引擎
Ray 是 Python 原生引擎,由开发者为开发者打造。
并行 Python 代码
Ray 是 Python 原生引擎。可扩展和分发任何 Python 代码,用于模拟、回测等用例。
多模态数据处理
处理结构化和非结构化数据,包括图像、视频、音频等。
模型训练
通过一行代码,大规模运行分布式训练,包括生成式 AI 基础模型、时间序列模型以及 XGBoost 等传统 AI / ML 模型。 当然,它与您选择的框架兼容。
模型服务
部署模型和业务逻辑——而非实例。Ray Serve 提供独立扩展和部分资源,让您充分利用部署的模型。支持任何 ML 模型——从 LLMs 到稳定扩散模型,再到目标检测模型等等。
批量推理
利用异构计算简化离线批量推理工作流。在同一流水线中使用 CPU 和 GPU,提高利用率,充分利用 GPU,降低成本。
强化学习
运行一流的强化学习工作流。Ray RLlib 支持生产级别、高度分布式的强化学习工作负载,同时为各种行业应用维护统一且简单的 API。
生成式 AI
使用 Ray 构建端到端生成式 AI 工作流。Ray 支持多模态模型、RAG 应用等。
LLM 推理
使用 Ray 无缝扩展服务大型语言模型。Ray 灵活支持任何加速器、任何模型,并结合无缝扩展,专为 LLM 推理(在线和批量)而打造。
LLM 微调
基于 ChatGPT 背后的框架,轻松大规模微调大型语言模型。
Ray 的关键概念
Ray 是 AI 计算引擎,旨在为您的 AI 平台提供动力,并在任何规模下优化任何工作负载。
Anyscale 是 Ray 的完善版本
立即试用 Anyscale。
(任何)规模下的真实成果
了解行业领导者如何利用 Ray 加速其 AI 运营并实现变革性成果。
开源且面向未来
Ray 拥有不断壮大的开源社区支持,为当今的 AI 领导者提供动力,同时为未来的 AI 创新发展演进。
4 万+
GitHub 仓库下载量
3.48 万
社区星标数
1000+
贡献者
“你可以用函数和类描述的任何东西——这几乎是你编写的每一个应用程序——都可以用 Ray 分布式处理。"
Patrick Ames首席工程师
“从我的角度来看,[Ray] 简直是魔法。"
Thierry Steenberghs首席软件工程师

获取专家帮助
获取创建 Ray 的团队提供的实践培训和专家支持。
Anyscale 是一个专为 Ray 设计的完全托管式 AI 平台,由 Ray 的创建者打造。您将获得 Ray 的所有优势以及更多好处,包括企业级治理、先进的开发者工具和专家支持。联系我们,了解如何与 Anyscale 团队合作开发、调试和优化您的 Ray 应用案例。
注册
立即开始使用
Anyscale 是运行 Ray 的最佳平台。借助 Ray 和 Anyscale 加速您的 Ray 之旅,将您的团队转型为 AI 团队。
使用 Anyscale 提升您的 AI 平台
准备好真正投资 AI 了吗?了解为何 Anyscale 成为全球最智能的 AI/ML 平台领导者的首选。
Ray Slack 社区
在 Ray Community Slack 上加入讨论,与 AI 从业者交流。
在 Anyscale 上试用 Ray
通过这个由 Ray 创建者打造的唯一完全托管、一体化平台,开始运行 Ray。