教程


DeepSpeed 混合量化 (MoQ)

DeepSpeed 引入了对使用量化进行模型压缩的新支持,称为混合量化 (MoQ)。MoQ 建立在 QAT (量化...) 之上。

安装详情

使用 pip 开始使用 DeepSpeed 的最快方法,这将安装 DeepSpeed 的最新版本,该版本与特定 PyTorch 或 CUDA 版本无关...

自动调优

自动发现提供良好训练速度的最佳 DeepSpeed 配置

DeepNVMe

本教程将展示如何使用 DeepNVMe 在持久存储和驻留在主机或设备内存中的张量之间进行数据传输。DeepNVMe 提高了 th...

DCGAN 教程

使用 DeepSpeed 训练您的第一个 GAN 模型!

入门

DeepSpeed 的第一步

Megatron-LM GPT2

如果您还没有,我们建议您在开始本教程之前先阅读入门指南。

混合精度 ZeRO++

混合精度 ZeRO++ (MixZ++) 是一组基于 ZeRO 和 ZeRO++ 的优化策略,旨在提高大型模型的效率并减少内存使用量...

用于 NLG 模型的混合专家

在本教程中,我们将介绍如何将 DeepSpeed 混合专家 (MoE) 应用于 NLG 模型,这将训练成本降低 5 倍,并将 MoE m...

混合专家

DeepSpeed v0.5 引入了对训练混合专家 (MoE) 模型的新支持。MoE 模型是一种新兴的稀疏激活模型,具有 s...

DeepSpeed 模型压缩库

什么是 DeepSpeed 压缩:DeepSpeed 压缩是一个专门构建的库,旨在让研究人员和从业人员轻松压缩模型,同时 ...

监控

实时监控模型的训练指标并记录以供将来分析

单周期调度

本教程展示了如何在 PyTorch 中为学习率和动量实现单周期调度。

流水线并行

DeepSpeed v0.3 包括对流水线并行的全新支持!流水线并行提高了深度学习训练的内存和计算效率 ...

DeepSpeed 稀疏注意力

在本教程中,我们将介绍如何使用 DeepSpeed 稀疏注意力 (SA) 及其构建块内核。使用 SA 的最简单方法是通过 DeepSpeed launch...

ZeRO-Offload

ZeRO-3 Offload 是我们新发布的 ZeRO-Infinity 中的一组功能。阅读我们的 ZeRO-Infinity 博客以了解更多信息!

ZeRO++

ZeRO++ 是建立在 ZeRO 之上的通信优化策略系统,无论规模如何,都能为大型模型训练提供无与伦比的效率...