Skip to content

[docs] 更新对昆仑芯的描述为正式名称的昆仑芯 #6684

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Merged
merged 1 commit into from
Jun 19, 2024
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
4 changes: 2 additions & 2 deletions docs/eval/evaluation_of_docs_system.md
Original file line number Diff line number Diff line change
Expand Up @@ -480,7 +480,7 @@ MindSpore 的有自己独立的文档分类标准和风格,所以硬套本文
- PyTorch-PaddlePaddle API 映射表
- 硬件支持
- 飞桨产品硬件支持表
- 昆仑 XPU 芯片运行飞桨
- 昆仑芯 XPU 芯片运行飞桨
- 海光 DCU 芯片运行飞桨
- 昇腾 NPU 芯片运行飞桨
- 参与开发
Expand Down Expand Up @@ -564,7 +564,7 @@ MindSpore 的有自己独立的文档分类标准和风格,所以硬套本文
| 自定义算子 | Tensors and operations Custom layers Custom traning: walkthrough Create an op Extension types | 5 | Double Backward with Custom Functions Fusing Convolution and Batch Norm using Custom Function Custom C++ and CUDA Extensions Extending TorchScript with Custom C++ Operators Extending TorchScript with Custom C++ Classes Registering a Dispatched Operator in C++ Extending dispatcher for a new backend in C++ | 7 | 算子分类 运算重载 自定义算子(CPU) 自定义算子(GPU) 自定义算子(Ascend) 自定义算子(基于 Custom 表达) | 6 | 自定义原生算子 原生算子开发注意事项 自定义外部算子 自定义 Python 算子 API 介绍 API 示例 本地开发指南 提交 PR 注意事项 FAQ | 9 |
| 分布式训练 | Distributed training with Kereas Distributed training with DTensors Using DTensors with Keras Custom training loops Multi-worker training with Keras Multi-worker training with CTL Parameter Server Training Distributed input Distributed training | 9 | PyTorch Distributed Overview Single-Machine Model Parallel Best PracticesGetting Started with Distributed Data Parallel Writing Distributed Applications with PyTorch Getting Started with Fully Sharded Data Prallel Customize Process Group Backends Using Cpp Extension Getting Started with Distributed RPC Framework Implementing a Parameter Server Using Distributed RPC Framework Distributed Pipeline Parallelsim using RPC Implementing Batch RPC Processing Using Asynchronous Executions Combining Distributed DataPrallel with Distributed RPC Framework Training Transformer models using Pipeline Parallelism Training Transformer models using Distributed Data Parallel and Pipeline Parallelism Distributed Training with Uneven Inputs Using the Join Context Manager | 16 | 分布式并行总览 分布式集合通信原语 分布式并行训练基础样例(Ascend) 分布式并行训练基础样例(GPU) 分布式推理 保存和加载模型(HyBrid Parallel 模式) 分布式并行训练 Transformer 模型 鹏程·盘古模型网络多维度混合并行解析 分布式故障恢复 | 9 | 单机多卡训练 分布式训练开始 使用 FleetAPI 进行分布式训练 | 3 |
| 框架设计文档 | Random number generation | 1 | 分散在 API 文档、源码中,其实比较丰富。30+ | 30+ | 设计白皮书 全场景统一 函数式微分编程 动静态图结合 异构并行训练 分布式并行 中间表达 MindIR 高性能数据处理引擎 图算融合加速引擎 二阶优化 可视化调试调优 安全可信 术语 | 13 | | 0 |
| 其它 | Integrated gradients Uncertainty quantification with SNGP Probabilistic regression Keras 一级标题下的 13 篇文章 Thinking in TensorFlow 2 Data input pipelines 一级标题下的 3 篇 GPU TPU | 20 | Learn the Basics Quickstart Deep Learning with PyTorch: A 60 Minute Blitz Building a Convolution/Batch Norm fuser in FX Building a Simple CPU Performance Profiler with FX Channels Last Memory Format in PyTorch Forward-mode Automatic Differentiation Using the PyTorch C++ Frontend Dynamic Parallelism in TorchScript Autograd in C++ Frontend Static Quantization with Eager Model in PyTorch | 11 | 基本介绍 快速入门 进阶案例:线性拟合 混合精度 梯度累积算法 自适应梯度求和算法 降维训练算法 | 7 | 10 分钟快速上手飞桨 使用线性回归预测波士顿房价 模型导出 ONNX 协议 飞桨产品硬件支持表 昆仑 XPU 芯片运行飞桨 海光 DCU 芯片运行飞桨 昇腾 NPU 芯片运行飞桨 环境变量 FLAGS 下 9 篇 hello paddle:从普通程序走向机器学习程序 通过 AutoEncoder 实现时序数据异常检测 广播介绍 自动混合精度训练 梯度裁剪 升级指南 | 20+ |
| 其它 | Integrated gradients Uncertainty quantification with SNGP Probabilistic regression Keras 一级标题下的 13 篇文章 Thinking in TensorFlow 2 Data input pipelines 一级标题下的 3 篇 GPU TPU | 20 | Learn the Basics Quickstart Deep Learning with PyTorch: A 60 Minute Blitz Building a Convolution/Batch Norm fuser in FX Building a Simple CPU Performance Profiler with FX Channels Last Memory Format in PyTorch Forward-mode Automatic Differentiation Using the PyTorch C++ Frontend Dynamic Parallelism in TorchScript Autograd in C++ Frontend Static Quantization with Eager Model in PyTorch | 11 | 基本介绍 快速入门 进阶案例:线性拟合 混合精度 梯度累积算法 自适应梯度求和算法 降维训练算法 | 7 | 10 分钟快速上手飞桨 使用线性回归预测波士顿房价 模型导出 ONNX 协议 飞桨产品硬件支持表 昆仑芯 XPU 芯片运行飞桨 海光 DCU 芯片运行飞桨 昇腾 NPU 芯片运行飞桨 环境变量 FLAGS 下 9 篇 hello paddle:从普通程序走向机器学习程序 通过 AutoEncoder 实现时序数据异常检测 广播介绍 自动混合精度训练 梯度裁剪 升级指南 | 20+ |

可以看除,PaddlePaddle 在文档上是比较完备的,在本文划分的 19 个具体领域中的 17 个领域中都已有文档,包括:

Expand Down
2 changes: 1 addition & 1 deletion docs/guides/06_distributed_training/deployment_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -12,7 +12,7 @@ PaddlePaddle 分布式对不同系统和硬件的支持情况如下表所示,
* -
- CPU
- GPU
- 昆仑 XPU
- 昆仑芯 XPU
- 海光 DCU
- 昇腾 NPU
* - Linux
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -86,7 +86,7 @@ RPC&NCCL 混合通信可以将部分稀疏参数采用 RPC 协议跨节点通信
1. 定制化 GPU 机型,调整机器内 CPU 与 GPU 的硬件配比。
2. 混布 CPU 和 GPU 机器节点,来调整机器间的硬件配比。

基于这两种解决方案,飞桨框架 2.0 版本创新性地推出了通用异构参数服务器功能(HeterPS)。一举解除了传统参数服务器模式下,Worker 节点必须严格使用同一种硬件型号的枷锁,使训练任务对硬件型号不敏感,即可以同时使用不同的硬件混合异构训练,如 CPU、AI 专用芯片(如百度昆仑 XPU)以及不同型号的 GPU 如 v100、P40、K40 等。同时还可以解决大规模稀疏特征模型训练场景下 IO 占比过高导致的芯片资源利用率过低的问题。通过异构参数服务器训练模式,用户可以在硬件异构集群中部署分布式训练任务,例如云服务器集群,高效利用不同算力芯片,为用户提供更高吞吐、更低资源消耗的训练能力。
基于这两种解决方案,飞桨框架 2.0 版本创新性地推出了通用异构参数服务器功能(HeterPS)。一举解除了传统参数服务器模式下,Worker 节点必须严格使用同一种硬件型号的枷锁,使训练任务对硬件型号不敏感,即可以同时使用不同的硬件混合异构训练,如 CPU、AI 专用芯片(如百度昆仑芯 XPU)以及不同型号的 GPU 如 v100、P40、K40 等。同时还可以解决大规模稀疏特征模型训练场景下 IO 占比过高导致的芯片资源利用率过低的问题。通过异构参数服务器训练模式,用户可以在硬件异构集群中部署分布式训练任务,例如云服务器集群,高效利用不同算力芯片,为用户提供更高吞吐、更低资源消耗的训练能力。

.. image:: ../images/heterps.jpeg
:width: 600
Expand Down
2 changes: 1 addition & 1 deletion docs/guides/beginner/train_eval_predict_cn.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -111,7 +111,7 @@
"\n",
"> 注:\n",
"> * 本文仅以单机单卡场景为例,介绍模型训练的方法,如果需要使用单机多卡、多机多卡训练,请参考如下章节:[分布式训练](../06_distributed_training/index_cn.html)。\n",
"> * 飞桨框架除了支持在 CPU、GPU 上训练,还支持在百度昆仑 XPU、华为昇腾 NPU 等 AI 计算处理器上训练,对应的训练指导请参考 [硬件支持](../hardware_support/index_cn.html) 章节。\n"
"> * 飞桨框架除了支持在 CPU、GPU 上训练,还支持在百度昆仑芯 XPU、华为昇腾 NPU 等 AI 计算处理器上训练,对应的训练指导请参考 [硬件支持](../hardware_support/index_cn.html) 章节。\n"
]
},
{
Expand Down
6 changes: 3 additions & 3 deletions docs/guides/hardware_support/hardware_info_cn.md
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@
| 服务端 GPU | | NVIDIA | Ada Lovelace、Hopper、 Ampere、Turing、 Volta 架构 | [安装](https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/pip/linux-pip.html) | [源码编译](https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/compile/linux-compile.html) | ✔️ | |
| AI 加速芯片 | 达芬奇 | 华为 | 昇腾 910 系列 | [安装](./npu/install_cn.html#wheel) | [源码编译](./npu/install_cn.html) | | ✔️ |
| AI 加速芯片 | GPGPU | 海光 | 海光 Z100 系列 | [安装](./dcu/install_cn.html#wheel) | [源码编译](./dcu/install_cn.html) | | [支持模型](./dcu/support_cn.html) |
| AI 加速芯片 | XPU | 百度 | 昆仑 R200、R300 等 | [安装](./xpu/install_cn.html#wheel) | [源码编译](./xpu/install_cn.html#xpu) | | [支持模型](./xpu/support_cn.html) |
| AI 加速芯片 | XPU | 百度 | 昆仑芯 R200、R300 等 | [安装](./xpu/install_cn.html#wheel) | [源码编译](./xpu/install_cn.html#xpu) | | [支持模型](./xpu/support_cn.html) |
| AI 加速芯片 | IPU | Graphcore | GC200 | | | | ✔️ |
| AI 加速芯片 | MLU | 寒武纪 | MLU370 系列 | [安装](./mlu/install_cn.html#wheel) | [源码编译](./mlu/install_cn.html) | | [支持模型](./mlu/support_cn.html) |
| AI 加速芯片 | | 天数智芯 | 天垓 100 | [安装](https://gitee.com/deep-spark/deepsparkhub/blob/master/docker/Iluvatar/README.md) || | | ✔️ |
Expand All @@ -29,7 +29,7 @@
| AI 加速芯片 | MLU | 寒武纪 | MLU370 系列 | | [源码编译](./mlu/install_cn.html) | | ✔️ |
| AI 加速芯片 | MUSA | 摩尔线程 | MTT S 系列 GPU | | | | |
| AI 加速芯片 | GPGPU | 海光 | 海光 Z100 系列 | | [源码编译](https://www.paddlepaddle.org.cn/inference/master/guides/hardware_support/dcu_hygon_cn.html) | | [支持模型](./dcu/support_cn.html) |
| AI 加速芯片 | XPU | 百度 | 昆仑 R200、R300 等 | | [源码编译](https://www.paddlepaddle.org.cn/inference/master/guides/hardware_support/xpu_kunlun_cn.html) | | [支持模型](./xpu/support_cn.html) |
| AI 加速芯片 | XPU | 百度 | 昆仑芯 R200、R300 等 | | [源码编译](https://www.paddlepaddle.org.cn/inference/master/guides/hardware_support/xpu_kunlun_cn.html) | | [支持模型](./xpu/support_cn.html) |
| 服务端 CPU | ARM | 飞腾 | FT-2000+/64、S2500 | |[源码编译](../../install/compile/arm-compile.html#anchor-1) | | |
| 服务端 CPU | ARM | 华为 | 鲲鹏 920 2426SK | |[源码编译](../../install/compile/arm-compile.html) | | |
| 服务端 CPU | MIPS | 龙芯 | 龙芯 3A4000、3A5000、3C5000L | |[源码编译](../../install/compile/mips-compile.html#anchor-0) | | |
Expand All @@ -49,7 +49,7 @@
| AI 加速芯片 | | 瑞芯微 | RK18xx 系列 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/rockchip_npu.html#id5) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/rockchip_npu.html#id1) |
| AI 加速芯片 | | 联发科 | NeuroPilot APU | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/mediatek_apu.html#id1) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/mediatek_apu.html#id1) |
| AI 加速芯片 | | Imagination | PowerVR 2NX | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/huawei_kirin_npu.html#id5) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/huawei_kirin_npu.html#id1) |
| AI 加速芯片 | | 百度 | 昆仑 R200、R300 等 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id4) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id1) |
| AI 加速芯片 | | 百度 | 昆仑芯 R200、R300 等 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id4) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id1) |
| AI 加速芯片 | | 寒武纪 | 思元系列芯片 | | [源码编译](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/cambricon_mlu.html#cankaoshiliyanshi) | | [支持模型](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/cambricon_mlu.html#paddle) |
| AI 加速芯片 | | 比特大陆 | 算丰 BM16 系列芯片 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/bitmain.html#id5) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/bitmain.html#id1) |
| AI 加速芯片 | | 紫光展锐 | T820 | | [源码编译](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/android_nnapi.html#android-nnapi-paddle-lite) | | [支持模型](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/android_nnapi.html#paddle) |
Expand Down
2 changes: 1 addition & 1 deletion docs/guides/hardware_support/index_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,7 @@
你可以通过以下内容,了解飞桨框架硬件支持相关的内容:

- `飞桨硬件支持 <./hardware_info_cn.html>`_ : 说明飞桨产品支持的硬件。
- `昆仑 XPU 芯片运行飞桨 <./xpu/index_cn.html>`_ : 介绍如何在昆仑 XPU 芯片环境上安装和使用飞桨。
- `昆仑芯 XPU 芯片运行飞桨 <./xpu/index_cn.html>`_ : 介绍如何在昆仑芯 XPU 芯片环境上安装和使用飞桨。
- `海光 DCU 芯片运行飞桨 <./dcu/index_cn.html>`_ : 介绍如何在海光 DCU 芯片环境上安装和使用飞桨。
- `昇腾 NPU 芯片运行飞桨 <./npu/index_cn.html>`_ : 介绍如何在昇腾 NPU 芯片环境上安装和使用飞桨。
- `寒武纪 MLU 芯片运行飞桨 <./mlu/index_cn.html>`_ : 介绍如何在寒武纪 MLU 芯片环境上安装和使用飞桨。
Expand Down
8 changes: 4 additions & 4 deletions docs/guides/hardware_support/xpu/example_cn.md
Original file line number Diff line number Diff line change
@@ -1,10 +1,10 @@
# 昆仑 XPU 运行示例
# 昆仑芯 XPU 运行示例

**预先要求**:请先根据文档 [昆仑 XPU 安装说明](./install_cn.html) 准备昆仑 XPU 运行环境,建议以下步骤都在 docker 环境中运行。
**预先要求**:请先根据文档 [昆仑芯 XPU 安装说明](./install_cn.html) 准备昆仑芯 XPU 运行环境,建议以下步骤都在 docker 环境中运行。

## 训练示例

以 [ResNet50_vd](https://github.com/PaddlePaddle/PaddleClas/blob/release/2.5/docs/zh_CN/quick_start/quick_start_classification_new_user.md) 模型为例,介绍如何使用昆仑 XPU 进行训练。
以 [ResNet50_vd](https://github.com/PaddlePaddle/PaddleClas/blob/release/2.5/docs/zh_CN/quick_start/quick_start_classification_new_user.md) 模型为例,介绍如何使用昆仑芯 XPU 进行训练。

### 一、下载套件代码

Expand Down Expand Up @@ -65,7 +65,7 @@ python tools/eval.py -c ./ppcls/configs/quick_start/ResNet50_vd.yaml \

## 推理示例

以 [ResNet50](https://paddle-inference-dist.bj.bcebos.com/Paddle-Inference-Demo/resnet50.tgz) 模型为例,介绍如何使用昆仑 XPU 进行推理。
以 [ResNet50](https://paddle-inference-dist.bj.bcebos.com/Paddle-Inference-Demo/resnet50.tgz) 模型为例,介绍如何使用昆仑芯 XPU 进行推理。

### 一、下载推理程序

Expand Down
12 changes: 6 additions & 6 deletions docs/guides/hardware_support/xpu/index_cn.rst
Original file line number Diff line number Diff line change
@@ -1,16 +1,16 @@
.. _cn_xpu_information:

####################
昆仑 XPU 芯片
昆仑芯 XPU 芯片
####################

百度昆仑 AI 计算处理器(Baidu KUNLUN AI Computing Processor)是百度集十年 AI 产业技术实践于 2019 年推出的全功能 AI 芯片。基于自主研发的先进 XPU 架构,为云端和边缘端的人工智能业务而设计。 百度昆仑与飞桨及其他国产软硬件强强组合,打造一个全面领先的国产化 AI 技术生态,部署和应用于诸多 “人工智能+“的行业领域,包括智能云和高性能计算,智慧制造、智慧城市和安防等。更多昆仑 XPU 芯片详情及技术指标请 `点击这里 <https://www.kunlunxin.com/>`_ 。
百度昆仑芯 AI 计算处理器(Baidu KUNLUN AI Computing Processor)是百度集十年 AI 产业技术实践于 2019 年推出的全功能 AI 芯片。基于自主研发的先进 XPU 架构,为云端和边缘端的人工智能业务而设计。 百度昆仑芯与飞桨及其他国产软硬件强强组合,打造一个全面领先的国产化 AI 技术生态,部署和应用于诸多 “人工智能+“的行业领域,包括智能云和高性能计算,智慧制造、智慧城市和安防等。更多昆仑芯 XPU 芯片详情及技术指标请 `点击这里 <https://www.kunlunxin.com/>`_ 。

飞桨框架支持基于昆仑 XPU 芯片的训练和推理,请参考以下内容快速体验:
飞桨框架支持基于昆仑芯 XPU 芯片的训练和推理,请参考以下内容快速体验:

- `昆仑 XPU 安装说明 <./install_cn.html>`_ : 昆仑 XPU 安装说明
- `昆仑 XPU 运行示例 <./example_cn.html>`_ : 昆仑 XPU 运行示例
- `昆仑 XPU 支持模型 <./support_cn.html>`_ : 昆仑 XPU 支持模型
- `昆仑芯 XPU 安装说明 <./install_cn.html>`_ : 昆仑芯 XPU 安装说明
- `昆仑芯 XPU 运行示例 <./example_cn.html>`_ : 昆仑芯 XPU 运行示例
- `昆仑芯 XPU 支持模型 <./support_cn.html>`_ : 昆仑芯 XPU 支持模型

.. toctree::
:hidden:
Expand Down
12 changes: 6 additions & 6 deletions docs/guides/hardware_support/xpu/install_cn.md
Original file line number Diff line number Diff line change
@@ -1,20 +1,20 @@
# 昆仑 XPU 安装说明
# 昆仑芯 XPU 安装说明

飞桨框架 XPU 版支持昆仑芯 XPU 的训练和推理,提供两种安装方式:

1. 通过飞桨官网发布的 wheel 包安装
2. 通过源代码编译安装得到 wheel 包

## 昆仑 XPU 系统要求
## 昆仑芯 XPU 系统要求

| 要求类型 | 要求内容 |
| --------- | -------- |
| 芯片型号 | 昆仑芯 2 代,包括 R200、R300、R200-8F、R200-8FS、RG800 |
| 芯片型号 | 昆仑芯 2 代,包括 R200、R300、R200-8F、RG800 |
| 操作系统 | Linux 操作系统,包括 Ubuntu、CentOS、KylinV10 |

## 运行环境准备

推荐使用飞桨官方发布的昆仑 XPU 开发镜像,该镜像预装有昆仑基础运行环境库(XRE)。
推荐使用飞桨官方发布的昆仑芯 XPU 开发镜像,该镜像预装有昆仑芯基础运行环境库(XRE)。

```bash
# 拉取镜像
Expand All @@ -26,7 +26,7 @@ docker run -it --name paddle-xpu-dev -v $(pwd):/work \
--cap-add=SYS_PTRACE --security-opt seccomp=unconfined \
registry.baidubce.com/device/paddle-xpu:ubuntu20-x86_64-gcc84-py310 /bin/bash

# 检查容器内是否可以正常识别昆仑 XPU 设备
# 检查容器内是否可以正常识别昆仑芯 XPU 设备
xpu_smi

# 预期得到输出如下
Expand Down Expand Up @@ -55,7 +55,7 @@ Driver Version: 4.0

## 安装飞桨框架

**注意**:当前飞桨 develop 分支仅支持 X86 架构,如需昆仑 XPU 的 ARM 架构支持,请切换到 [release/2.6](https://www.paddlepaddle.org.cn/documentation/docs/zh/2.6/guides/hardware_support/xpu/install_cn.html) 分支。
**注意**:当前飞桨 develop 分支仅支持 X86 架构,如需昆仑芯 XPU 的 ARM 架构支持,请切换到 [release/2.6](https://www.paddlepaddle.org.cn/documentation/docs/zh/2.6/guides/hardware_support/xpu/install_cn.html) 分支。

### 安装方式一:wheel 包安装

Expand Down
2 changes: 1 addition & 1 deletion docs/guides/hardware_support/xpu/support_cn.md
Original file line number Diff line number Diff line change
@@ -1,4 +1,4 @@
# 昆仑 XPU 支持模型
# 昆仑芯 XPU 支持模型

飞桨框架在昆仑芯 XPU 上经验证的模型的支持情况如下:

Expand Down
2 changes: 1 addition & 1 deletion docs/guides/infer/inference/inference_cn.md
Original file line number Diff line number Diff line change
Expand Up @@ -56,7 +56,7 @@ PaddleSlim 是飞桨深度学习模型压缩工具,Paddle Inference 可联动

### 主流软硬件环境兼容适配

支持服务器端 X86 CPU、NVIDIA GPU 芯片,兼容 Linux/Mac/Windows 系统,同时对飞腾、鲲鹏、曙光、昆仑等国产 CPU/NPU 进行适配。。支持所有飞桨训练产出的模型,完全做到即训即用。
支持服务器端 X86 CPU、NVIDIA GPU 芯片,兼容 Linux/Mac/Windows 系统,同时对飞腾、鲲鹏、曙光、昆仑芯等国产 CPU/NPU 进行适配。。支持所有飞桨训练产出的模型,完全做到即训即用。

### 主流、国产操作系统全适配

Expand Down
Loading