From 972d1059a1a7da00ce64d14843dfef922b051c7a Mon Sep 17 00:00:00 2001 From: WanRui37 <1446145652@qq.com> Date: Thu, 16 Oct 2025 16:11:19 +0800 Subject: [PATCH 1/3] v1: Simply fill in the RFC --- ..._FastDeploy_add_moe_groupgemm_int8_int8.md | 48 +++++++++++++++++++ 1 file changed, 48 insertions(+) create mode 100644 rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md diff --git a/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md b/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md new file mode 100644 index 000000000..5a7b805cc --- /dev/null +++ b/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md @@ -0,0 +1,48 @@ +# FastDeploy中的MoE GroupGEMM支持INT8*INT8实现 + +| 方案名称 | FastDeploy中的MoE GroupGEMM支持INT8*INT8实现 | +|----------------------------------------------------------|-------------------------------------------| +| 提交作者 | WanRui37 | +| 提交时间 | 2025-10-16 | +| 版本号 | V1.1 | +| 依赖飞桨版本 | paddlepaddle-gpu==3.2.0 | +| 文件名 | 20251016_FastDeploy_add_moe_groupgemm_int8_int8.md
| + +# 一、概述 +## 1、相关背景 +大规模模型在自然语言处理、计算机视觉等领域取得了显著成果。其中,混合专家模型(Mixture of Experts,MoE)作为一种高效的模型架构,通过将输入数据分配给不同的专家子网络进行处理,能够有效提升模型的性能和计算效率。在MoE模型的训练和推理过程中,GroupGEMM(Group General Matrix Multiply)操作是核心计算步骤 + +## 2、功能目标 +为FastDeploy 开发高性能 MoE算子(INT8*INT8),将上述算子集成到EB、Qwen等开源模型中。 + +## 3、意义 +支持INT8*INT8的MoE GroupGEMM实现能够充分利用硬件的整数计算单元,相较于高精度计算,大幅减少计算延迟,提高模型推理速度。 + +# 二、FastDeploy现状 +- 目前FastDeploy中MoE GroupGEMM没有支持INT8*INT8的实现 + +# 三、业内方案调研 +- 目前业内MoE GroupGEMM没有支持INT8*INT8的实现 + +# 四、设计思路与实现方案 +## 总体设计 + + + +# 五、测试和验收的考量 +- 增加算子测试 +- 在EB,Qwen开源模型上测试数据精度&性能 + +# 六、影响面 +为FastDeploy集成 SageAttn v2++,不影响其他部分 + +# 七、排期规划 +* 2025-10-16 ~ 2025-11-16:完成集成代码开发 +* 2025-11-16 ~ 2025-11-25:完成代码测试 +* 2025-11-25 ~ 2025-12-01: 完成部署示例及文档 + +# 八、参考资料 + +[Accelerating MoE's with a Triton Persistent Cache-Aware Grouped GEMM Kernel](https://pytorch.org/blog/accelerating-moes-with-a-triton-persistent-cache-aware-grouped-gemm-kernel/) + +[上述为 vllm 增加 BF16 Grouped GEMM Kernel 的 PR](https://github.com/vllm-project/vllm/pull/19443) \ No newline at end of file From 19a1c756eecd9b5e63a3615d3823e411a9167f18 Mon Sep 17 00:00:00 2001 From: WanRui37 <1446145652@qq.com> Date: Thu, 16 Oct 2025 21:41:38 +0800 Subject: [PATCH 2/3] v1: Simply fill in the RFC --- .../20251016_FastDeploy_add_moe_groupgemm_int8_int8.md | 4 +--- 1 file changed, 1 insertion(+), 3 deletions(-) diff --git a/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md b/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md index 5a7b805cc..2ec2fe701 100644 --- a/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md +++ b/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md @@ -25,9 +25,7 @@ - 目前业内MoE GroupGEMM没有支持INT8*INT8的实现 # 四、设计思路与实现方案 -## 总体设计 - - +参考 FastDeploy 其余算子实现,添加好INT8*INT8的MoE GroupGEMM实现。 # 五、测试和验收的考量 - 增加算子测试 From 5a34a4efc715baffe135aae592e66880173cf0c6 Mon Sep 17 00:00:00 2001 From: WanRui37 <1446145652@qq.com> Date: Thu, 16 Oct 2025 21:47:35 +0800 Subject: [PATCH 3/3] v1: Simply fill in the RFC --- .../20251016_FastDeploy_add_moe_groupgemm_int8_int8.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md b/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md index 2ec2fe701..7214d97e4 100644 --- a/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md +++ b/rfcs/FastDeploy/20251016_FastDeploy_add_moe_groupgemm_int8_int8.md @@ -19,20 +19,20 @@ 支持INT8*INT8的MoE GroupGEMM实现能够充分利用硬件的整数计算单元,相较于高精度计算,大幅减少计算延迟,提高模型推理速度。 # 二、FastDeploy现状 -- 目前FastDeploy中MoE GroupGEMM没有支持INT8*INT8的实现 +- 目前`FastDeploy`中`MoE GroupGEMM`没有支持`INT8*INT8`的实现 # 三、业内方案调研 -- 目前业内MoE GroupGEMM没有支持INT8*INT8的实现 +- 目前业内`MoE GroupGEMM`没有支持`INT8*INT8`的实现 # 四、设计思路与实现方案 -参考 FastDeploy 其余算子实现,添加好INT8*INT8的MoE GroupGEMM实现。 +参考`FastDeploy`其余算子实现,添加好`INT8*INT8`的`MoE GroupGEMM`实现。 # 五、测试和验收的考量 - 增加算子测试 - 在EB,Qwen开源模型上测试数据精度&性能 # 六、影响面 -为FastDeploy集成 SageAttn v2++,不影响其他部分 +为`FastDeploy`集成`MoE GroupGEMM`,不影响其他部分 # 七、排期规划 * 2025-10-16 ~ 2025-11-16:完成集成代码开发