Skip to content

Commit 6272cbd

Browse files
co63ocjerrywgzLokeZhou
authored
Update README.md (PaddlePaddle#422)
V100是16G和32G显存,没有40G显存 --------- Co-authored-by: wangguanzhong <jerrywgz@126.com> Co-authored-by: LokeZhou <aishenghuoaiqq@163.com>
1 parent a275a2a commit 6272cbd

File tree

1 file changed

+3
-3
lines changed

1 file changed

+3
-3
lines changed

paddlemix/examples/qwen_vl/README.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -87,7 +87,7 @@ prompt2:“框出图中公交车的位置”
8787

8888
## 4 模型微调
8989
我们提供 `finetune.py` 脚本,用于模型微调。模型微调支持全参数微调,以及lora微调。
90-
全参数微调需要A100 80G显存,lora微调支持V100 40G显存
90+
全参数微调需要A100 80G显存,lora微调支持V100 32G显存
9191

9292
### 4.1 数据准备
9393
将自己的数据放到一个列表中并存入json文件中,示例如下,或参考[sft_examples](https://bj.bcebos.com/v1/paddlenlp/models/community/qwen-vl/sft_examples.json)
@@ -148,7 +148,7 @@ prompt2:“框出图中公交车的位置”
148148
对话中的检测框可以表示为`<box>(x1,y1),(x2,y2)</box>`,其中 `(x1, y1)``(x2, y2)`分别对应左上角和右下角的坐标,并且被归一化到`[0, 1000)`的范围内. 检测框对应的文本描述也可以通过`<ref>text_caption</ref>`表示。
149149

150150
### 4.2 全参数训练
151-
训练时使用`paddlemix/examples/qwen_vl/finetune.py`程序进行训练,**训练前请先检查数据集路径,如果使用url,请确保环境网络正常**。需要使用A100 80G训练;若显存不足,可以使用V100 40G 进行lora微调。
151+
训练时使用`paddlemix/examples/qwen_vl/finetune.py`程序进行训练,**训练前请先检查数据集路径,如果使用url,请确保环境网络正常**。需要使用A100 80G训练;若显存不足,可以使用V100 32G 进行lora微调。
152152

153153
训练命令及参数配置示例:
154154
```
@@ -256,7 +256,7 @@ paddlemix/examples/qwen_vl/finetune.py \
256256
> 注:若不需要 sharding 策略,则无需指定tensor_parallel_degree、sharding_parallel_degree、sharding、pipeline_parallel_degree参数
257257
258258
### 4.3 lora微调
259-
lora微调需要v100 40G显存,训练后,需要使用[merge_lora_params.py](merge_lora_params.py)脚本将lora参数合并到主干模型中。
259+
lora微调需要V100 32G显存,训练后,需要使用[merge_lora_params.py](merge_lora_params.py)脚本将lora参数合并到主干模型中。
260260

261261
训练命令及参数配置示例:
262262
```

0 commit comments

Comments
 (0)