Skip to content

Commit 5830039

Browse files
TCChenlongLigoml
andauthored
fix api docs stype (#4426)
* fix api docs stype * Update DataParallel_cn.rst * Update Model_cn.rst * Update add_n_cn.rst * Update addmm_cn.rst * Update GradScaler_cn.rst * Update auto_cast_cn.rst * Update decorate_cn.rst * Update asin_cn.rst * Update atan_cn.rst * Update PyLayerContext_cn.rst * Update PyLayer_cn.rst * Update bincount_cn.rst * Update cast_cn.rst * Update ceil_cn.rst * Update Event_cn.rst * Update Model_cn.rst * Update GradScaler_cn.rst * Update zeros_cn.rst * Update DataParallel_cn.rst * Update where_cn.rst * Update Tensor_cn.rst * Update cudnn_cn.rst * Update show_cn.rst * Update PyLayerContext_cn.rst * Update cuda_cn.rst * Update PyLayer_cn.rst * Update uniform_cn.rst * Update transpose_cn.rst * Update Callback_cn.rst * Update trace_cn.rst * Update clip_cn.rst * Update tolist_cn.rst * Update Event_cn.rst * Update Stream_cn.rst * Update current_stream_cn.rst * Update synchronize_cn.rst * Update is_compiled_with_cuda_cn.rst * Update is_compiled_with_npu_cn.rst * Update is_compiled_with_rocm_cn.rst * Update is_compiled_with_xpu_cn.rst * Update set_device_cn.rst * Update diff_cn.rst * Update dist_cn.rst * Update Fleet_cn.rst * Update UtilBase_cn.rst * Update Categorical_cn.rst * Update empty_cn.rst * Update empty_like_cn.rst * Update equal_all_cn.rst * Update equal_cn.rst * Update erf_cn.rst * Update erf_cn.rst * Update exp_cn.rst * Update eye_cn.rst * Update flatten_cn.rst * Update floor_cn.rst * Update full_cn.rst * Update full_like_cn.rst * Update gather_cn.rst * update docs * update docs * update docs * update docs * update docs * Update Categorical_cn.rst * Update Normal_cn.rst * Update Uniform_cn.rst * Update gather_nd_cn.rst * Update get_cuda_rng_state_cn.rst * Update get_default_dtype_cn.rst * Update get_flags_cn.rst * Update grad_cn.rst * Update grad_cn.rst * Update greater_equal_cn.rst * Update histogram_cn.rst * Update in_dynamic_mode_cn.rst * Update increment_cn.rst * Update LookAhead_cn.rst * Update LookAhead_cn.rst * Update ModelAverage_cn.rst * update jit docs * update jit docs_2 * update linalg docs * update metric docs * Update AdamW_cn.rst * update onnx&optimizer docs * update profiler&regularizer docs * update signal docs * update static docs * update text&utils&version docs * update vision docs * update vision docs * update nn.* docs * update nn.functional docs * Update AdamW_cn.rst * Update AdamW_cn.rst * Update conv2d_transpose_cn.rst * Update Categorical_cn.rst * Update Adagrad_cn.rst * Update cov_cn.rst * Update eigh_cn.rst * update linalg docs * update docs * Update AdamW_cn.rst * Update Adadelta_cn.rst * Update RMSProp_cn.rst Co-authored-by: Ligoml <39876205+Ligoml@users.noreply.github.com> Co-authored-by: Ligoml <limengliu@tiaozhan.com>
1 parent 95dab8f commit 5830039

File tree

876 files changed

+10198
-5403
lines changed

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

876 files changed

+10198
-5403
lines changed

docs/api/paddle/CPUPlace_cn.rst

+2-1
Original file line numberDiff line numberDiff line change
@@ -10,7 +10,8 @@ CPUPlace
1010
1111
``CPUPlace`` 是一个设备描述符,指定 ``CPUPlace`` 则 ``Tensor`` 将被自动分配在该设备上,并且模型将会运行在该设备上。
1212

13-
**代码示例**
13+
代码示例
14+
::::::::::::
1415

1516
.. code-block:: python
1617

docs/api/paddle/CUDAPinnedPlace_cn.rst

+2-1
Original file line numberDiff line numberDiff line change
@@ -11,7 +11,8 @@ CUDAPinnedPlace
1111
``CUDAPinnedPlace`` 是一个设备描述符,它所指代的页锁定内存由 CUDA 函数 ``cudaHostAlloc()`` 在主机内存上分配,主机的操作系统将不会对这块内存进行分页和交换操作,可以通过直接内存访问技术访问,加速主机和 GPU 之间的数据拷贝。
1212
有关 CUDA 的数据转移和 ``pinned memory``,参见 `官方文档 <https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html#pinned-memory>`_ 。
1313

14-
**代码示例**
14+
代码示例
15+
::::::::::::
1516

1617
.. code-block:: python
1718

docs/api/paddle/CUDAPlace_cn.rst

+5-2
Original file line numberDiff line numberDiff line change
@@ -16,10 +16,13 @@ CUDAPlace
1616
可以通过 ``CUDA_VISIBLE_DEVICES`` 环境变量限制程序能够使用的 GPU 设备,程序启动时会遍历当前的可见设备,并从 0 开始为这些设备编号。
1717
如果没有设置 ``CUDA_VISIBLE_DEVICES``,则默认所有的设备都是可见的,此时逻辑编号与实际编号是相同的。
1818

19-
参数:
19+
参数
20+
::::::::::::
21+
2022
- **id** (int,可选) - GPU的设备ID。如果为 ``None``,则默认会使用 id 为 0 的设备。默认值为 ``None``。
2123

22-
**代码示例**
24+
代码示例
25+
::::::::::::
2326

2427
.. code-block:: python
2528

docs/api/paddle/DataParallel_cn.rst

+29-14
Original file line numberDiff line numberDiff line change
@@ -22,58 +22,73 @@ DataParallel
2222

2323
其中 ``demo.py`` 脚本的代码可以是下面的示例代码。
2424

25-
参数:
25+
参数
26+
::::::::::::
27+
2628
- **Layer** (Layer) - 需要通过数据并行方式执行的模型。
2729
- **strategy** (ParallelStrategy,可选) - (deprecated) 数据并行的策略,包括并行执行的环境配置。默认为None。
2830
- **comm_buffer_size** (int,可选) - 它是通信调用(如NCCLAllReduce)时,参数梯度聚合为一组的内存大小(MB)。默认值:25。
2931
- **last_comm_buffer_size** (float,可选)它限制通信调用中最后一个缓冲区的内存大小(MB)。减小最后一个通信缓冲区的大小有助于提高性能。默认值:1。默认值:1
3032
- **find_unused_parameters** (bool, 可选) 是否在模型forward函数的返回值的所有张量中,遍历整个向后图。对于不包括在loss计算中的参数,其梯度将被预先标记为ready状态用于后续多卡间的规约操作。请注意,模型参数的所有正向输出必须参与loss的计算以及后续的梯度计算。 否则,将发生严重错误。请注意,将find_unused_parameters设置为True会影响计算性能, 因此,如果确定所有参数都参与了loss计算和自动反向图的构建,请将其设置为False。默认值:False。
3133

32-
返回:支持数据并行的 ``Layer``
33-
34-
返回类型:Layer实例
34+
返回
35+
::::::::::::
36+
支持数据并行的 ``Layer``。
3537

36-
**代码示例**:
38+
代码示例
39+
::::::::::::
3740
COPY-FROM: paddle.DataParallel:dp-example
3841

3942
.. Note::
4043
目前数据并行不支持PyLayer自定义算子。如有此类需求,推荐先使用no_sync接口暂停多卡通信,然后在优化器前手动实现梯度同步;具体实现过程可参考下述示例。
4144

42-
**代码示例**:
45+
代码示例
46+
::::::::::::
4347
COPY-FROM: paddle.DataParallel:dp-pylayer-example
4448

4549
.. py:function:: no_sync()
4650
4751
用于暂停梯度同步的上下文管理器。在no_sync()中参数梯度只会在模型上累加;直到with之外的第一个forward-backward,梯度才会被同步。
4852

49-
**代码示例**
53+
代码示例
54+
::::::::::::
5055

5156
COPY-FROM: paddle.DataParallel.no_sync
5257

53-
.. py:method:: state_dict(destination=None, include_sublayers=True)
58+
方法
59+
::::::::::::
60+
state_dict(destination=None, include_sublayers=True)
61+
'''''''''
5462

5563
获取当前层及其子层的所有parameters和持久的buffers。并将所有parameters和buffers存放在dict结构中。
5664

57-
参数:
65+
**参数**
66+
5867
- **destination** (dict, 可选) - 如果提供 ``destination`` ,则所有参数和持久的buffers都将存放在 ``destination`` 中。 默认值:None。
5968
- **include_sublayers** (bool, 可选) - 如果设置为True,则包括子层的参数和buffers。默认值:True。
6069

61-
返回:dict, 包含所有parameters和持久的buffers的dict
70+
**返回**
71+
dict, 包含所有parameters和持久的buffers的dict。
6272

6373
**代码示例**
74+
6475
COPY-FROM: paddle.DataParallel.state_dict
6576

6677

67-
.. py:method:: set_state_dict(state_dict, use_structured_name=True)
78+
set_state_dict(state_dict, use_structured_name=True)
79+
'''''''''
6880

6981
根据传入的 ``state_dict`` 设置parameters和持久的buffers。 所有parameters和buffers将由 ``state_dict`` 中的 ``Tensor`` 设置。
7082

71-
参数:
83+
**参数**
84+
7285
- **state_dict** (dict) - 包含所有parameters和可持久性buffers的dict。
7386
- **use_structured_name** (bool, 可选) - 如果设置为True,将使用Layer的结构性变量名作为dict的key,否则将使用Parameter或者Buffer的变量名作为key。默认值:True。
7487

75-
返回:无
88+
89+
**返回**
90+
7691

7792
**代码示例**
7893

79-
COPY-FROM: paddle.DataParallel.set_state_dict
94+
COPY-FROM: paddle.DataParallel.set_state_dict

docs/api/paddle/Model_cn.rst

+66-32
Original file line numberDiff line numberDiff line change
@@ -99,14 +99,18 @@ train_batch(inputs, labels=None)
9999

100100
在一个批次的数据上进行训练。
101101

102-
参数:
102+
**参数**
103+
103104
- **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray``。
104105
- **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。
105106

106-
返回:如果没有定义评估函数,则返回包含了训练损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。
107+
**返回**
108+
109+
如果没有定义评估函数,则返回包含了训练损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。
107110

108111

109-
**代码示例**:
112+
**代码示例**
113+
110114

111115
.. code-block:: python
112116
@@ -138,15 +142,18 @@ eval_batch(inputs, labels=None)
138142

139143
在一个批次的数据上进行评估。
140144

141-
参数:
145+
**参数**
146+
147+
142148
- **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray`` 。
143149
- **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。
144150

145-
返回:如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。
151+
**返回**
152+
153+
list,如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。
146154

147-
返回类型:list
148155

149-
**代码示例**
156+
**代码示例**
150157

151158
.. code-block:: python
152159
@@ -179,14 +186,17 @@ predict_batch(inputs)
179186

180187
在一个批次的数据上进行测试。
181188

182-
参数:
189+
**参数**
190+
191+
183192
- **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray`` 。
184193

185-
返回:一个列表,包含了模型的输出。
194+
**返回**
195+
196+
一个列表,包含了模型的输出。
186197

187-
返回类型:list
198+
**代码示例**
188199

189-
**代码示例**:
190200

191201
.. code-block:: python
192202
@@ -219,13 +229,17 @@ save(path, training=True)
219229
将模型的参数和训练过程中优化器的信息保存到指定的路径,以及推理所需的参数与文件。如果training=True,所有的模型参数都会保存到一个后缀为 ``.pdparams`` 的文件中。
220230
所有的优化器信息和相关参数,比如 ``Adam`` 优化器中的 ``beta1`` , ``beta2`` ,``momentum`` 等,都会被保存到后缀为 ``.pdopt``。如果优化器比如SGD没有参数,则该不会产生该文件。如果training=False,则不会保存上述说的文件。只会保存推理需要的参数文件和模型文件。
221231

222-
参数:
232+
**参数**
233+
234+
223235
- **path** (str) - 保存的文件名前缀。格式如 ``dirname/file_prefix`` 或者 ``file_prefix`` 。
224236
- **training** (bool,可选) - 是否保存训练的状态,包括模型参数和优化器参数等。如果为False,则只保存推理所需的参数与文件。默认值:True。
225237

226-
返回:None
238+
**返回**
239+
240+
None
227241

228-
**代码示例**
242+
**代码示例**
229243

230244
.. code-block:: python
231245
@@ -275,14 +289,19 @@ load(path, skip_mismatch=False, reset_optimizer=False)
275289

276290
从指定的文件中载入模型参数和优化器参数,如果不想恢复优化器参数信息,优化器信息文件可以不存在。需要注意的是:参数名称的检索是根据保存模型时结构化的名字,当想要载入参数进行迁移学习时要保证预训练模型和当前的模型的参数有一样结构化的名字。
277291

278-
参数:
292+
**参数**
293+
294+
279295
- **path** (str) - 保存参数或优化器信息的文件前缀。格式如 ``path.pdparams`` 或者 ``path.pdopt`` ,后者是非必要的,如果不想恢复优化器信息。
280296
- **skip_mismatch** (bool) - 是否需要跳过保存的模型文件中形状或名称不匹配的参数,设置为 ``False`` 时,当遇到不匹配的参数会抛出一个错误。默认值:False。
281297
- **reset_optimizer** (bool) - 设置为 ``True`` 时,会忽略提供的优化器信息文件。否则会载入提供的优化器信息。默认值:False。
282298

283-
返回:None
299+
**返回**
300+
301+
None
302+
303+
**代码示例**
284304

285-
**代码示例**:
286305

287306
.. code-block:: python
288307
@@ -309,9 +328,11 @@ parameters(*args, **kwargs)
309328
310329
返回一个包含模型所有参数的列表。
311330

312-
返回:在静态图中返回一个包含 ``Parameter`` 的列表,在动态图中返回一个包含 ``ParamBase`` 的列表。
331+
**返回**
332+
333+
在静态图中返回一个包含 ``Parameter`` 的列表,在动态图中返回一个包含 ``ParamBase`` 的列表。
313334

314-
**代码示例**
335+
**代码示例**
315336

316337
.. code-block:: python
317338
@@ -332,7 +353,8 @@ prepare(optimizer=None, loss=None, metrics=None, amp_configs=None)
332353

333354
配置模型所需的部件,比如优化器、损失函数和评价指标。
334355

335-
参数:
356+
**参数**
357+
336358
- **optimizer** (Optimizer) - 当训练模型的,该参数必须被设定。当评估或测试的时候,该参数可以不设定。默认值:None。
337359
- **loss** (Loss) - 当训练模型的,该参数必须被设定。默认值:None。
338360
- **metrics** (Metric|list[Metric]) - 当该参数被设定时,所有给定的评估方法会在训练和测试时被运行,并返回对应的指标。默认值:None。
@@ -344,7 +366,8 @@ fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_fr
344366

345367
训练模型。当 ``eval_data`` 给定时,会在 ``eval_freq`` 个 ``epoch`` 后进行一次评估。
346368

347-
参数:
369+
**参数**
370+
348371
- **train_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。
349372
- **eval_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。当给定时,会在每个 ``epoch`` 后都会进行评估。默认值:None。
350373
- **batch_size** (int) - 训练数据或评估数据的批大小,当 ``train_data`` 或 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。
@@ -359,9 +382,11 @@ fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_fr
359382
- **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``train_data`` 和 ``eval_data`` 都为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:0。
360383
- **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。该参数不给定时,默认会插入 ``ProgBarLogger`` 和 ``ModelCheckpoint`` 这两个实例。默认值:None。
361384

362-
返回:None
385+
**返回**
386+
387+
None
363388

364-
**代码示例**
389+
**代码示例**
365390

366391
1. 使用Dataset训练,并设置batch_size的例子。
367392

@@ -447,17 +472,20 @@ evaluate(eval_data, batch_size=1, log_freq=10, verbose=2, num_workers=0, callbac
447472

448473
在输入数据上,评估模型的损失函数值和评估指标。
449474

450-
参数:
475+
**参数**
476+
451477
- **eval_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。
452478
- **batch_size** (int) - 训练数据或评估数据的批大小,当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。
453479
- **log_freq** (int) - 日志打印的频率,多少个 ``step`` 打印一次日志。默认值:1。
454480
- **verbose** (int) - 可视化的模型,必须为0,1,2。当设定为0时,不打印日志,设定为1时,使用进度条的方式打印日志,设定为2时,一行一行地打印日志。默认值:2。
455481
- **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:True。
456482
- **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。该参数不给定时,默认会插入 ``ProgBarLogger`` 和 ``ModelCheckpoint`` 这两个实例。默认值:None。
457483

458-
返回:dict, key是 ``prepare`` 时Metric的的名称,value是该Metric的值。
484+
**返回**
485+
486+
dict, key是 ``prepare`` 时Metric的的名称,value是该Metric的值。
459487

460-
**代码示例**
488+
**代码示例**
461489

462490
.. code-block:: python
463491
@@ -484,16 +512,19 @@ predict(test_data, batch_size=1, num_workers=0, stack_outputs=False, callbacks=N
484512

485513
在输入数据上,预测模型的输出。
486514

487-
参数:
515+
**参数**
516+
488517
- **test_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。
489518
- **batch_size** (int) - 训练数据或评估数据的批大小,当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。
490519
- **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:True。
491520
- **stack_outputs** (bool) - 是否将输出进行堆叠。默认值:False。
492521
- **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。默认值:None。
493522

494-
返回:模型的输出。
523+
**返回**
495524

496-
**代码示例**:
525+
模型的输出。
526+
527+
**代码示例**
497528

498529
.. code-block:: python
499530
@@ -539,14 +570,17 @@ summary(input_size=None, batch_size=None, dtype=None)
539570

540571
打印网络的基础结构和参数信息。
541572

542-
参数:
573+
**参数**
574+
543575
- **input_size** (tuple|InputSpec|list[tuple|InputSpec,可选) - 输入张量的大小。如果网络只有一个输入,那么该值需要设定为tuple或InputSpec。如果模型有多个输入。那么该值需要设定为list[tuple|InputSpec],包含每个输入的shape。如果该值没有设置,会将 ``self._inputs`` 作为输入。默认值:None。
544576
- **batch_size** (int,可选) - 输入张量的批大小。默认值:None。
545577
- **dtypes** (str,可选) - 输入张量的数据类型,如果没有给定,默认使用 ``float32`` 类型。默认值:None。
546578

547-
返回:字典:包含网络全部参数的大小和全部可训练参数的大小。
579+
**返回**
580+
581+
字典:包含网络全部参数的大小和全部可训练参数的大小。
548582

549-
**代码示例**
583+
**代码示例**
550584

551585
.. code-block:: python
552586

docs/api/paddle/NPUPlace_cn.rst

+5-2
Original file line numberDiff line numberDiff line change
@@ -10,9 +10,12 @@ NPUPlace
1010
``dev_id`` 不同的 ``NPUPlace`` 所对应的内存不可相互访问。
1111
这里编号指的是显卡实际的编号,而不是显卡的逻辑编号。
1212

13-
参数:
13+
参数
14+
::::::::::::
15+
1416
- **id** (int,可选) - NPU的设备ID。
1517

16-
**代码示例**
18+
代码示例
19+
::::::::::::
1720

1821
COPY-FROM: paddle.NPUPlace

docs/api/paddle/ParamAttr_cn.rst

+8-3
Original file line numberDiff line numberDiff line change
@@ -14,7 +14,9 @@ ParamAttr
1414

1515
创建一个参数属性对象,用户可设置参数的名称、初始化方式、学习率、正则化规则、是否需要训练、梯度裁剪方式、是否做模型平均等属性。
1616

17-
参数:
17+
参数
18+
::::::::::::
19+
1820
- **name** (str,可选) - 参数的名称。默认值为None,表示框架自动创建参数的名称。
1921
- **initializer** (Initializer,可选) - 参数的初始化方式。默认值为None,表示权重参数采用Xavier初始化方式,偏置参数采用全0初始化方式。
2022
- **learning_rate** (float,可选) - 参数的学习率。实际参数的学习率等于全局学习率乘以参数的学习率,再乘以learning rate schedule的系数。
@@ -25,10 +27,13 @@ ParamAttr
2527
- **do_model_average** (bool,可选) - 是否做模型平均。默认值为True。仅在 :ref:`ExponentialMovingAverage` 下使用。
2628
- **need_clip** (bool,可选) - 参数是否需要进行梯度裁剪。默认值为True,表示该参数的梯度会根据优化器中设置的裁剪规则进行裁剪。
2729

28-
返回: 表示参数属性的对象。
30+
返回
31+
::::::::::::
32+
表示参数属性的对象。
2933

3034

31-
**代码示例**
35+
代码示例
36+
::::::::::::
3237

3338
.. code-block:: python
3439

0 commit comments

Comments
 (0)