Skip to content

Commit 5efcac1

Browse files
LiyulingyueLigoml
andauthored
[张量 & phi::DenseTensor] Remove all ‘张量’ & LoDTensor in Zh docs (#5477)
* replace 张量 with Tensor * replace Tensor(Tensor) with Tensor * replace ``Tensor`` 或 ``LoDTensor`` with ``Tensor`` * Resume something * Replace 如果输入的是 LoDTensor,输出仅与第一个输入共享 LoD 信息(序列信息) * replace "Tensor or LoDTensor" with "Tensor" * replace "Tensor或LoDTensor" with "Tensor" * Delete external directory * Update docs/api/paddle/static/program_guard_cn.rst Co-authored-by: Ligoml <39876205+Ligoml@users.noreply.github.com>
1 parent ff9866b commit 5efcac1

File tree

224 files changed

+1318
-1460
lines changed

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

224 files changed

+1318
-1460
lines changed

docs/api/paddle/CUDAPlace_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -9,7 +9,7 @@ CUDAPlace
99
1010
1111
12-
``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 或 ``LoDTensor`` 的 GPU 设备。
12+
``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 的 GPU 设备。
1313
每个 ``CUDAPlace`` 有一个 ``dev_id`` (设备 id)来表明当前的 ``CUDAPlace`` 所代表的显卡编号,编号从 0 开始。
1414
``dev_id`` 不同的 ``CUDAPlace`` 所对应的内存不可相互访问。
1515
这里编号指的是可见显卡的逻辑编号,而不是显卡实际的编号。

docs/api/paddle/DataParallel_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -29,7 +29,7 @@ DataParallel
2929
- **strategy** (ParallelStrategy,可选) - (deprecated) 数据并行的策略,包括并行执行的环境配置。默认为 None。
3030
- **comm_buffer_size** (int,可选) - 它是通信调用(如 NCCLAllReduce)时,参数梯度聚合为一组的内存大小(MB)。默认值:25。
3131
- **last_comm_buffer_size** (float,可选)它限制通信调用中最后一个缓冲区的内存大小(MB)。减小最后一个通信缓冲区的大小有助于提高性能。默认值:1。默认值:1
32-
- **find_unused_parameters** (bool,可选) 是否在模型 forward 函数的返回值的所有张量中,遍历整个向后图。对于不包括在 loss 计算中的参数,其梯度将被预先标记为 ready 状态用于后续多卡间的规约操作。请注意,模型参数的所有正向输出必须参与 loss 的计算以及后续的梯度计算。否则,将发生严重错误。请注意,将 find_unused_parameters 设置为 True 会影响计算性能,因此,如果确定所有参数都参与了 loss 计算和自动反向图的构建,请将其设置为 False。默认值:False。
32+
- **find_unused_parameters** (bool,可选) 是否在模型 forward 函数的返回值的所有 Tensor 中,遍历整个向后图。对于不包括在 loss 计算中的参数,其梯度将被预先标记为 ready 状态用于后续多卡间的规约操作。请注意,模型参数的所有正向输出必须参与 loss 的计算以及后续的梯度计算。否则,将发生严重错误。请注意,将 find_unused_parameters 设置为 True 会影响计算性能,因此,如果确定所有参数都参与了 loss 计算和自动反向图的构建,请将其设置为 False。默认值:False。
3333

3434
返回
3535
::::::::::::

docs/api/paddle/Model_cn.rst

+2-2
Original file line numberDiff line numberDiff line change
@@ -262,8 +262,8 @@ summary(input_size=None, dtype=None)
262262

263263
**参数**
264264

265-
- **input_size** (tuple|InputSpec|list[tuple|InputSpec],可选) - 输入张量的大小。如果网络只有一个输入,那么该值需要设定为 tuple 或 InputSpec。如果模型有多个输入。那么该值需要设定为 list[tuple|InputSpec],包含每个输入的 shape 。如果该值没有设置,会将 ``self._inputs`` 作为输入。默认值:None。
266-
- **dtype** (str,可选) - 输入张量的数据类型,如果没有给定,默认使用 ``float32`` 类型。默认值:None。
265+
- **input_size** (tuple|InputSpec|list[tuple|InputSpec],可选) - 输入 Tensor 的大小。如果网络只有一个输入,那么该值需要设定为 tuple 或 InputSpec。如果模型有多个输入。那么该值需要设定为 list[tuple|InputSpec],包含每个输入的 shape 。如果该值没有设置,会将 ``self._inputs`` 作为输入。默认值:None。
266+
- **dtype** (str,可选) - 输入 Tensor 的数据类型,如果没有给定,默认使用 ``float32`` 类型。默认值:None。
267267

268268
**返回**
269269

docs/api/paddle/NPUPlace_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -5,7 +5,7 @@ NPUPlace
55

66
.. py:class:: paddle.NPUPlace
77
8-
``NPUPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 或 ``LoDTensor`` 的 NPU 设备。
8+
``NPUPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 的 NPU 设备。
99
每个 ``NPUPlace`` 有一个 ``dev_id`` (设备 id)来表明当前的 ``NPUPlace`` 所代表的显卡编号,编号从 0 开始。
1010
``dev_id`` 不同的 ``NPUPlace`` 所对应的内存不可相互访问。
1111
这里编号指的是显卡实际的编号,而不是显卡的逻辑编号。

docs/api/paddle/Overview_cn.rst

+16-16
Original file line numberDiff line numberDiff line change
@@ -36,7 +36,7 @@ tensor 数学操作
3636
" :ref:`paddle.angle <cn_api_paddle_angle>` ", "相位角函数"
3737
" :ref:`paddle.acos <cn_api_fluid_layers_acos>` ", "arccosine 函数"
3838
" :ref:`paddle.add <cn_api_tensor_add>` ", "Tensor 逐元素相加"
39-
" :ref:`paddle.add_n <cn_api_tensor_add_n>` ", "对输入的一至多个 Tensor 或 LoDTensor 求和"
39+
" :ref:`paddle.add_n <cn_api_tensor_add_n>` ", "对输入的一至多个 Tensor 求和"
4040
" :ref:`paddle.addmm <cn_api_tensor_addmm>` ", "计算输入 Tensor x 和 y 的乘积,将结果乘以标量 alpha,再加上 input 与 beta 的乘积,得到输出"
4141
" :ref:`paddle.all <cn_api_tensor_all>` ", "对指定维度上的 Tensor 元素进行逻辑与运算"
4242
" :ref:`paddle.allclose <cn_api_tensor_allclose>` ", "逐个检查输入 Tensor x 和 y 的所有元素是否均满足 ∣x−y∣≤atol+rtol×∣y∣"
@@ -51,8 +51,8 @@ tensor 数学操作
5151
" :ref:`paddle.cos <cn_api_fluid_layers_cos>` ", "余弦函数"
5252
" :ref:`paddle.cosh <cn_api_fluid_layers_cosh>` ", "双曲余弦函数"
5353
" :ref:`paddle.count_nonzero <cn_api_tensor_cn_count_nonzero>` ", "沿给定的轴 axis 统计非零元素的数量"
54-
" :ref:`paddle.cumsum <cn_api_tensor_cn_cumsum>` ", "沿给定 axis 计算张量 x 的累加和"
55-
" :ref:`paddle.cumprod <cn_api_tensor_cn_cumprod>` ", "沿给定 dim 计算张量 x 的累乘"
54+
" :ref:`paddle.cumsum <cn_api_tensor_cn_cumsum>` ", "沿给定 axis 计算 Tensor x 的累加和"
55+
" :ref:`paddle.cumprod <cn_api_tensor_cn_cumprod>` ", "沿给定 dim 计算 Tensor x 的累乘"
5656
" :ref:`paddle.digamma <cn_api_paddle_digamma>` ", "逐元素计算输入 x 的 digamma 函数值"
5757
" :ref:`paddle.divide <cn_api_tensor_divide>` ", "逐元素相除算子"
5858
" :ref:`paddle.equal <cn_api_tensor_equal>` ", "该 OP 返回 x==y 逐元素比较 x 和 y 是否相等,相同位置的元素相同则返回 True,否则返回 False"
@@ -66,7 +66,7 @@ tensor 数学操作
6666
" :ref:`paddle.greater_than <cn_api_tensor_cn_greater_than>` ", "逐元素地返回 x>y 的逻辑值"
6767
" :ref:`paddle.heaviside <cn_api_tensor_heaviside>` ", "逐元素地对 x 计算由 y 中的对应元素决定的赫维赛德阶跃函数"
6868
" :ref:`paddle.increment <cn_api_tensor_increment>` ", "在控制流程中用来让 x 的数值增加 value"
69-
" :ref:`paddle.kron <cn_api_paddle_tensor_kron>` ", "计算两个张量的克罗内克积"
69+
" :ref:`paddle.kron <cn_api_paddle_tensor_kron>` ", "计算两个 Tensor 的克罗内克积"
7070
" :ref:`paddle.less_equal <cn_api_tensor_cn_less_equal>` ", "逐元素地返回 x<=y 的逻辑值"
7171
" :ref:`paddle.less_than <cn_api_tensor_cn_less_than>` ", "逐元素地返回 x<y 的逻辑值"
7272
" :ref:`paddle.lgamma <cn_api_paddle_lgamma>` ", "计算输入 x 的 gamma 函数的自然对数并返回"
@@ -174,7 +174,7 @@ tensor 属性相关
174174
" :ref:`paddle.shape <cn_api_fluid_layers_shape>` ", "获得输入 Tensor 或 SelectedRows 的 shape"
175175
" :ref:`paddle.is_complex <cn_api_paddle_is_complex>` ", "判断输入 tensor 的数据类型是否为复数类型"
176176
" :ref:`paddle.is_integer <cn_api_paddle_is_integer>` ", "判断输入 tensor 的数据类型是否为整数类型"
177-
" :ref:`paddle.broadcast_shape <cn_api_tensor_broadcast_shape>` ", "返回对 x_shape 大小的张量和 y_shape 大小的张量做 broadcast 操作后得到的 shape"
177+
" :ref:`paddle.broadcast_shape <cn_api_tensor_broadcast_shape>` ", "返回对 x_shape 大小的 Tensor 和 y_shape 大小的 Tensor 做 broadcast 操作后得到的 shape"
178178
" :ref:`paddle.is_floating_point <cn_api_tensor_is_floating_point>` ", "判断输入 Tensor 的数据类型是否为浮点类型"
179179

180180
.. _tensor_creation:
@@ -187,15 +187,15 @@ tensor 创建相关
187187
:widths: 10, 30
188188

189189
" :ref:`paddle.arange <cn_api_paddle_tensor_arange>` ", "返回以步长 step 均匀分隔给定数值区间[start, end)的 1-D Tensor,数据类型为 dtype"
190-
" :ref:`paddle.diag <cn_api_paddle_cn_diag>` ", "如果 x 是向量(1-D 张量),则返回带有 x 元素作为对角线的 2-D 方阵;如果 x 是矩阵(2-D 张量),则提取 x 的对角线元素,以 1-D 张量返回。"
191-
" :ref:`paddle.diagflat <cn_api_paddle_diagflat>` ", "如果 x 是一维张量,则返回带有 x 元素作为对角线的二维方阵;如果 x 是大于等于二维的张量,则返回一个二维张量,其对角线元素为 x 在连续维度展开得到的一维张量的元素。"
190+
" :ref:`paddle.diag <cn_api_paddle_cn_diag>` ", "如果 x 是向量(1-D Tensor),则返回带有 x 元素作为对角线的 2-D 方阵;如果 x 是矩阵(2-D Tensor),则提取 x 的对角线元素,以 1-D Tensor 返回。"
191+
" :ref:`paddle.diagflat <cn_api_paddle_diagflat>` ", "如果 x 是一维 Tensor,则返回带有 x 元素作为对角线的二维方阵;如果 x 是大于等于二维的 Tensor,则返回一个二维 Tensor,其对角线元素为 x 在连续维度展开得到的一维 Tensor 的元素。"
192192
" :ref:`paddle.empty <cn_api_tensor_empty>` ", "创建形状大小为 shape 并且数据类型为 dtype 的 Tensor"
193193
" :ref:`paddle.empty_like <cn_api_tensor_empty_like>` ", "根据 x 的 shape 和数据类型 dtype 创建未初始化的 Tensor"
194194
" :ref:`paddle.eye <cn_api_paddle_tensor_eye>` ", "构建二维 Tensor(主对角线元素为 1,其他元素为 0)"
195195
" :ref:`paddle.full <cn_api_tensor_full>` ", "创建形状大小为 shape 并且数据类型为 dtype 的 Tensor"
196196
" :ref:`paddle.full_like <cn_api_tensor_full_like>` ", "创建一个和 x 具有相同的形状并且数据类型为 dtype 的 Tensor"
197197
" :ref:`paddle.linspace <cn_api_fluid_layers_linspace>` ", "返回一个 Tensor,Tensor 的值为在区间 start 和 stop 上均匀间隔的 num 个值,输出 Tensor 的长度为 num"
198-
" :ref:`paddle.meshgrid <cn_api_paddle_tensor_meshgrid>` ", "对每个张量做扩充操作"
198+
" :ref:`paddle.meshgrid <cn_api_paddle_tensor_meshgrid>` ", "对每个 Tensor 做扩充操作"
199199
" :ref:`paddle.numel <cn_api_tensor_numel>` ", "返回一个长度为 1 并且元素值为输入 x 元素个数的 Tensor"
200200
" :ref:`paddle.ones <cn_api_tensor_ones>` ", "创建形状为 shape 、数据类型为 dtype 且值全为 1 的 Tensor"
201201
" :ref:`paddle.ones_like <cn_api_tensor_ones_like>` ", "返回一个和 x 具有相同形状的数值都为 1 的 Tensor"
@@ -273,12 +273,12 @@ tensor 线性代数相关
273273
:header: "API 名称", "API 功能"
274274
:widths: 10, 30
275275

276-
" :ref:`paddle.bincount <cn_api_tensor_bincount>` ", "统计输入张量中元素的出现次数"
276+
" :ref:`paddle.bincount <cn_api_tensor_bincount>` ", "统计输入 Tensor 中元素的出现次数"
277277
" :ref:`paddle.bmm <cn_api_paddle_tensor_bmm>` ", "对输入 x 及输入 y 进行矩阵相乘"
278-
" :ref:`paddle.cross <cn_api_tensor_linalg_cross>` ", "计算张量 x 和 y 在 axis 维度上的向量积(叉积)"
278+
" :ref:`paddle.cross <cn_api_tensor_linalg_cross>` ", "计算 Tensor x 和 y 在 axis 维度上的向量积(叉积)"
279279
" :ref:`paddle.dist <cn_api_tensor_linalg_dist>` ", "计算 (x-y) 的 p 范数(p-norm)"
280280
" :ref:`paddle.dot <cn_api_paddle_tensor_linalg_dot>` ", "计算向量的内积"
281-
" :ref:`paddle.histogram <cn_api_tensor_histogram>` ", "计算输入张量的直方图"
281+
" :ref:`paddle.histogram <cn_api_tensor_histogram>` ", "计算输入 Tensor 的直方图"
282282
" :ref:`paddle.matmul <cn_api_tensor_matmul>` ", "计算两个 Tensor 的乘积,遵循完整的广播规则"
283283
" :ref:`paddle.mv <cn_api_tensor_mv>` ", "计算矩阵 x 和向量 vec 的乘积"
284284
" :ref:`paddle.rank <cn_api_fluid_layers_rank>` ", "计算输入 Tensor 的维度(秩)"
@@ -314,7 +314,7 @@ tensor 元素操作相关(如:转置,reshape 等)
314314
" :ref:`paddle.roll <cn_api_tensor_manipulation_roll>` ", "沿着指定维度 axis 对输入 x 进行循环滚动,当元素移动到最后位置时,会从第一个位置重新插入"
315315
" :ref:`paddle.scatter <cn_api_distributed_scatter>` ", "通过基于 updates 来更新选定索引 index 上的输入来获得输出"
316316
" :ref:`paddle.scatter_ <cn_api_paddle_cn_scatter_>` ", "Inplace 版本的 scatter API,对输入 x 采用 Inplace 策略 "
317-
" :ref:`paddle.scatter_nd <cn_api_fluid_layers_scatter_nd>` ", "根据 index ,将 updates 添加到一个新的张量中,从而得到输出的 Tensor"
317+
" :ref:`paddle.scatter_nd <cn_api_fluid_layers_scatter_nd>` ", "根据 index ,将 updates 添加到一个新的 Tensor 中,从而得到输出的 Tensor"
318318
" :ref:`paddle.scatter_nd_add <cn_api_fluid_layers_scatter_nd_add>` ", "通过对 Tensor 中的单个值或切片应用稀疏加法,从而得到输出的 Tensor"
319319
" :ref:`paddle.shard_index <cn_api_fluid_layers_shard_index>` ", "根据分片(shard)的偏移量重新计算分片的索引"
320320
" :ref:`paddle.slice <cn_api_paddle_slice>` ", "沿多个轴生成 input 的切片"
@@ -327,7 +327,7 @@ tensor 元素操作相关(如:转置,reshape 等)
327327
" :ref:`paddle.tile <cn_api_tensor_tile>` ", "根据参数 repeat_times 对输入 x 的各维度进行复制"
328328
" :ref:`paddle.transpose <cn_api_fluid_layers_transpose>` ", "根据 perm 对输入的多维 Tensor 进行数据重排"
329329
" :ref:`paddle.moveaxis <cn_api_tensor_moveaxis>` ", "移动 Tensor 的轴,根据移动之后的轴对输入的多维 Tensor 进行数据重排"
330-
" :ref:`paddle.tensordot <cn_api_paddle_tensordot>` ", "沿多个轴对输入的 x 和 y 进行张量缩并操作"
330+
" :ref:`paddle.tensordot <cn_api_paddle_tensordot>` ", "沿多个轴对输入的 x 和 y 进行 Tensor 缩并操作"
331331
" :ref:`paddle.unbind <cn_api_paddle_tensor_unbind>` ", "将输入 Tensor 按照指定的维度分割成多个子 Tensor"
332332
" :ref:`paddle.unique <cn_api_tensor_cn_unique>` ", "返回 Tensor 按升序排序后的独有元素"
333333
" :ref:`paddle.unique_consecutive <cn_api_tensor_cn_unique_consecutive>` ", "返回无连续重复元素的 Tensor"
@@ -337,7 +337,7 @@ tensor 元素操作相关(如:转置,reshape 等)
337337
" :ref:`paddle.as_complex <cn_api_paddle_as_complex>` ", "将实数 Tensor 转为复数 Tensor"
338338
" :ref:`paddle.as_real <cn_api_paddle_as_real>` ", "将复数 Tensor 转为实数 Tensor"
339339
" :ref:`paddle.repeat_interleave <cn_api_tensor_repeat_interleave>` ", "沿 axis 轴对输入 x 的元素进行复制"
340-
" :ref:`paddle.index_add <cn_api_tensor_index_add>` ", "沿着指定轴 axis 将 index 中指定位置的 x 与 value 相加,并写入到结果张量中的对应位置"
340+
" :ref:`paddle.index_add <cn_api_tensor_index_add>` ", "沿着指定轴 axis 将 index 中指定位置的 x 与 value 相加,并写入到结果 Tensor 中的对应位置"
341341

342342
.. einsum:
343343
@@ -348,7 +348,7 @@ tensor 元素操作相关(如:转置,reshape 等)
348348
:header: "API 名称", "API 功能"
349349
:widths: 10, 30
350350

351-
" :ref:`paddle.einsum <cn_api_tensor_einsum>` ", "根据爱因斯坦标记对多个张量进行爱因斯坦求和"
351+
" :ref:`paddle.einsum <cn_api_tensor_einsum>` ", "根据爱因斯坦标记对多个 Tensor 进行爱因斯坦求和"
352352

353353
.. _about_framework:
354354

@@ -361,7 +361,7 @@ framework 相关
361361

362362
" :ref:`paddle.CPUPlace <cn_api_fluid_CPUPlace>` ", "一个设备描述符,指定 CPUPlace 则 Tensor 将被自动分配在该设备上,并且模型将会运行在该设备上"
363363
" :ref:`paddle.CUDAPinnedPlace <cn_api_fluid_CUDAPinnedPlace>` ", "一个设备描述符,它所指代的页锁定内存由 CUDA 函数 cudaHostAlloc() 在主机内存上分配,主机的操作系统将不会对这块内存进行分页和交换操作,可以通过直接内存访问技术访问,加速主机和 GPU 之间的数据拷贝"
364-
" :ref:`paddle.CUDAPlace <cn_api_fluid_CUDAPlace>` ", "一个设备描述符,表示一个分配或将要分配 Tensor 或 LoDTensor 的 GPU 设备"
364+
" :ref:`paddle.CUDAPlace <cn_api_fluid_CUDAPlace>` ", "一个设备描述符,表示一个分配或将要分配 Tensor 的 GPU 设备"
365365
" :ref:`paddle.DataParallel <cn_api_fluid_dygraph_DataParallel>` ", "通过数据并行模式执行动态图模型"
366366
" :ref:`paddle.NPUPlace <cn_api_fluid_NPUPlace>` ", "一个设备描述符,指 NCPUPlace 则 Tensor 将被自动分配在该设备上,并且模型将会运行在该设备上"
367367
" :ref:`paddle.disable_signal_handler <cn_api_fluid_disable_signal_handler>` ", "关闭 Paddle 系统信号处理方法"

docs/api/paddle/add_n_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -8,7 +8,7 @@ add_n
88
99
1010
11-
对输入的一至多个 Tensor 或 LoDTensor 求和。如果输入的是 LoDTensor,输出仅与第一个输入共享 LoD 信息(序列信息)
11+
对输入的一至多个 Tensor 求和
1212

1313
.. code-block:: text
1414

docs/api/paddle/amax_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -16,7 +16,7 @@ amax
1616
:::::::::
1717
- **x** (Tensor) - Tensor,支持数据类型为 float32、float64、int32、int64,维度不超过 4 维。
1818
- **axis** (int|list|tuple,可选) - 求最大值运算的维度。如果为 None,则计算所有元素的最大值并返回包含单个元素的 Tensor 变量,否则必须在 :math:`[-x.ndim, x.ndim]` 范围内。如果 :math:`axis[i] <0`,则维度将变为 :math:`x.ndim+axis[i]`,默认值为 None。
19-
- **keepdim** (bool,可选)- 是否在输出 Tensor 中保留减小的维度。如果 keepdim 为 False,结果张量的维度将比输入张量的小,默认值为 False。
19+
- **keepdim** (bool,可选)- 是否在输出 Tensor 中保留减小的维度。如果 keepdim 为 False,结果 Tensor 的维度将比输入 Tensor 的小,默认值为 False。
2020
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2121

2222
返回

docs/api/paddle/amin_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -16,7 +16,7 @@ amin
1616
:::::::::
1717
- **x** (Tensor) - Tensor,支持数据类型为 float32、float64、int32、int64,维度不超过 4 维。
1818
- **axis** (int|list|tuple,可选) - 求最小值运算的维度。如果为 None,则计算所有元素的最小值并返回包含单个元素的 Tensor 变量,否则必须在 :math:`[−x.ndim, x.ndim]` 范围内。如果 :math:`axis[i] < 0`,则维度将变为 :math:`x.ndim+axis[i]`,默认值为 None。
19-
- **keepdim** (bool,可选)- 是否在输出 Tensor 中保留减小的维度。如果 keepdim 为 False,结果张量的维度将比输入张量的小,默认值为 False。
19+
- **keepdim** (bool,可选)- 是否在输出 Tensor 中保留减小的维度。如果 keepdim 为 False,结果 Tensor 的维度将比输入 Tensor 的小,默认值为 False。
2020
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2121

2222
返回

docs/api/paddle/bincount_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -5,7 +5,7 @@ bincount
55

66
.. py:function:: paddle.bincount(x, weights=None, minlength=0, name=None):
77
8-
统计输入张量中每个元素出现的次数,如果传入 weights 张量则每次计数加一时会乘以 weights 张量对应的值
8+
统计输入 Tensor 中每个元素出现的次数,如果传入 weights Tensor 则每次计数加一时会乘以 weights Tensor 对应的值
99

1010
参数
1111
::::::::::::

docs/api/paddle/broadcast_shape_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -6,7 +6,7 @@ broadcast_shape
66
.. py:function:: paddle.broadcast_shape(x_shape, y_shape)
77
88
.. note::
9-
该函数返回对 x_shape 大小的张量和 y_shape 大小的张量做 broadcast 操作后得到的 shape,如您想了解更多,请参见 `Tensor 介绍`_ .
9+
该函数返回对 x_shape 大小的 Tensor 和 y_shape 大小的 Tensor 做 broadcast 操作后得到的 shape,如您想了解更多,请参见 `Tensor 介绍`_ .
1010

1111
.. _Tensor 介绍: ../../guides/beginner/tensor_cn.html#id7
1212

0 commit comments

Comments
 (0)