@@ -11,16 +11,16 @@ load_inference_model
11
11
12
12
.. py :class :: paddle.fluid.io.load_inference_model(dirname, executor, model_filename = None , params_filename = None , pserver_endpoints = None )
13
13
14
- 从指定目录中加载 推理model (inference model)
14
+ 从指定目录中加载预测模型model (inference model)
15
15
16
16
参数:
17
17
- **dirname ** (str) – model的路径
18
18
- **executor ** (Executor) – 运行 inference model的 ``executor ``
19
- - **model_filename ** (str|None) – 推理 Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__ ``
19
+ - **model_filename ** (str|None) – 存储着预测 Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__ ``
20
20
- **params_filename ** (str|None) – 加载所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。
21
- - **pserver_endpoints ** (list|None) – 只有在分布式推理时需要用到 。 当在训练时使用分布式 look up table , 需要这个参数. 该参数是 pserver endpoints 的列表
21
+ - **pserver_endpoints ** (list|None) – 只有在分布式预测时需要用到 。 当在训练时使用分布式 look up table , 需要这个参数. 该参数是 pserver endpoints 的列表
22
22
23
- 返回: 这个函数的返回有三个元素的元组(Program,feed_target_names, fetch_targets)。Program 是一个 ``Program `` ,它是推理 ``Program ``。 ``feed_target_names `` 是一个str列表,它包含需要在推理 ``Program `` 中提供数据的变量的名称。` `fetch_targets`` 是一个 ``Variable `` 列表,从中我们可以得到推断结果。
23
+ 返回: 这个函数的返回有三个元素的元组(Program,feed_target_names, fetch_targets)。Program 是一个 ``Program `` ,它是预测 ``Program ``。 ``feed_target_names `` 是一个str列表,它包含需要在预测 ``Program `` 中提供数据的变量的名称。``fetch_targets `` 是一个 ``Variable `` 列表,从中我们可以得到推断结果。
24
24
25
25
返回类型:元组(tuple)
26
26
@@ -39,7 +39,7 @@ load_inference_model
39
39
fetch_list = fetch_targets)
40
40
# 在这个示例中,inference program 保存在 ./infer_model/__model__”中
41
41
# 参数保存在./infer_mode 单独的若干文件中
42
- # 加载 inference program 后, executor 使用 fetch_targets 和 feed_target_names 执行Program, 得到推理结果
42
+ # 加载 inference program 后, executor 使用 fetch_targets 和 feed_target_names 执行Program, 得到预测结果
43
43
44
44
45
45
@@ -71,13 +71,13 @@ load_params
71
71
**代码示例 **
72
72
73
73
.. code-block :: python
74
-
74
+
75
75
exe = fluid.Executor(fluid.CPUPlace())
76
76
param_path = " ./my_paddle_model"
77
77
prog = fluid.default_main_program()
78
78
fluid.io.load_params(executor = exe, dirname = param_path,
79
79
main_program = None )
80
-
80
+
81
81
82
82
83
83
@@ -184,19 +184,19 @@ save_inference_model
184
184
185
185
.. py :class :: paddle.fluid.io.save_inference_model(dirname, feeded_var_names, target_vars, executor, main_program = None , model_filename = None , params_filename = None , export_for_deployment = True )
186
186
187
- 修改指定的 ``main_program `` ,构建一个专门用于推理的 ``Program ``,然后 ``executor `` 把它和所有相关参数保存到 ``dirname `` 中
187
+ 修改指定的 ``main_program `` ,构建一个专门用预测的 ``Program ``,然后 ``executor `` 把它和所有相关参数保存到 ``dirname `` 中
188
188
189
189
``dirname `` 用于指定保存变量的目录。如果变量保存在指定目录的若干文件中,设置文件名 None; 如果所有变量保存在一个文件中,请使用filename来指定它
190
190
191
191
参数:
192
- - **dirname ** (str) – 保存推理model的路径
193
- - **feeded_var_names ** (list[str]) – 推理 (inference)需要 feed 的数据
194
- - **target_vars ** (list[Variable]) – 保存推理 (inference)结果的 Variables
192
+ - **dirname ** (str) – 保存预测model的路径
193
+ - **feeded_var_names ** (list[str]) – 预测 (inference)需要 feed 的数据
194
+ - **target_vars ** (list[Variable]) – 保存预测 (inference)结果的 Variables
195
195
- **executor ** (Executor) – executor 保存 inference model
196
- - **main_program ** (Program|None) – 使用 ``main_program `` ,构建一个专门用于推理的 ``Program `` (inference model). 如果为None, 使用 ``default main program `` 默认: None.
197
- - **model_filename ** (str|None) – 保存 推理P rogram 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__ ``
196
+ - **main_program ** (Program|None) – 使用 ``main_program `` ,构建一个专门用于预测的 ``Program `` (inference model). 如果为None, 使用 ``default main program `` 默认: None.
197
+ - **model_filename ** (str|None) – 保存预测Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__ ``
198
198
- **params_filename ** (str|None) – 保存所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。
199
- - **export_for_deployment ** (bool) – 如果为真,Program将被修改为只支持直接推理部署的Program 。否则,将存储更多的信息,方便优化和再训练。目前只支持True。
199
+ - **export_for_deployment ** (bool) – 如果为真,Program将被修改为只支持直接预测部署的Program 。否则,将存储更多的信息,方便优化和再训练。目前只支持True。
200
200
201
201
返回: None
202
202
@@ -214,7 +214,7 @@ save_inference_model
214
214
target_vars = [predict_var], executor = exe)
215
215
216
216
# 在这个示例中,函数将修改默认的主程序让它适合于推断‘predict_var’。修改的
217
- # 推理Program 将被保存在 ./infer_model/__model__”中。
217
+ # 预测Program 将被保存在 ./infer_model/__model__”中。
218
218
# 和参数将保存在文件夹下的单独文件中 ./infer_mode
219
219
220
220
0 commit comments