Path: blob/master/site/zh-cn/guide/keras/custom_layers_and_models.ipynb
25118 views
Copyright 2020 The TensorFlow Authors.
通过子类化创建新的层和模型
设置
Layer
类:状态(权重)和部分计算的组合
Keras 的一个中心抽象是 Layer
类。层封装了状态(层的“权重”)和从输入到输出的转换(“调用”,即层的前向传递)。
下面是一个密集连接的层。它具有一个状态:变量 w
和 b
。
您可以在某些张量输入上通过调用来使用层,这一点很像 Python 函数。
请注意,权重 w
和 b
在被设置为层特性后会由层自动跟踪:
请注意,您还可以使用一种更加快捷的方式为层添加权重:add_weight()
方法:
层可以具有不可训练权重
除了可训练权重外,您还可以向层添加不可训练权重。训练层时,不必在反向传播期间考虑此类权重。
以下是添加和使用不可训练权重的方式:
它是 layer.weights
的一部分,但被归类为不可训练权重:
最佳做法:将权重创建推迟到得知输入的形状之后
上面的 Linear
层接受了一个 input_dim
参数,用于计算 __init__()
中权重 w
和 b
的形状:
在许多情况下,您可能事先不知道输入的大小,并希望在得知该值时(对层进行实例化后的某个时间)再延迟创建权重。
在 Keras API 中,我们建议您在层的 build(self, inputs_shape)
方法中创建层权重。如下所示:
层的 __call__()
方法将在首次调用时自动运行构建。现在,您有了一个延迟并因此更易使用的层:
如上所示单独实现 build()
很好地将只创建一次权重与在每次调用时使用权重分开。但是,对于一些高级自定义层,将状态创建和计算分开可能变得不切实际。层实现器可以将权重创建推迟到第一个 __call__()
,但需要注意,后面的调用会使用相同的权重。此外,由于 __call__()
很可能是第一次在 tf.function
中执行,在 __call__()
中发生的任何变量创建都应当封装在 tf.init_scope
中。
层可递归组合
如果将层实例分配为另一个层的特性,则外部层将开始跟踪内部层创建的权重。
我们建议在 __init__()
方法中创建此类子层,并将其留给第一个 __call__()
以触发构建它们的权重。
add_loss()
方法
在编写层的 call()
方法时,您可以在编写训练循环时创建想要稍后使用的损失张量。这可以通过调用 self.add_loss(value)
来实现:
这些损失(包括由任何内部层创建的损失)可通过 layer.losses
取回。此属性会在每个 __call__()
开始时重置到顶层,因此 layer.losses
始终包含在上一次前向传递过程中创建的损失值。
此外,loss
属性还包含为任何内部层的权重创建的正则化损失:
在编写训练循环时应考虑这些损失,如下所示:
有关编写训练循环的详细指南,请参阅从头开始编写训练循环指南。
这些损失还可以无缝使用 fit()
(它们会自动求和并添加到主损失中,如果有):
add_metric()
方法
与 add_loss()
类似,层还具有 add_metric()
方法,用于在训练过程中跟踪数量的移动平均值。
请思考下面的 "logistic endpoint" 层。它将预测和目标作为输入,计算通过 add_loss()
跟踪的损失,并计算通过 add_metric()
跟踪的准确率标量。
可通过 layer.metrics
访问以这种方式跟踪的指标:
和 add_loss()
一样,这些指标也是通过 fit()
跟踪的:
可选择在层上启用序列化
如果需要将自定义层作为函数式模型的一部分进行序列化,您可以选择实现 get_config()
方法:
请注意,基础 Layer
类的 __init__()
方法会接受一些关键字参数,尤其是 name
和 dtype
。最好将这些参数传递给 __init__()
中的父类,并将其包含在层配置中:
如果根据层的配置对层进行反序列化时需要更大的灵活性,还可以重写 from_config()
类方法。下面是 from_config()
的基础实现:
要详细了解序列化和保存,请参阅完整的保存和序列化模型指南。
call()
方法中的特权 training
参数
某些层,尤其是 BatchNormalization
层和 Dropout
层,在训练和推断期间具有不同的行为。对于此类层,标准做法是在 call()
方法中公开 training
(布尔)参数。
通过在 call()
中公开此参数,可以启用内置的训练和评估循环(例如 fit()
)以在训练和推断中正确使用层。
call()
方法中的特权 mask
参数
call()
支持的另一个特权参数是 mask
参数。
它会出现在所有 Keras RNN 层中。掩码是布尔张量(在输入中每个时间步骤对应一个布尔值),用于在处理时间序列数据时跳过某些输入时间步骤。
当先前的层生成掩码时,Keras 会自动将正确的 mask
参数传递给 __call__()
(针对支持它的层)。掩码生成层是配置了 mask_zero=True
的 Embedding
层和 Masking
层。
要详细了解遮盖以及如何编写启用遮盖的层,请查看了解填充和遮盖指南。
Model
类
通常,您会使用 Layer
类来定义内部计算块,并使用 Model
类来定义外部模型,即您将训练的对象。
例如,在 ResNet50 模型中,您会有几个子类化 Layer
的 ResNet 块,以及一个包含整个 ResNet50 网络的 Model
。
Model
类具有与 Layer
相同的 API,但有如下区别:
它会公开内置训练、评估和预测循环(
model.fit()
、model.evaluate()
、model.predict()
)。它会通过
model.layers
属性公开其内部层的列表。它会公开保存和序列化 API(
save()
、save_weights()
…)
实际上,Layer
类对应于我们在文献中所称的“层”(如“卷积层”或“循环层”)或“块”(如“ResNet 块”或“Inception 块”)。
同时,Model
类对应于文献中所称的“模型”(如“深度学习模型”)或“网络”(如“深度神经网络”)。
因此,如果您想知道“我应该用 Layer
类还是 Model
类?”,请问自己:我是否需要在它上面调用 fit()
?我是否需要在它上面调用 save()
?如果是,则使用 Model
。如果不是(要么因为您的类只是更大系统中的一个块,要么因为您正在自己编写训练和保存代码),则使用 Layer
。
例如,我们可以使用上面的 mini-resnet 示例,用它来构建一个 Model
,该模型可以通过 fit()
进行训练,并通过 save_weights()
进行保存:
汇总:端到端示例
到目前为止,您已学习以下内容:
Layer
封装了状态(在__init__()
或build()
中创建)和一些计算(在call()
中定义)。层可以递归嵌套以创建新的更大的计算块。
层可以通过
add_loss()
和add_metric()
创建并跟踪损失(通常是正则化损失)以及指标。您要训练的外部容器是
Model
。Model
就像Layer
,但是添加了训练和序列化实用工具。
让我们将这些内容全部汇总到一个端到端示例:我们将实现一个变分自动编码器 (VAE),并用 MNIST 数字对其进行训练。
我们的 VAE 将是 Model
的一个子类,它是作为子类化 Layer
的嵌套组合层进行构建的。它将具有正则化损失(KL 散度)。
让我们在 MNIST 上编写一个简单的训练循环:
请注意,由于 VAE 是 Model
的子类,它具有内置的训练循环。因此,您也可以用以下方式训练它:
超越面向对象的开发:函数式 API
这个示例对您来说是否包含了太多面向对象的开发?您也可以使用函数式 API 来构建模型。重要的是,选择其中一种样式并不妨碍您利用以另一种样式编写的组件:您随时可以搭配使用。
例如,下面的函数式 API 示例重用了我们在上面的示例中定义的同一个 Sampling
层:
有关详情,请务必阅读函数式 API 指南。