Path: blob/master/site/zh-cn/guide/keras/custom_layers_and_models.ipynb
39396 views
Copyright 2020 The TensorFlow Authors.
通过子类化创建新的层和模型
设置
Layer 类:状态(权重)和部分计算的组合
Keras 的一个中心抽象是 Layer 类。层封装了状态(层的“权重”)和从输入到输出的转换(“调用”,即层的前向传递)。
下面是一个密集连接的层。它具有一个状态:变量 w 和 b。
您可以在某些张量输入上通过调用来使用层,这一点很像 Python 函数。
请注意,权重 w 和 b 在被设置为层特性后会由层自动跟踪:
请注意,您还可以使用一种更加快捷的方式为层添加权重:add_weight() 方法:
层可以具有不可训练权重
除了可训练权重外,您还可以向层添加不可训练权重。训练层时,不必在反向传播期间考虑此类权重。
以下是添加和使用不可训练权重的方式:
它是 layer.weights 的一部分,但被归类为不可训练权重:
最佳做法:将权重创建推迟到得知输入的形状之后
上面的 Linear 层接受了一个 input_dim 参数,用于计算 __init__() 中权重 w 和 b 的形状:
在许多情况下,您可能事先不知道输入的大小,并希望在得知该值时(对层进行实例化后的某个时间)再延迟创建权重。
在 Keras API 中,我们建议您在层的 build(self, inputs_shape) 方法中创建层权重。如下所示:
层的 __call__() 方法将在首次调用时自动运行构建。现在,您有了一个延迟并因此更易使用的层:
如上所示单独实现 build() 很好地将只创建一次权重与在每次调用时使用权重分开。但是,对于一些高级自定义层,将状态创建和计算分开可能变得不切实际。层实现器可以将权重创建推迟到第一个 __call__(),但需要注意,后面的调用会使用相同的权重。此外,由于 __call__() 很可能是第一次在 tf.function 中执行,在 __call__() 中发生的任何变量创建都应当封装在 tf.init_scope 中。
层可递归组合
如果将层实例分配为另一个层的特性,则外部层将开始跟踪内部层创建的权重。
我们建议在 __init__() 方法中创建此类子层,并将其留给第一个 __call__() 以触发构建它们的权重。
add_loss() 方法
在编写层的 call() 方法时,您可以在编写训练循环时创建想要稍后使用的损失张量。这可以通过调用 self.add_loss(value) 来实现:
这些损失(包括由任何内部层创建的损失)可通过 layer.losses 取回。此属性会在每个 __call__() 开始时重置到顶层,因此 layer.losses 始终包含在上一次前向传递过程中创建的损失值。
此外,loss 属性还包含为任何内部层的权重创建的正则化损失:
在编写训练循环时应考虑这些损失,如下所示:
有关编写训练循环的详细指南,请参阅从头开始编写训练循环指南。
这些损失还可以无缝使用 fit()(它们会自动求和并添加到主损失中,如果有):
add_metric() 方法
与 add_loss() 类似,层还具有 add_metric() 方法,用于在训练过程中跟踪数量的移动平均值。
请思考下面的 "logistic endpoint" 层。它将预测和目标作为输入,计算通过 add_loss() 跟踪的损失,并计算通过 add_metric() 跟踪的准确率标量。
可通过 layer.metrics 访问以这种方式跟踪的指标:
和 add_loss() 一样,这些指标也是通过 fit() 跟踪的:
可选择在层上启用序列化
如果需要将自定义层作为函数式模型的一部分进行序列化,您可以选择实现 get_config() 方法:
请注意,基础 Layer 类的 __init__() 方法会接受一些关键字参数,尤其是 name 和 dtype。最好将这些参数传递给 __init__() 中的父类,并将其包含在层配置中:
如果根据层的配置对层进行反序列化时需要更大的灵活性,还可以重写 from_config() 类方法。下面是 from_config() 的基础实现:
要详细了解序列化和保存,请参阅完整的保存和序列化模型指南。
call() 方法中的特权 training 参数
某些层,尤其是 BatchNormalization 层和 Dropout 层,在训练和推断期间具有不同的行为。对于此类层,标准做法是在 call() 方法中公开 training(布尔)参数。
通过在 call() 中公开此参数,可以启用内置的训练和评估循环(例如 fit())以在训练和推断中正确使用层。
call() 方法中的特权 mask 参数
call() 支持的另一个特权参数是 mask 参数。
它会出现在所有 Keras RNN 层中。掩码是布尔张量(在输入中每个时间步骤对应一个布尔值),用于在处理时间序列数据时跳过某些输入时间步骤。
当先前的层生成掩码时,Keras 会自动将正确的 mask 参数传递给 __call__()(针对支持它的层)。掩码生成层是配置了 mask_zero=True 的 Embedding 层和 Masking 层。
要详细了解遮盖以及如何编写启用遮盖的层,请查看了解填充和遮盖指南。
Model 类
通常,您会使用 Layer 类来定义内部计算块,并使用 Model 类来定义外部模型,即您将训练的对象。
例如,在 ResNet50 模型中,您会有几个子类化 Layer 的 ResNet 块,以及一个包含整个 ResNet50 网络的 Model。
Model 类具有与 Layer 相同的 API,但有如下区别:
它会公开内置训练、评估和预测循环(
model.fit()、model.evaluate()、model.predict())。它会通过
model.layers属性公开其内部层的列表。它会公开保存和序列化 API(
save()、save_weights()…)
实际上,Layer 类对应于我们在文献中所称的“层”(如“卷积层”或“循环层”)或“块”(如“ResNet 块”或“Inception 块”)。
同时,Model 类对应于文献中所称的“模型”(如“深度学习模型”)或“网络”(如“深度神经网络”)。
因此,如果您想知道“我应该用 Layer 类还是 Model 类?”,请问自己:我是否需要在它上面调用 fit()?我是否需要在它上面调用 save()?如果是,则使用 Model。如果不是(要么因为您的类只是更大系统中的一个块,要么因为您正在自己编写训练和保存代码),则使用 Layer。
例如,我们可以使用上面的 mini-resnet 示例,用它来构建一个 Model,该模型可以通过 fit() 进行训练,并通过 save_weights() 进行保存:
汇总:端到端示例
到目前为止,您已学习以下内容:
Layer封装了状态(在__init__()或build()中创建)和一些计算(在call()中定义)。层可以递归嵌套以创建新的更大的计算块。
层可以通过
add_loss()和add_metric()创建并跟踪损失(通常是正则化损失)以及指标。您要训练的外部容器是
Model。Model就像Layer,但是添加了训练和序列化实用工具。
让我们将这些内容全部汇总到一个端到端示例:我们将实现一个变分自动编码器 (VAE),并用 MNIST 数字对其进行训练。
我们的 VAE 将是 Model 的一个子类,它是作为子类化 Layer 的嵌套组合层进行构建的。它将具有正则化损失(KL 散度)。
让我们在 MNIST 上编写一个简单的训练循环:
请注意,由于 VAE 是 Model 的子类,它具有内置的训练循环。因此,您也可以用以下方式训练它:
超越面向对象的开发:函数式 API
这个示例对您来说是否包含了太多面向对象的开发?您也可以使用函数式 API 来构建模型。重要的是,选择其中一种样式并不妨碍您利用以另一种样式编写的组件:您随时可以搭配使用。
例如,下面的函数式 API 示例重用了我们在上面的示例中定义的同一个 Sampling 层:
有关详情,请务必阅读函数式 API 指南。
在 TensorFlow.org 上查看
在 Google Colab 中运行
在 GitHub 上查看源代码
下载笔记本