Path: blob/master/site/zh-cn/quantum/tutorials/barren_plateaus.ipynb
25118 views
Copyright 2020 The TensorFlow Authors.
贫瘠高原
本教程将介绍 McClean 在 2019 年的一项研究的结果,这项研究解释了并非任何量子神经网络结构都能提供优秀的学习效果。特别是,您将看到某些大型随机量子电路系列不能有效地用作量子神经网络,因为它们几乎在各处都会出现梯度消失问题。在本例中,您不会针对特定的学习问题训练任何模型,重点是理解梯度行为的更简单问题。
设置
安装 TensorFlow Quantum:
现在,导入 TensorFlow 和模块依赖项:
1. 摘要
具有许多如下量子块的随机量子电路( 为随机 Pauli 旋转):
其中,如果将 定义为相对于任何量子位 和 的 的期望值,那么将存在一个问题,即 的平均值将非常接近 0 且变化不大。具体请参见下文:
2. 生成随机电路
论文内提供的构造直观易懂。以下代码所实现的简单函数可以在一组量子位上生成具有给定深度的随机量子电路,有时称为量子神经网络 (QNN):
作者研究了单个参数 的梯度。我们继续在 所在电路中放置 sympy.Symbol
。由于作者并没有分析电路中任何其他符号的统计信息,让我们立即将它们替换为随机值。
3. 运行电路
生成其中一些电路以及可观测对象以测试梯度变化不大的说法。首先,生成一批随机电路。选择一个随机 ZZ 可观测对象,并使用 TensorFlow Quantum 批量计算梯度和方差。
3.1 批量方差计算
让我们编写一个辅助函数,计算给定可观测对象的梯度在一批电路上的方差:
3.1 设置和运行
选择要生成的随机电路的数量及其深度,以及电路操作的量子位数。然后绘制结果。
此图表明,对于量子机器学习问题,不能仅凭猜测随机 QNN 拟设来希望达到最佳效果。为了使梯度变化幅度足以支持机器学习,模型电路中必须具备特定结构。
4. 启发式方法
Grant 于 2019 年提出了一种有趣的启发式方法,支持以近乎随机但又不完全随机的方式开始学习。作者使用了与 McClean 等人相同的电路,针对经典控制参数提出了一种不同的初始化技术,可化解“贫瘠高原”问题。这种初始化技术首先对一些层使用完全随机的控制参数,但在紧随其后的层中,将选择前几层的初始变换未完成的参数。作者称其为标识块。
这种启发式方法的优势在于,只需更改单个参数即可,当前块之外的所有其他块都将保持原有标识,而梯度信号将比之前更强。这种方法使用户可以通过选择需要修改的变量和块来获得强梯度信号。这种启发式方法并不能防止用户在训练阶段陷入“贫瘠高原”困境(并限制完全同步更新),但可以保证您在刚开始工作时位于“高原”之外。
4.1 构造新的 QNN
现在,构造一个函数来生成标识块 QNN。这与论文中的实现略有不同。目前,使单个参数的梯度行为与 McClean 等人的研究一致即可,因此可以进行一些简化。
要生成标识块并训练模型,通常需要 而非 。最初, 和 为相同的角度,但二者需独立学习。否则,即使经过训练后,您也将始终获得同一标识。标识块的数量需要根据经验进行选择。块越深,块中部的方差就越小。但在块的开头和结尾,参数梯度的方差应较大。
4.2 比较
在这里,您可以看到启发式方法确实有助于防止梯度方差迅速消失:
这是从(近乎)随机 QNN 获得更强梯度信号的一项重大改进。