Book a Demo!
CoCalc Logo Icon
StoreFeaturesDocsShareSupportNewsAboutPoliciesSign UpSign In
tensorflow
GitHub Repository: tensorflow/docs-l10n
Path: blob/master/site/pt-br/probability/examples/Factorial_Mixture.ipynb
25118 views
Kernel: Python 3

Licensed under the Apache License, Version 2.0 (the "License");

#@title Licensed under the Apache License, Version 2.0 (the "License"); { display-mode: "form" } # you may not use this file except in compliance with the License. # You may obtain a copy of the License at # # https://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, software # distributed under the License is distributed on an "AS IS" BASIS, # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. # See the License for the specific language governing permissions and # limitations under the License.

Neste notebook, mostraremos como usar o TensorFlow Probability (TFP) para fazer a amostragem de uma mistura de distribuições gaussianas definidas como: p(x1,...,xn)=ipi(xi)p(x_1, ..., x_n) = \prod_i p_i(x_i) em que: p(x1,...,xn)=ipi(xi)p(x_1, ..., x_n) = \prod_i p_i(x_i) where: pi1Kk=1KπikNormal(loc=μik,scale=σik)1=k=1Kπik,i.MMMMMMMMMMM\begin{align*} p_i &\equiv \frac{1}{K}\sum_{k=1}^K \pi_{ik}\,\text{Normal}\left(\text{loc}=\mu_{ik},\, \text{scale}=\sigma_{ik}\right)\\1&=\sum_{k=1}^K\pi_{ik}, \forall i.\hphantom{MMMMMMMMMMM}\end{align*}

Cada variável xix_i é modelada como uma mistura de gaussianas, e a distribuição conjunta para todas as variáveis nn é um produto dessas densidades.

Dado um dataset x(1),...,x(T)x^{(1)}, ..., x^{(T)}, modelamos cada ponto de dados x(j)x^{(j)} como uma mistura fatorial de gaussianas: p(x(j))=ipi(xi(j))p(x^{(j)}) = \prod_i p_i (x_i^{(j)})

As misturas fatoriais são uma maneira simples de criar distribuições com um pequeno número de parâmetros e um grande número de modos.

import tensorflow as tf import numpy as np import tensorflow_probability as tfp import matplotlib.pyplot as plt import seaborn as sns tfd = tfp.distributions # Use try/except so we can easily re-execute the whole notebook. try: tf.enable_eager_execution() except: pass

Crie a mistura fatorial de gaussianas usando o TFP

num_vars = 2 # Number of variables (`n` in formula). var_dim = 1 # Dimensionality of each variable `x[i]`. num_components = 3 # Number of components for each mixture (`K` in formula). sigma = 5e-2 # Fixed standard deviation of each component. # Choose some random (component) modes. component_mean = tfd.Uniform().sample([num_vars, num_components, var_dim]) factorial_mog = tfd.Independent( tfd.MixtureSameFamily( # Assume uniform weight on each component. mixture_distribution=tfd.Categorical( logits=tf.zeros([num_vars, num_components])), components_distribution=tfd.MultivariateNormalDiag( loc=component_mean, scale_diag=[sigma])), reinterpreted_batch_ndims=1)

Observe o uso que fazemos de tfd.Independent. Essa "metadistribuição" aplica uma reduce_sum no cálculo de log_prob para as dimensões de lote reinterpreted_batch_ndims na extremidade direita. No nosso caso, quando computamos log_prob, é feita a soma da dimensão de variáveis, deixando somente a dimensão de lotes. É importante salientar que isso não afeta a amostragem.

Plote a densidade

Compute a densidade em uma tabela de pontos e mostre os locais dos modos com estrelas vermelhas. Cada modo na mistura fatorial corresponde a um par de modos da mistura subjacente de variável individual de gaussianas. Podemos ver 9 modos no gráfico abaixo, mas só precisamos de 6 parâmetros (3 para especificar os locais dos modos em x1x_1 e 3 para especificar os locais dos modos em x2x_2). Por outro lado, uma mistura de distribuições gaussianas no 2º espaço (x1,x2)(x_1, x_2) exigiria 2 * 9 = 18 parâmetros para especificar o 9 modos.

plt.figure(figsize=(6,5)) # Compute density. nx = 250 # Number of bins per dimension. x = np.linspace(-3 * sigma, 1 + 3 * sigma, nx).astype('float32') vals = tf.reshape(tf.stack(np.meshgrid(x, x), axis=2), (-1, num_vars, var_dim)) probs = factorial_mog.prob(vals).numpy().reshape(nx, nx) # Display as image. from matplotlib.colors import ListedColormap cmap = ListedColormap(sns.color_palette("Blues", 256)) p = plt.pcolor(x, x, probs, cmap=cmap) ax = plt.axis('tight'); # Plot locations of means. means_np = component_mean.numpy().squeeze() for mu_x in means_np[0]: for mu_y in means_np[1]: plt.scatter(mu_x, mu_y, s=150, marker='*', c='r', edgecolor='none'); plt.axis(ax); plt.xlabel('$x_1$') plt.ylabel('$x_2$') plt.title('Density of factorial mixture of Gaussians');
Image in a Jupyter notebook

Plote as amostras e as estimativas de densidades marginais

samples = factorial_mog.sample(1000).numpy() g = sns.jointplot( x=samples[:, 0, 0], y=samples[:, 1, 0], kind="scatter", marginal_kws=dict(bins=50)) g.set_axis_labels("$x_1$", "$x_2$");
Image in a Jupyter notebook