Ver fuente en GitHub

Aplica Dropout a la entrada.

Hereda de: Layer, Module

Ver alias

Alias ​​de compatibilidad para la migración

Ver Guía de migración para más detalles.

tf.compat.v1.keras.layers.Dropout

tf.keras.layers.Dropout(
    rate, noise_shape=None, seed=None,**kwargs
)

La capa Dropout establece aleatoriamente las unidades de entrada en 0 con una frecuencia de rate en cada paso durante el tiempo de entrenamiento, lo que ayuda a prevenir el sobreajuste. Las entradas que no se establecen en 0 se escalan en 1/(1 – tasa) de modo que la suma de todas las entradas no cambia.

Tenga en cuenta que la capa Dropout solo se aplica cuando training se establece en True de modo que no se eliminen valores durante la inferencia. Cuando usas model.fit, training se establecerá correctamente en True automáticamente y, en otros contextos, puede establecer el kwarg explícitamente en True al llamar a la capa.

(Esto contrasta con la configuración trainable=False para una capa de abandono. trainable no afecta el comportamiento de la capa, ya que Dropout no tiene variables/pesos que se puedan congelar durante el entrenamiento).

tf.random.set_seed(0)
layer = tf.keras.layers.Dropout(.2, input_shape=(2,))
data = np.arange(10).reshape(5,2).astype(np.float32)print(data)[[0.1.][2.3.][4.5.][6.7.][8.9.]]
outputs = layer(data, training=True)print(outputs)
tf.Tensor([[0.1.25][2.53.75][5.6.25][7.58.75][10.0.]], shape=(5,2), dtype=float32)
Argumentos
rate Flotante entre 0 y 1. Fracción de las unidades de entrada a eliminar.
noise_shape Tensor entero 1D que representa la forma de la máscara de exclusión binaria que se multiplicará con la entrada. Por ejemplo, si sus entradas tienen forma (batch_size, timesteps, features) y desea que la máscara de abandono sea la misma para todos los intervalos de tiempo, puede usar noise_shape=(batch_size, 1, features).
seed Un entero de Python para usar como semilla aleatoria.

Argumentos de llamada:

  • inputs: Tensor de entrada (de cualquier rango).
  • training: booleano de Python que indica si la capa debe comportarse en modo de entrenamiento (agregando abandono) o en modo de inferencia (sin hacer nada).