Necesitamos tu ayuda para difundir nuestros enunciados referente a las ciencias informáticas.
Ver fuente en GitHub |
Aplica Dropout a la entrada.
Hereda de: Layer
, Module
Ver alias
Alias de compatibilidad para la migración
Ver Guía de migración para más detalles.
tf.keras.layers.Dropout( rate, noise_shape=None, seed=None,**kwargs )
La capa Dropout establece aleatoriamente las unidades de entrada en 0 con una frecuencia de rate
en cada paso durante el tiempo de entrenamiento, lo que ayuda a prevenir el sobreajuste. Las entradas que no se establecen en 0 se escalan en 1/(1 – tasa) de modo que la suma de todas las entradas no cambia.
Tenga en cuenta que la capa Dropout solo se aplica cuando training
se establece en True de modo que no se eliminen valores durante la inferencia. Cuando usas model.fit
, training
se establecerá correctamente en True automáticamente y, en otros contextos, puede establecer el kwarg explícitamente en True al llamar a la capa.
(Esto contrasta con la configuración trainable=False
para una capa de abandono. trainable
no afecta el comportamiento de la capa, ya que Dropout no tiene variables/pesos que se puedan congelar durante el entrenamiento).
tf.random.set_seed(0) layer = tf.keras.layers.Dropout(.2, input_shape=(2,)) data = np.arange(10).reshape(5,2).astype(np.float32)print(data)[[0.1.][2.3.][4.5.][6.7.][8.9.]] outputs = layer(data, training=True)print(outputs) tf.Tensor([[0.1.25][2.53.75][5.6.25][7.58.75][10.0.]], shape=(5,2), dtype=float32)
Argumentos | |
---|---|
rate |
Flotante entre 0 y 1. Fracción de las unidades de entrada a eliminar. |
noise_shape |
Tensor entero 1D que representa la forma de la máscara de exclusión binaria que se multiplicará con la entrada. Por ejemplo, si sus entradas tienen forma (batch_size, timesteps, features) y desea que la máscara de abandono sea la misma para todos los intervalos de tiempo, puede usar noise_shape=(batch_size, 1, features) . |
seed |
Un entero de Python para usar como semilla aleatoria. |
Argumentos de llamada:
inputs
: Tensor de entrada (de cualquier rango).training
: booleano de Python que indica si la capa debe comportarse en modo de entrenamiento (agregando abandono) o en modo de inferencia (sin hacer nada).
Aquí tienes las reseñas y valoraciones
Al final de todo puedes encontrar las aclaraciones de otros programadores, tú incluso tienes la opción de dejar el tuyo si dominas el tema.