Si te encuentras con alguna parte que te causa duda puedes comentarlo y te ayudaremos tan rápido como podamos.
Ver fuente en GitHub |
Programador de tasas de aprendizaje.
Hereda de: Callback
Ver alias
Alias de compatibilidad para la migración
Ver Guía de migración para más detalles.
tf.keras.callbacks.LearningRateScheduler( schedule, verbose=0)
Al comienzo de cada época, esta devolución de llamada obtiene el valor actualizado de la tasa de aprendizaje de schedule
función proporcionada en __init__
con la época actual y la tasa de aprendizaje actual, y aplica la tasa de aprendizaje actualizada en el optimizador.
Argumentos | |
---|---|
schedule |
una función que toma un índice de época (entero, indexado desde 0) y la tasa de aprendizaje actual (flotante) como entradas y devuelve una nueva tasa de aprendizaje como salida (flotante). |
verbose |
En t. 0: tranquilo, 1: actualizar mensajes. |
Ejemplo:
# This function keeps the initial learning rate for the first ten epochs# and decreases it exponentially after that.defscheduler(epoch, lr):if epoch <10:return lr else:return lr * tf.math.exp(-0.1) model = tf.keras.models.Sequential([tf.keras.layers.Dense(10)]) model.compile(tf.keras.optimizers.SGD(), loss='mse')round(model.optimizer.lr.numpy(),5)0.01
callback = tf.keras.callbacks.LearningRateScheduler(scheduler) history = model.fit(np.arange(100).reshape(5,20), np.zeros(5), epochs=15, callbacks=[callback], verbose=0)round(model.optimizer.lr.numpy(),5)0.00607
Métodos
set_model
set_model( model )
set_params
set_params( params )
valoraciones y comentarios
Si conservas algún recelo y capacidad de aclararse nuestro artículo puedes realizar una glosa y con deseo lo observaremos.
¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)