Saltar al contenido

Python scikit aprende MLPClassifier “hidden_layer_sizes”

Nuestro team de trabajo ha estado mucho tiempo investigando para darle respuesta a tu interrogante, te brindamos la respuestas de modo que nuestro deseo es resultarte de gran apoyo.

Solución:

hidden_layer_sizes=(7,) si desea solo 1 capa oculta con 7 unidades ocultas.

length = n_layers - 2 es porque tienes 1 capa de entrada y 1 capa de salida.

En los documentos:

hidden_layer_sizes: tupla, longitud = n_layers – 2, predeterminado (100,)

significa: hidden_layer_sizes es una tupla de tamaño (n_layers -2)

n_layers significa el número de capas que queremos según la arquitectura.

El valor 2 se resta de n_layers porque dos capas (entrada y salida) no forman parte de las capas ocultas, por lo que no pertenecen al recuento.

default(100,) significa que si no se proporciona ningún valor para hidden_layer_sizes, la arquitectura predeterminada tendrá una capa de entrada, una capa oculta con 100 unidades y una capa de salida.

De los documentos de nuevo:

El i-ésimo elemento representa el número de neuronas en la i-ésima capa oculta.

significa que cada entrada en la tupla pertenece a la capa oculta correspondiente.

Ejemplo :

  1. Para la arquitectura 56:25:11:7:5:3:1 con entrada 56 y 1 salida habrá capas ocultas (25:11:7:5:3). tan tupla hidden_layer_sizes = (25,11,7,5,3,)

  2. Para arquitectura 3:45:2:11:2 con entrada 3 y salida 2 las capas ocultas serán (45:2:11). tan tupla hidden_layer_sizes = (45,2,11,)

Sección de Reseñas y Valoraciones

Si conservas algún titubeo o capacidad de aclarar nuestro noticia te evocamos escribir una anotación y con mucho gusto lo observaremos.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *