Esta es la referencia de clase y función de scikit-learn. por favor refiérase a guía de usuario completa para obtener más detalles, ya que las especificaciones en bruto de la clase y la función pueden no ser suficientes para brindar pautas completas sobre sus usos. Para obtener referencia sobre conceptos repetidos en la API, consulte Glosario de términos comunes y elementos de API.
sklearn.base: clases base y funciones de utilidad
Clases base para todos los estimadores.
Clases base
|
Clase base para todos los estimadores en scikit-learn. |
|
Clase Mixin para todos los estimadores bicluster en scikit-learn. |
|
Clase Mixin para todos los clasificadores en scikit-learn. |
|
Clase Mixin para todos los estimadores de conglomerados en scikit-learn. |
|
Clase Mixin para todos los estimadores de densidad en scikit-learn. |
|
Clase Mixin para todos los estimadores de regresión en scikit-learn. |
|
Clase Mixin para todos los transformadores en scikit-learn. |
|
Transformador mixin que realiza la selección de características dada una máscara de soporte |
Funciones
|
Construye un estimador nuevo no ajustado con los mismos parámetros. |
|
Devuelve True si el estimador dado es (probablemente) un clasificador. |
|
Devuelve Verdadero si el estimador dado es (probablemente) un regresor. |
|
Administrador de contexto para la configuración global de scikit-learn |
|
Recuperar los valores actuales para la configuración establecida por |
|
Establecer la configuración global de scikit-learn |
|
Imprime información de depuración útil “ |
sklearn.calibration: Calibración de probabilidad
Calibración de probabilidades predichas.
Guía del usuario: Ver el Calibración de probabilidad sección para más detalles.
|
Calibración de probabilidad con regresión isotónica o regresión logística. |
|
Calcule las probabilidades verdaderas y pronosticadas para una curva de calibración. |
sklearn.cluster: Clustering
los sklearn.cluster
El módulo reúne algoritmos populares de agrupación en clústeres no supervisados.
Guía del usuario: Ver el Agrupación y Biclustering secciones para más detalles.
Clases
|
Realice la agrupación de datos por propagación de afinidad. |
|
Agrupación aglomerativa |
|
Implementa el algoritmo de agrupación en clústeres de Birch. |
|
Realice la agrupación en clústeres DBSCAN desde una matriz de vectores o una matriz de distancias. |
|
Características de los aglomerados. |
|
Agrupación de K-medias. |
|
Agrupación de K-medias de mini lotes. |
|
Agrupación de turnos medios utilizando un kernel plano. |
|
Estime la estructura de agrupamiento a partir de una matriz de vectores. |
|
Aplicar agrupamiento a una proyección del laplaciano normalizado. |
|
Biclustering espectral (Kluger, 2003). |
|
Algoritmo de agrupación conjunta espectral (Dhillon, 2001). |
Funciones
|
Realice la agrupación de datos por propagación de afinidad. |
|
Realiza la extracción DBSCAN para un épsilon arbitrario. |
|
Extraiga clústeres automáticamente de acuerdo con el método Xi-steep. |
|
Calcula el gráfico de accesibilidad de ÓPTICA. |
|
Realice la agrupación en clústeres DBSCAN desde una matriz de vectores o una matriz de distancias. |
|
Estime el ancho de banda que se utilizará con el algoritmo de desplazamiento medio. |
|
Algoritmo de agrupamiento de K-means. |
|
Init n_clusters semillas de acuerdo con k-means ++ |
|
Realice la agrupación de datos por turnos medios utilizando un kernel plano. |
|
Aplicar agrupamiento a una proyección del laplaciano normalizado. |
|
Agrupación de distritos basada en una matriz de características. |
sklearn.compose: Estimadores compuestos
Metaestimadores para la construcción de modelos compuestos con transformadores
Además de su contenido actual, este módulo eventualmente albergará versiones renovadas de Pipeline y FeatureUnion.
Guía del usuario: Ver el Pipelines y estimadores compuestos sección para más detalles.
|
Aplica transformadores a columnas de una matriz o pandas DataFrame. |
|
Metaestimador para retroceder en un objetivo transformado. |
|
Construya un ColumnTransformer a partir de los transformadores dados. |
|
Cree un invocable para seleccionar columnas que se utilizarán con |
sklearn.covariance: estimadores de covarianza
los sklearn.covariance
El módulo incluye métodos y algoritmos para estimar de manera robusta la covarianza de características dado un conjunto de puntos. También se estima la matriz de precisión definida como la inversa de la covarianza. La estimación de la covarianza está estrechamente relacionada con la teoría de los modelos gráficos gaussianos.
Guía del usuario: Ver el Estimación de covarianza sección para más detalles.
|
Estimador de covarianza de máxima verosimilitud |
|
Objeto para detectar valores atípicos en un conjunto de datos distribuidos de Gauss. |
|
Estimación de covarianza inversa escasa con un estimador penalizado por l1. |
|
Covarianza inversa escasa con elección con validación cruzada de la penalización l1. |
|
Estimador LedoitWolf |
|
Determinante de covarianza mínima (MCD): estimador robusto de covarianza. |
|
Estimador de contracción aproximado de Oracle |
|
Estimador de covarianza con contracción |
|
Calcula el estimador de covarianza de máxima verosimilitud |
|
estimador de covarianza con penalización l1 |
|
Estima la matriz de covarianza Ledoit-Wolf reducida. |
|
Estime la covarianza con el algoritmo de contracción aproximada de Oracle. |
|
Calcula una matriz de covarianza encogida en diagonal. |
sklearn.cross_decomposition: Descomposición cruzada
Guía del usuario: Ver el Descomposición cruzada sección para más detalles.
|
Análisis de correlación canónica, también conocido como PLS “Modo B”. |
|
Transformador y regresor de mínimos cuadrados parciales. |
|
Regresión PLS |
|
SVD de mínimos cuadrados parciales. |
sklearn.datasets: conjuntos de datos
los sklearn.datasets
El módulo incluye utilidades para cargar conjuntos de datos, incluidos métodos para cargar y recuperar conjuntos de datos de referencia populares. También cuenta con algunos generadores de datos artificiales.
Guía del usuario: Ver el Utilidades de carga de conjuntos de datos sección para más detalles.
Cargadores
|
Elimina todo el contenido de la caché de inicio de datos. |
|
Vierta el conjunto de datos en formato de archivo svmlight / libsvm. |
|
Cargue los nombres de archivo y los datos del conjunto de datos de 20 grupos de noticias (clasificación). |
|
Cargue y vectorice el conjunto de datos de 20 grupos de noticias (clasificación). |
|
Cargue el conjunto de datos de viviendas de California (regresión). |
|
Cargue el conjunto de datos covertype (clasificación). |
|
Cargue el conjunto de datos kddcup99 (clasificación). |
|
Cargue el conjunto de datos de pares de Caras etiquetadas en la naturaleza (LFW) (clasificación). |
|
Cargue el conjunto de datos de personas (clasificación) de Caras etiquetadas en la naturaleza (LFW). |
|
Cargue el conjunto de datos de caras de Olivetti de AT&T (clasificación). |
|
Obtener el conjunto de datos de openml por nombre o id del conjunto de datos. |
|
Cargue el conjunto de datos de varias etiquetas RCV1 (clasificación). |
|
Cargador para el conjunto de datos de distribución de especies de Phillips et. |
|
Devuelve la ruta del directorio de datos scikit-learn. |
|
Cargue y devuelva el conjunto de datos de precios de la vivienda de Boston (regresión). |
|
Cargue y devuelva el conjunto de datos de wisconsin de cáncer de mama (clasificación). |
|
Cargue y devuelva el conjunto de datos de diabetes (regresión). |
|
Cargue y devuelva el conjunto de datos de dígitos (clasificación). |
|
Cargue archivos de texto con categorías como nombres de subcarpetas. |
|
Cargue y devuelva el conjunto de datos del iris (clasificación). |
|
Cargue y devuelva el conjunto de datos de linnerud de ejercicio físico. |
|
Cargue la matriz numpy de una sola imagen de muestra |
|
Cargue imágenes de muestra para la manipulación de imágenes. |
|
Cargue conjuntos de datos en formato svmlight / libsvm en una matriz de CSR dispersa |
|
Cargue el conjunto de datos de varios archivos en formato SVMlight |
|
Cargue y devuelva el conjunto de datos del vino (clasificación). |
Generador de muestras
|
Genere una matriz con estructura diagonal de bloque constante para biclustering. |
|
Genere manchas gaussianas isotrópicas para la agrupación. |
|
Genere una matriz con estructura de tablero de ajedrez de bloques para biclustering. |
|
Haz un círculo grande que contenga un círculo más pequeño en 2d. |
|
Genere un problema de clasificación aleatorio de n clases. |
|
Genere el problema de regresión “Friedman # 1”. |
|
Genere el problema de regresión “Friedman # 2”. |
|
Genere el problema de regresión “Friedman # 3”. |
|
Genere muestras gaussianas isotrópicas y etiquete por cuantiles. |
|
Genera datos para la clasificación binaria utilizada en Hastie et al. |
|
Genere una matriz de rango mayormente bajo con valores singulares en forma de campana. |
|
Hacer dos entrelazado de semicírculos. |
|
Genere un problema de clasificación aleatorio de varias etiquetas. |
|
Genere un problema de regresión aleatoria. |
|
Genere un conjunto de datos de curva S. |
|
Genere una señal como una combinación dispersa de elementos del diccionario. |
|
Genere una matriz positiva definida simétrica dispersa. |
|
Genere un problema de regresión aleatoria con un diseño escaso no correlacionado. |
|
Genere una matriz definida positiva, simétrica aleatoria. |
|
Genere un conjunto de datos de rollo suizo. |
sklearn.decomposition: Descomposición de la matriz
los sklearn.decomposition
El módulo incluye algoritmos de descomposición matricial, incluidos, entre otros, PCA, NMF o ICA. La mayoría de los algoritmos de este módulo pueden considerarse técnicas de reducción de dimensionalidad.
Guía del usuario: Ver el Descomposición de señales en componentes (problemas de factorización matricial) sección para más detalles.
|
Aprendizaje de diccionario |
|
Análisis factorial (FA). |
|
FastICA: un algoritmo rápido para análisis de componentes independientes. |
|
Análisis incremental de componentes principales (IPCA). |
|
Análisis de componentes principales del kernel (KPCA). |
|
Asignación de Dirichlet latente con algoritmo de Bayes variacional en línea |
|
Aprendizaje de diccionario por mini lotes |
|
Análisis de componentes principales dispersos de mini lotes |
|
Factorización de matriz no negativa (NMF). |
|
Análisis de componentes principales (PCA). |
|
Análisis de componentes principales dispersos (SparsePCA). |
|
Codificación escasa |
|
Reducción de dimensionalidad utilizando SVD truncado (también conocido como LSA). |
|
Resuelve un problema de factorización de la matriz de aprendizaje del diccionario. |
|
Resuelve un problema de factorización de matrices de aprendizaje de diccionario en línea. |
|
Realice un análisis rápido de componentes independientes. |
|
Calcule la factorización matricial no negativa (NMF). |
|
Codificación escasa |
sklearn.discriminant_analysis: Análisis discriminante
Análisis discriminante lineal y análisis discriminante cuadrático
Guía del usuario: Ver el Análisis discriminante lineal y cuadrático sección para más detalles.
|
Análisis discriminante lineal |
|
Análisis discriminante cuadrático
sklearn.dummy: estimadores ficticios Guía del usuario: Ver el Métricas y puntuación: cuantificación de la calidad de las predicciones
|
) |
|
) |
DummyRegressor es un regresor que hace predicciones usando reglas simples.
sklearn.ensemble: métodos de conjunto sklearn.ensemble
los
El módulo incluye métodos basados en conjuntos para clasificación, regresión y detección de anomalías. Guía del usuario: Ver el Métodos de conjunto
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
|
) |
Árbol de clasificación de aumento de gradiente basado en histogramas.
sklearn.exceptions: Excepciones y advertencias sklearn.exceptions
los
|
El módulo incluye todas las advertencias personalizadas y las clases de error utilizadas en scikit-learn. |
|
Advertencia personalizada para capturar problemas de convergencia |
|
Advertencia utilizada para notificar conversiones de datos implícitas que ocurren en el código. |
|
Advertencia personalizada para notificar posibles problemas con la dimensionalidad de los datos. |
|
Advertencia utilizada para notificar al usuario de un cálculo ineficaz. |
|
Clase de advertencia utilizada si hay un error al ajustar el estimador. |
|
Clase de excepción para generar si se usa estimador antes del ajuste. |
Advertencia utilizada cuando la métrica no es válida
sklearn.experimental: Experimental sklearn.experimental
los
proporciona módulos importables que permiten el uso de funciones experimentales o estimadores.
Las funciones y los estimadores que son experimentales no están sujetos a ciclos de depreciación. ¡Úselos bajo su propio riesgo! |
|
Habilita estimadores de aumento de gradiente basados en histogramas. |
|
|
Habilita IterativeImputer |
Permite estimadores de búsqueda de reducción a la mitad sucesivos
sklearn.feature_extraction: Extracción de características sklearn.feature_extraction
los
El módulo se ocupa de la extracción de características a partir de datos sin procesar. Actualmente incluye métodos para extraer características de texto e imágenes. Guía del usuario: Ver el Extracción de características
|
) |
|
) |
Implementa el hash de funciones, también conocido como el truco de hash.
De imágenes sklearn.feature_extraction.image
los
|
(…) |
|
(n_x, n_y) |
|
(img, *) |
|
(…) |
|
) |
Extrae parches de una colección de imágenes.
De texto sklearn.feature_extraction.text
los
|
) |
|
|
|
Convertir una colección de documentos de texto en una matriz de ocurrencias de tokens |
|
Transformar una matriz de conteo en una representación tf o tf-idf normalizada |
(*
) sklearn.feature_selection
Convierta una colección de documentos sin procesar en una matriz de funciones TF-IDF.
sklearn.feature_selection: Selección de funciones los El módulo implementa algoritmos de selección de características. Actualmente incluye métodos de selección de filtros univariados y el algoritmo de eliminación de características recursivas. Guía del usuario:
|
sección para más detalles. |
|
Selector de funciones univariante con estrategia configurable. |
|
Seleccione características de acuerdo con un percentil de las puntuaciones más altas. |
|
Seleccione características de acuerdo con las k puntuaciones más altas. |
|
Filtro: seleccione los valores de p por debajo de alfa según una prueba FPR. |
|
) |
|
Metatransformador para seleccionar características basadas en pesos de importancia. |
|
) |
|
Transformador que realiza la selección secuencial de funciones. |
|
Clasificación de características con eliminación de características recursivas. |
|
Clasificación de características con eliminación de características recursivas y selección con validación cruzada del mejor número de características. |
|
) |
|
(X, y) |
|
Calcule el valor F de ANOVA para la muestra proporcionada. |
|
) |
|
(X, y, *) |
Estime la información mutua para una variable objetivo discreta.
(X, y, *) sklearn.gaussian_process
Estime la información mutua para una variable objetivo continua.
sklearn.gaussian_process: Procesos gaussianos los El módulo implementa la clasificación y regresión basadas en el Proceso Gaussiano. Guía del usuario:
|
sección para más detalles. |
|
Clasificación de procesos gaussianos (GPC) basada en la aproximación de Laplace. |
(
|
Regresión del proceso gaussiano (GPR). |
|
Núcleo que se compone de un conjunto de otros núcleos. |
|
Núcleo constante. |
|
Núcleo de producto escalar. |
|
) Kernel Exp-Sine-Squared (también conocido como kernel periódico). (…) |
|
(pag) |
|
(…) |
|
Clase base para todos los núcleos. |
|
Núcleo de matern. |
|
) |
|
y los combina a través de |
|
Núcleo de función de base radial (también conocido como núcleo exponencial al cuadrado). |
|
) y (k_2 ) y los combina vía |
|
Núcleo blanco. |
sklearn.impute: imputar
Transformadores para imputación de valor faltante
Guía del usuario: Ver el Imputación de valores perdidos sección para más detalles.
|
Transformador de imputación para completar valores perdidos. |
|
Impresora multivariante que estima cada característica de todas las demás. |
|
Indicadores binarios de valores perdidos. |
|
Imputación por completar valores perdidos usando k-Vecinos más cercanos. |
sklearn.inspection: Inspección
los sklearn.inspection
El módulo incluye herramientas para la inspección del modelo.
|
Dependencia parcial de |
|
Importancia de la permutación para la evaluación de características [Rd9e56ef97513-BRE]. |
Graficado
|
Gráfico de dependencia parcial (PDP). |
|
Gráficos de dependencia parcial (PD) y expectativa condicional individual (ICE). |
sklearn.isotonic: regresión isotónica
Guía del usuario: Ver el Regresión isotónica sección para más detalles.
|
Modelo de regresión isotónica. |
|
Determine si y está correlacionado monótonamente con x. |
|
Resuelve el modelo de regresión isotónica. |
sklearn.kernel_approximation: aproximación del kernel
los sklearn.kernel_approximation
El módulo implementa varios mapas de características del kernel aproximados basados en transformadas de Fourier y Count Sketches.
Guía del usuario: Ver el Aproximación de kernel sección para más detalles.
|
|
|
) |
|
|
|
(* |
|
(* |
)
Aproxima el mapa de características del núcleo de “chi-cuadrado sesgado” mediante la aproximación de Monte Carlo de su transformada de Fourier. sklearn.kernel_ridge
sklearn.kernel_ridge: regresión de la cresta del kernel
Módulo implementa la regresión de la cresta del kernel. Guía del usuario: Ver el
|
( |
)
Regresión de la cresta del kernel. sklearn.linear_model
sklearn.linear_model: Modelos lineales
los El módulo implementa una variedad de modelos lineales. Guía del usuario: Ver el
Modelos lineales
sección para más detalles.
|
( |
|
(* |
|
Clasificador de CV de regresión logística (también conocido como logit, MaxEnt). |
|
Clasificador pasivo agresivo (*) |
|
. |
|
Clasificador mediante regresión de Ridge. |
|
Clasificador de crestas con validación cruzada incorporada. |
(
|
Regresores lineales clásicos |
|
Regresión lineal por mínimos cuadrados ordinarios. |
|
Mínimos cuadrados lineales con regularización l2. |
|
Regresión de crestas con validación cruzada incorporada. |
(
) SGDRegressor
Modelo lineal ajustado minimizando una pérdida empírica regularizada con SGD SGDClassifier
Regresores con selección de variables
|
con una penalización apropiada. |
|
Regresión lineal con anteriores combinados L1 y L2 como regularizador. |
|
Modelo de Elastic Net con ajuste iterativo a lo largo de una ruta de regularización. |
|
Modelo de regresión de ángulo mínimo también conocido como |
|
Modelo de regresión de ángulo mínimo con validación cruzada. |
|
Modelo lineal entrenado con L1 antes como regularizador (también conocido como Lazo) |
|
Modelo lineal de lazo con ajuste iterativo a lo largo de una ruta de regularización. |
|
Ajuste del modelo de lazo con regresión de ángulo mínimo también conocido como |
|
Lasso con validación cruzada, utilizando el algoritmo LARS. |
|
Ajuste del modelo de lazo con Lars usando BIC o AIC para la selección del modelo |
|
) |
Modelo Ortogonal Matching Pursuit (OMP).
|
Modelo de búsqueda de correspondencia ortogonal (OMP) con validación cruzada. |
|
) |
Regresión bayesiana de ARD.
(*
|
Regresores lineales multitarea con selección de variables |
|
) |
|
) |
|
) |
Modelo de lazo multitarea entrenado con norma mixta L1 / L2 como regularizador.
(* SGDRegressor
) loss="huber"
Modelo de lazo multitarea entrenado con norma mixta L1 / L2 como regularizador.
|
con |
|
) |
|
) |
Algoritmo RANSAC (consenso de muestras de RANdom).
(*
|
Modelos lineales generalizados (GLM) para regresión |
|
) |
|
) |
Modelo lineal generalizado con distribución Tweedie.
|
Modelo lineal generalizado con distribución gamma. |
|
) |
|
) [1] |
|
(X, y [1] |
|
(Xy, Gram, *,…) |
|
) |
|
(X, y, * |
|
Persecución ortogonal a juego (OMP). |
(Gramo, Xy, *)
Persecución de emparejamiento ortogonal de Gram (OMP). sklearn.manifold
(X, y, alfa, *)
Resuelve la ecuación de la cresta por el método de ecuaciones normales. sklearn.manifold: aprendizaje múltiple los El módulo implementa técnicas de incrustación de datos.
|
Aprendizaje múltiple |
|
) |
|
) |
|
) |
|
) |
|
( |
|
(X, *, …) |
|
) |
|
) |
Proyecte la muestra en los primeros vectores propios del gráfico Laplaciano.
(X, X_incrustado, * ) Expresa en qué medida se conserva la estructura local. sklearn.metrics: métricas Ver el
Métricas y puntuación: cuantificación de la calidad de las predicciones sklearn.metrics
sección y la
Métricas por pares, afinidades y kernels
sección de la guía del usuario para obtener más detalles. los El módulo incluye funciones de puntuación, métricas de rendimiento y métricas por pares y cálculos de distancia.
|
El parámetro de puntuación: definición de reglas de evaluación del modelo |
|
(estimador |
|
(puntuación) |
Consigue un anotador de cuerda.
(puntuación_func, * ) Haga un anotador a partir de una métrica de rendimiento o una función de pérdida.
|
Métricas de clasificación |
|
(y_verdadero, y_pred, * |
|
Puntaje de clasificación de precisión. |
|
Calcule el área bajo la curva (AUC) usando la regla trapezoidal. |
|
Calcule la precisión promedio (AP) a partir de las puntuaciones de predicción. |
|
Calcule la precisión equilibrada. |
|
(y_verdadero, y_pred, *) |
|
(y1, y2, * |
|
(y_verdadero, y_pred, *) |
|
) |
|
) |
|
(y_verdadero, y_pred, * |
|
(y_verdadero, y_pred, *, beta) |
|
(y_verdadero, y_pred, * |
|
(y_verdadero, pred_decision, *) |
(y_verdadero, y_pred, * ) Puntaje del coeficiente de similitud de Jaccard. (y_verdadero, y_pred, *[, eps, …]) |
Pérdida de registros, también conocida como pérdida logística o pérdida de entropía cruzada. |
|
Calcule el coeficiente de correlación de Matthews (MCC). |
|
Calcule una matriz de confusión para cada clase o muestra. |
|
Calcule la ganancia acumulada descontada normalizada. |
|
Calcule pares de recuperación de precisión para diferentes umbrales de probabilidad. |
|
Calcule la precisión, la recuperación, la medición F y el soporte para cada clase. |
|
Calcule la precisión. |
|
Calcule la recuperación. |
|
Calcule el área bajo la curva de características operativas del receptor (ROC AUC) a partir de las puntuaciones de predicción. |
|
Calcular la característica de funcionamiento del receptor (ROC). |
|
Puntaje de clasificación de precisión Top-k. |
|
Pérdida de clasificación cero-uno. |
Métricas de regresión
Ver el Métricas de regresión sección de la guía del usuario para obtener más detalles.
|
Función de puntuación de regresión de varianza explicada. |
|
La métrica max_error calcula el error residual máximo. |
|
Pérdida de regresión del error absoluto medio. |
|
Pérdida de regresión del error cuadrático medio. |
|
Pérdida de regresión de error logarítmico cuadrático medio. |
|
Mediana de la pérdida de regresión del error absoluto. |
|
Pérdida de regresión de error porcentual absoluto medio. |
|
Función de puntuación de regresión R ^ 2 (coeficiente de determinación). |
|
Pérdida media de regresión de la desviación de Poisson. |
|
Pérdida de regresión de la desviación gamma media. |
|
Pérdida media de regresión de la desviación de Tweedie. |
Métricas de clasificación de múltiples etiquetas
Ver el Métricas de clasificación de múltiples etiquetas sección de la guía del usuario para obtener más detalles.
|
Medida de error de cobertura. |
|
Calcule la precisión promedio basada en la clasificación. |
|
Calcular medida de pérdida de clasificación. |
Métricas de agrupamiento
Ver el Evaluación del desempeño de la agrupación en clústeres sección de la guía del usuario para obtener más detalles.
los sklearn.metrics.cluster
El submódulo contiene métricas de evaluación para los resultados del análisis de conglomerados. Hay dos formas de evaluación:
- supervisado, que utiliza valores de clase de verdad fundamental para cada muestra.
- sin supervisión, que no lo hace y mide la ‘calidad’ del modelo en sí.
|
Información mutua ajustada entre dos agrupaciones. |
|
Índice de Rand ajustado al azar. |
|
Calcule la puntuación de Calinski y Harabasz. |
|
Calcula la puntuación de Davies-Bouldin. |
|
Métrica de completitud de un etiquetado de clúster dada una verdad básica. |
|
Construya una matriz de contingencia que describa la relación entre etiquetas. |
|
Matriz de confusión de pares que surge de dos agrupamientos. |
|
Mide la similitud de dos agrupaciones de un conjunto de puntos. |
|
Calcule la homogeneidad y la completitud y las puntuaciones de V-Measure a la vez. |
|
Métrica de homogeneidad de un etiquetado de clúster dada una verdad fundamental. |
|
Información mutua entre dos agrupaciones. |
|
Información mutua normalizada entre dos agrupaciones. |
|
Índice rand. |
|
Calcule el coeficiente de silueta medio de todas las muestras. |
|
Calcule el coeficiente de silueta para cada muestra. |
|
El etiquetado de clústeres de medida V tiene una verdad fundamental. |
Métricas de biclustering
Ver el Evaluación de biclustering sección de la guía del usuario para obtener más detalles.
|
La similitud de dos conjuntos de biclusters. |
Métricas por pares
Ver el Métricas por pares, afinidades y kernels sección de la guía del usuario para obtener más detalles.
|
Calcula el núcleo de chi-cuadrado aditivo entre observaciones en X e Y. |
|
Calcula el núcleo de chi-cuadrado exponencial X e Y. |
|
Calcule la similitud de coseno entre muestras en X e Y. |
|
Calcule la distancia del coseno entre las muestras en X e Y. |
|
Métricas válidas para pairwise_distances. |
|
Considerando las filas de X (e Y = X) como vectores, calcule la matriz de distancias entre cada par de vectores. |
|
Calcule la distancia de Haversine entre muestras en X e Y. |
|
Métricas válidas para pairwise_kernels. |
|
Calcule el núcleo laplaciano entre X e Y. |
|
Calcule el núcleo lineal entre X e Y. |
|
Calcule las distancias L1 entre los vectores en X e Y. |
|
Calcule las distancias euclidianas en presencia de valores perdidos. |
|
Calcule el núcleo entre las matrices X y la matriz opcional Y. |
|
Calcule el núcleo del polinomio entre X e Y. |
|
Calcule el kernel rbf (gaussiano) entre X e Y. |
|
Calcule el núcleo sigmoide entre X e Y. |
|
Calcula las distancias euclidianas emparejadas entre X e Y. |
|
Calcule las distancias L1 entre los vectores en X e Y. |
|
Calcula las distancias de coseno emparejadas entre X e Y. |
|
Calcula las distancias pareadas entre X e Y. |
|
Calcule la matriz de distancias a partir de una matriz de vectores X y una Y opcional. |
|
Calcule las distancias mínimas entre un punto y un conjunto de puntos. |
|
Calcule las distancias mínimas entre un punto y un conjunto de puntos. |
|
Genere una matriz de distancia fragmento a fragmento con reducción opcional. |
Graficado
Ver el Visualizaciones sección de la guía del usuario para obtener más detalles.
|
Trazar matriz de confusión. |
|
Trace la curva de compensación de errores de detección (DET). |
|
Trazar la curva de recuperación de precisión para clasificadores binarios. |
|
Trazar la curva característica de funcionamiento del receptor (ROC). |
|
Visualización de matriz de confusión. |
|
Visualización de la curva DET. |
|
Visualización de Precision Recall. |
|
Visualización de la curva ROC. |
sklearn.mixture: Modelos de mezcla gaussiana
los sklearn.mixture
El módulo implementa algoritmos de modelado de mezclas.
Guía del usuario: Ver el Modelos de mezcla gaussiana sección para más detalles.
|
Estimación bayesiana variacional de una mezcla gaussiana. |
|
Mezcla gaussiana. |
sklearn.model_selection: Selección de modelo
Guía del usuario: Ver el Validación cruzada: evaluación del desempeño del estimador, Ajuste de los hiperparámetros de un estimador y Curva de aprendizaje secciones para más detalles.
Clases de divisores
|
Variante de iterador de K-fold con grupos no superpuestos. |
|
Shuffle-Group (s) -Out iterador de validación cruzada |
|
Validador cruzado de K-Folds |
|
Validación cruzada de dejar un grupo fuera |
|
Dejar fuera el validador cruzado del (los) grupo (s) P |
|
Validador cruzado Leave-One-Out |
|
Validador cruzado Leave-P-Out |
|
Validador cruzado dividido predefinido |
|
Validador cruzado repetido de K-Fold. |
|
Validador cruzado repetido estratificado en K-Fold. |
|
Validador cruzado de permutación aleatoria |
|
Validador cruzado de K-Folds estratificado. |
|
Validador cruzado ShuffleSplit estratificado |
|
Validador cruzado de series temporales |
Funciones del divisor
|
Utilidad de verificación de entrada para construir un validador cruzado |
|
Dividir matrices o matrices en subconjuntos de prueba y tren aleatorio |
Optimizadores de hiperparámetros
|
Búsqueda exhaustiva de valores de parámetros especificados para un estimador. |
|
Busque valores de parámetros especificados con reducciones sucesivas a la mitad. |
|
Cuadrícula de parámetros con un número discreto de valores para cada uno. |
|
Generador de parámetros muestreados a partir de distribuciones dadas. |
|
Búsqueda aleatoria de hiperparámetros. |
|
Búsqueda aleatoria de hiperparámetros. |
Modelo de validación
|
Evalúe la (s) métrica (s) mediante validación cruzada y también registre los tiempos de ajuste / puntuación. |
|
Genere estimaciones con validación cruzada para cada punto de datos de entrada |
|
Evaluar una puntuación mediante validación cruzada |
|
Curva de aprendizaje. |
|
Evaluar la importancia de una puntuación con validación cruzada con permutaciones |
|
Curva de validación. |
sklearn.multiclass: clasificación multiclase
Estrategias de clasificación multiclase
- Este módulo implementa algoritmos de aprendizaje multiclase:
-
- uno contra el resto / uno contra todos
- uno contra uno
- error al corregir códigos de salida
Los estimadores proporcionados en este módulo son metaestimadores: requieren que se proporcione un estimador base en su constructor. Por ejemplo, es posible utilizar estos estimadores para convertir un clasificador binario o un regresor en un clasificador multiclase. También es posible utilizar estos estimadores con estimadores multiclase con la esperanza de que mejore su precisión o rendimiento en tiempo de ejecución.
Todos los clasificadores de scikit-learn implementan una clasificación multiclase; solo necesita usar este módulo si desea experimentar con estrategias multiclase personalizadas.
El metaclasificador de uno contra el resto también implementa un predict_proba
método, siempre que dicho método sea implementado por el clasificador base. Este método devuelve probabilidades de pertenencia a una clase tanto en el caso de etiqueta única como en el de etiquetas múltiples. Tenga en cuenta que en el caso de varias etiquetas, las probabilidades son la probabilidad marginal de que una muestra dada caiga en la clase dada. Como tal, en el caso de múltiples etiquetas, la suma de estas probabilidades sobre todas las etiquetas posibles para una muestra dada no suma a la unidad, como lo hacen en el caso de etiqueta única.
Guía del usuario: Ver el Clasificación multiclase sección para más detalles.
|
Estrategia multiclase de uno contra el resto (OvR). |
|
Estrategia multiclase uno contra uno |
|
(Corrección de errores) Estrategia multiclase de código de salida |
sklearn.multioutput: regresión y clasificación de múltiples salidas
Este módulo implementa regresión y clasificación de múltiples salidas.
Los estimadores proporcionados en este módulo son metaestimadores: requieren que se proporcione un estimador base en su constructor. El metaestimador extiende los estimadores de salida única a los estimadores de salida múltiple.
Guía del usuario: Ver el Clasificación de múltiples etiquetas, Clasificación multiclase-multisalida, y Regresión de múltiples salidas secciones para más detalles.
|
Un modelo de etiquetas múltiples que organiza clasificadores binarios en una cadena. |
|
Regresión de múltiples objetivos |
|
Clasificación de objetivos múltiples |
|
Un modelo de etiquetas múltiples que organiza regresiones en una cadena. |
sklearn.naive_bayes: Bayes ingenuo
los sklearn.naive_bayes
El módulo implementa algoritmos Naive Bayes. Estos son métodos de aprendizaje supervisado basados en la aplicación del teorema de Bayes con suposiciones sólidas (ingenuas) de independencia de características.
Guía del usuario: Ver el Bayes ingenuo sección para más detalles.
|
Clasificador Naive Bayes para modelos Bernoulli multivariados. |
|
Clasificador Naive Bayes para características categóricas |
|
El clasificador de Complement Naive Bayes descrito en Rennie et al. |
|
Bayes ingenuo gaussiano (GaussianNB) |
|
Clasificador Naive Bayes para modelos multinomiales |
sklearn.neighbors: Vecinos más cercanos
los sklearn.neighbors
El módulo implementa el algoritmo de los k vecinos más cercanos.
Guía del usuario: Ver el Vecinos mas cercanos sección para más detalles.
|
BallTree para problemas rápidos generalizados de puntos N |
|
Clase DistanceMetric |
|
KDTree para problemas rápidos generalizados de N-point |
|
Estimación de la densidad del grano. |
|
Clasificador que implementa el voto de los k vecinos más cercanos. |
|
Regresión basada en k vecinos más cercanos. |
|
Transforma X en una gráfica (ponderada) de k vecinos más cercanos |
|
Detección de valores atípicos no supervisados mediante el factor de valores atípicos locales (LOF) |
|
Clasificador que implementa un voto entre vecinos dentro de un radio determinado |
|
Regresión basada en vecinos dentro de un radio fijo. |
|
Transforma X en un gráfico (ponderado) de vecinos más cercanos que un radio |
|
Clasificador de centroide más cercano. |
|
Alumno sin supervisión para implementar búsquedas de vecinos. |
|
Análisis de componentes de vecindario |
|
Calcula la gráfica (ponderada) de k-Vecinos para puntos en X |
|
Calcula la gráfica (ponderada) de Vecinos para puntos en X |
sklearn.neural_network: modelos de redes neuronales
los sklearn.neural_network
El módulo incluye modelos basados en redes neuronales.
Guía del usuario: Ver el Modelos de redes neuronales (supervisadas) y Modelos de redes neuronales (sin supervisión) secciones para más detalles.
|
Máquina de Boltzmann restringida Bernoulli (RBM). |
|
Clasificador de perceptrón multicapa. |
|
Regresor de perceptrón multicapa. |
sklearn.pipeline: Pipeline
los sklearn.pipeline
El módulo implementa utilidades para construir un estimador compuesto, como una cadena de transformadas y estimadores.
Guía del usuario: Ver el Pipelines y estimadores compuestos sección para más detalles.
|
Concatena los resultados de varios objetos transformadores. |
|
Pipeline de transformaciones con un estimador final. |
|
Construya una tubería a partir de los estimadores dados. |
|
Construya un FeatureUnion a partir de los transformadores dados. |
sklearn.preprocessing: preprocesamiento y normalización
los sklearn.preprocessing
El módulo incluye métodos de escalado, centrado, normalización y binarización.
Guía del usuario: Ver el Procesamiento previo de datos sección para más detalles.
|
Binarizar datos (establecer valores de características en 0 o 1) de acuerdo con un umbral. |
|
Construye un transformador a partir de un invocable arbitrario. |
|
Agrupe los datos continuos en intervalos. |
|
Centre una matriz de granos. |
|
Binarice las etiquetas de una manera “uno contra todos”. |
|
Codifique las etiquetas de destino con un valor entre 0 y n_classes-1. |
|
Transfórmese entre iterable de iterables y un formato de múltiples etiquetas. |
|
Escale cada característica por su valor absoluto máximo. |
|
Transforme las características escalando cada característica a un rango determinado. |
|
Normalice las muestras individualmente a la norma de la unidad. |
|
Codifique características categóricas como una matriz numérica de un solo uso. |
|
Codifique características categóricas como una matriz de números enteros. |
|
Genere características polinomiales y de interacción. |
|
Aplique una transformación de potencia en función de las características para hacer que los datos sean más parecidos a los de Gauss. |
|
Transforma características usando información de cuantiles. |
|
Escale características usando estadísticas que sean robustas a valores atípicos. |
|
Estandarice las características eliminando la media y escalando a la varianza de la unidad |
|
Aumente el conjunto de datos con una función ficticia adicional. |
|
Umbral booleano de matriz en forma de matriz o scipy.sparse. |
|
Binarice las etiquetas de una manera “uno contra todos”. |
|
Escale cada característica al [-1, 1] rango sin romper la escasez. |
|
Transforme las características escalando cada característica a un rango determinado. |
|
Escale los vectores de entrada individualmente a la norma unitaria (longitud del vector). |
|
Transforma características usando información de cuantiles. |
|
Estandarizar un conjunto de datos a lo largo de cualquier eje |
|
Estandarice un conjunto de datos a lo largo de cualquier eje. |
|
Las transformaciones de potencia son una familia de transformaciones paramétricas y monótonas que se aplican para hacer que los datos sean más parecidos a los de Gauss. |
sklearn.random_projection: Proyección aleatoria
Transformadores de proyección aleatoria.
Las proyecciones aleatorias son una forma simple y computacionalmente eficiente de reducir la dimensionalidad de los datos intercambiando una cantidad controlada de precisión (como variación adicional) por tiempos de procesamiento más rápidos y tamaños de modelo más pequeños.
Las dimensiones y la distribución de las matrices de proyecciones aleatorias se controlan para preservar las distancias por pares entre dos muestras cualesquiera del conjunto de datos.
El principal resultado teórico detrás de la eficiencia de la proyección aleatoria es el Lema de Johnson-Lindenstrauss (citando Wikipedia):
En matemáticas, el lema de Johnson-Lindenstrauss es el resultado de incrustaciones de puntos de baja distorsión desde el espacio euclidiano de alta dimensión al espacio euclidiano de baja dimensión. El lema establece que un pequeño conjunto de puntos en un espacio de alta dimensión puede incrustarse en un espacio de dimensión mucho más baja de tal manera que las distancias entre los puntos se conserven casi por completo. El mapa utilizado para la incrustación es al menos Lipschitz, e incluso puede tomarse como una proyección ortogonal.
Guía del usuario: Ver el Proyección aleatoria sección para más detalles.
|
Reducir la dimensionalidad a través de la proyección aleatoria gaussiana. |
|
Reduzca la dimensionalidad a través de una proyección aleatoria dispersa. |
|
Encuentre un número ‘seguro’ de componentes para proyectar al azar. |
sklearn.semi_supervised: Aprendizaje semi-supervisado
los sklearn.semi_supervised
El módulo implementa algoritmos de aprendizaje semi-supervisados. Estos algoritmos utilizan pequeñas cantidades de datos etiquetados y grandes cantidades de datos no etiquetados para tareas de clasificación. Este módulo incluye la propagación de etiquetas.
Guía del usuario: Ver el Aprendizaje semi-supervisado sección para más detalles.
|
Clasificador de propagación de etiquetas |
|
Modelo LabelSpreading para aprendizaje semi-supervisado |
|
Clasificador de autoformación. |
sklearn.svm: Máquinas vectoriales de soporte
los sklearn.svm
El módulo incluye algoritmos de Support Vector Machine.
Guía del usuario: Ver el Máquinas de vectores de soporte sección para más detalles.
Estimadores
|
Clasificación de vectores de soporte lineal. |
|
Regresión de vectores de soporte lineal. |
|
Vector de Nu-Support Clasificación. |
|
Regresión de vectores de soporte de Nu. |
|
Detección de valores atípicos sin supervisión. |
|
Clasificación de vectores de soporte C. |
|
Regresión de vectores con soporte de épsilon. |
|
Devuelve el límite más bajo para C de modo que para C en (l1_min_C, infinito) se garantiza que el modelo no estará vacío. |
sklearn.tree: árboles de decisión
los sklearn.tree
El módulo incluye modelos basados en árboles de decisión para clasificación y regresión.
Guía del usuario: Ver el Árboles de decisión sección para más detalles.
|
Un clasificador de árbol de decisión. |
|
Un regresor de árbol de decisión. |
|
Un clasificador de árboles extremadamente aleatorio. |
|
Un regresor de árbol extremadamente aleatorio. |
|
Exportar un árbol de decisiones en formato DOT. |
|
Cree un informe de texto que muestre las reglas de un árbol de decisiones. |
Graficado
|
Trace un árbol de decisiones. |
sklearn.utils: Utilidades
los sklearn.utils
El módulo incluye varias utilidades.
Guía para desarrolladores: Ver el Utilidades para desarrolladores página para más detalles.
|
Encuentra el valor mínimo de una matriz sobre valores positivos |
|
Convierte una matriz similar a una matriz de flotantes. |
|
Lanza un ValueError si X contiene NaN o infinito. |
|
Objeto contenedor que expone claves como atributos. |
|
Validación de entrada para estimadores estándar. |
|
Validación de entrada en una matriz, lista, matriz dispersa o similar. |
|
Validar el tipo y valor de los parámetros escalares. |
|
Verifique que todas las matrices tengan primeras dimensiones consistentes. |
|
Convierta la semilla en una instancia np.random.RandomState |
|
Estime las ponderaciones de clase para conjuntos de datos no balanceados. |
|
Estime los pesos de la muestra por clase para conjuntos de datos no balanceados. |
|
Decorador para marcar una función o clase como obsoleta. |
|
Compruebe si el estimador se adhiere a las convenciones de scikit-learn. |
|
Decorador específico de Pytest para parametrizar comprobaciones de estimadores. |
|
Cree una representación HTML de un estimador. |
|
Producto escalar que maneja correctamente la caja de matriz dispersa. |
|
Calcula una matriz ortonormal cuyo rango se aproxima al rango de A. |
|
Calcula una SVD aleatoria truncada. |
|
Calcule log (det (A)) para A simétrico. |
|
Calcule la densidad de un vector disperso. |
|
Devuelve una matriz del valor modal ponderado (más común) en a. |
|
Generador para crear n_packs porciones que van hasta n. |
|
Devuelve la longitud de ruta más corta desde el origen hasta todos los nodos accesibles. |
|
Realice una búsqueda de gráfico de ruta más corta en un gráfico dirigido o no dirigido positivo. |
|
Haga que las matrices sean indexables para la validación cruzada. |
|
Cree un decorador para los métodos que se delegan a un subestimador |
|
Determine el tipo de datos indicados por el objetivo. |
|
Comprobar si |
|
Extraiga una matriz ordenada de etiquetas únicas. |
|
Calcule el murmurhash3 de 32 bits de la clave en la semilla. |
|
Vuelva a muestrear matrices o matrices dispersas de forma coherente. |
|
Devuelve filas, elementos o columnas de X utilizando índices. |
|
Devuelva una máscara que sea segura para usar en X. |
|
Cuadrado de elementos de tipo arreglo y matrices dispersas. |
|
Mezcle matrices o matrices dispersas de forma coherente. |
|
Calcule la media incremental y la varianza a lo largo de un eje en una matriz CSR o CSC. |
|
Escalado de columna in situ de una matriz CSC / CSR. |
|
Escalado de filas in situ de una matriz CSR o CSC. |
|
Intercambia dos filas de una matriz CSC / CSR in situ. |
|
Intercambia dos columnas de una matriz CSC / CSR in situ. |
|
Calcule la media y la varianza a lo largo de un eje en una matriz CSR o CSC. |
|
Escalado de columna in situ de una matriz de CSR. |
|
Normalizar fila en el lugar usando la norma l1 |
|
Normalización de filas en el lugar usando la norma l2 |
|
Muestra enteros sin reemplazo. |
|
Realice la validación is_fitted para el estimador. |
|
Mira esto |
|
Asegúrese de que la matriz sea 2D, cuadrada y simétrica. |
|
Columna Ravel o matriz numpy 1d, de lo contrario genera un error. |
|
Comprueba si el método de ajuste del estimador es compatible con el parámetro dado. |
|
Obtenga una lista de todos los estimadores de sklearn. |
Utilidades de joblib:
|
Cambie el backend predeterminado utilizado por Parallel dentro de un bloque with. |
|
Registre una nueva fábrica de backend de Parallel. |