Esta es la referencia de clase y función de scikit-learn. por favor refiérase a guía de usuario completa para obtener más detalles, ya que las especificaciones en bruto de la clase y la función pueden no ser suficientes para brindar pautas completas sobre sus usos. Para obtener referencia sobre conceptos repetidos en la API, consulte Glosario de términos comunes y elementos de API.

sklearn.base: clases base y funciones de utilidad

Clases base para todos los estimadores.

Clases base

base.BaseEstimator

Clase base para todos los estimadores en scikit-learn.

base.BiclusterMixin

Clase Mixin para todos los estimadores bicluster en scikit-learn.

base.ClassifierMixin

Clase Mixin para todos los clasificadores en scikit-learn.

base.ClusterMixin

Clase Mixin para todos los estimadores de conglomerados en scikit-learn.

base.DensityMixin

Clase Mixin para todos los estimadores de densidad en scikit-learn.

base.RegressorMixin

Clase Mixin para todos los estimadores de regresión en scikit-learn.

base.TransformerMixin

Clase Mixin para todos los transformadores en scikit-learn.

feature_selection.SelectorMixin

Transformador mixin que realiza la selección de características dada una máscara de soporte

Funciones

base.clone(estimador, *[, safe])

Construye un estimador nuevo no ajustado con los mismos parámetros.

base.is_classifier(estimador)

Devuelve True si el estimador dado es (probablemente) un clasificador.

base.is_regressor(estimador)

Devuelve Verdadero si el estimador dado es (probablemente) un regresor.

config_context(** new_config)

Administrador de contexto para la configuración global de scikit-learn

get_config()

Recuperar los valores actuales para la configuración establecida por set_config

set_config([assume_finite, working_memory, …])

Establecer la configuración global de scikit-learn

show_versions()

Imprime información de depuración útil “

sklearn.calibration: Calibración de probabilidad

Calibración de probabilidades predichas.

Guía del usuario: Ver el Calibración de probabilidad sección para más detalles.

calibration.CalibratedClassifierCV([…])

Calibración de probabilidad con regresión isotónica o regresión logística.

calibration.calibration_curve(y_verdadero, y_prob, *)

Calcule las probabilidades verdaderas y pronosticadas para una curva de calibración.

sklearn.cluster: Clustering

los sklearn.cluster El módulo reúne algoritmos populares de agrupación en clústeres no supervisados.

Guía del usuario: Ver el Agrupación y Biclustering secciones para más detalles.

Clases

cluster.AffinityPropagation(*[, damping, …])

Realice la agrupación de datos por propagación de afinidad.

cluster.AgglomerativeClustering([…])

Agrupación aglomerativa

cluster.Birch(*[, threshold, …])

Implementa el algoritmo de agrupación en clústeres de Birch.

cluster.DBSCAN([eps, min_samples, metric, …])

Realice la agrupación en clústeres DBSCAN desde una matriz de vectores o una matriz de distancias.

cluster.FeatureAgglomeration([n_clusters, …])

Características de los aglomerados.

cluster.KMeans([n_clusters, init, n_init, …])

Agrupación de K-medias.

cluster.MiniBatchKMeans([n_clusters, init, …])

Agrupación de K-medias de mini lotes.

cluster.MeanShift(*[, bandwidth, seeds, …])

Agrupación de turnos medios utilizando un kernel plano.

cluster.OPTICS(*[, min_samples, max_eps, …])

Estime la estructura de agrupamiento a partir de una matriz de vectores.

cluster.SpectralClustering([n_clusters, …])

Aplicar agrupamiento a una proyección del laplaciano normalizado.

cluster.SpectralBiclustering([n_clusters, …])

Biclustering espectral (Kluger, 2003).

cluster.SpectralCoclustering([n_clusters, …])

Algoritmo de agrupación conjunta espectral (Dhillon, 2001).

Funciones

cluster.affinity_propagation(S, *[, …])

Realice la agrupación de datos por propagación de afinidad.

cluster.cluster_optics_dbscan(*,…)

Realiza la extracción DBSCAN para un épsilon arbitrario.

cluster.cluster_optics_xi(*, accesibilidad,…)

Extraiga clústeres automáticamente de acuerdo con el método Xi-steep.

cluster.compute_optics_graph(X, *, …)

Calcula el gráfico de accesibilidad de ÓPTICA.

cluster.dbscan(X[, eps, min_samples, …])

Realice la agrupación en clústeres DBSCAN desde una matriz de vectores o una matriz de distancias.

cluster.estimate_bandwidth(X, *[, quantile, …])

Estime el ancho de banda que se utilizará con el algoritmo de desplazamiento medio.

cluster.k_means(X, n_clusters, *[, …])

Algoritmo de agrupamiento de K-means.

cluster.kmeans_plusplus(X, n_clusters, *[, …])

Init n_clusters semillas de acuerdo con k-means ++

cluster.mean_shift(X, *[, bandwidth, seeds, …])

Realice la agrupación de datos por turnos medios utilizando un kernel plano.

cluster.spectral_clustering(afinidad, *[, …])

Aplicar agrupamiento a una proyección del laplaciano normalizado.

cluster.ward_tree(X, *[, connectivity, …])

Agrupación de distritos basada en una matriz de características.

sklearn.compose: Estimadores compuestos

Metaestimadores para la construcción de modelos compuestos con transformadores

Además de su contenido actual, este módulo eventualmente albergará versiones renovadas de Pipeline y FeatureUnion.

Guía del usuario: Ver el Pipelines y estimadores compuestos sección para más detalles.

compose.ColumnTransformer(transformadores, *[, …])

Aplica transformadores a columnas de una matriz o pandas DataFrame.

compose.TransformedTargetRegressor([…])

Metaestimador para retroceder en un objetivo transformado.

compose.make_column_transformer(* transformadores)

Construya un ColumnTransformer a partir de los transformadores dados.

compose.make_column_selector([pattern, …])

Cree un invocable para seleccionar columnas que se utilizarán con ColumnTransformer.

sklearn.covariance: estimadores de covarianza

los sklearn.covariance El módulo incluye métodos y algoritmos para estimar de manera robusta la covarianza de características dado un conjunto de puntos. También se estima la matriz de precisión definida como la inversa de la covarianza. La estimación de la covarianza está estrechamente relacionada con la teoría de los modelos gráficos gaussianos.

Guía del usuario: Ver el Estimación de covarianza sección para más detalles.

covariance.EmpiricalCovariance(*[, …])

Estimador de covarianza de máxima verosimilitud

covariance.EllipticEnvelope(*[, …])

Objeto para detectar valores atípicos en un conjunto de datos distribuidos de Gauss.

covariance.GraphicalLasso([alpha, mode, …])

Estimación de covarianza inversa escasa con un estimador penalizado por l1.

covariance.GraphicalLassoCV(*[, alphas, …])

Covarianza inversa escasa con elección con validación cruzada de la penalización l1.

covariance.LedoitWolf(*[, store_precision, …])

Estimador LedoitWolf

covariance.MinCovDet(*[, store_precision, …])

Determinante de covarianza mínima (MCD): estimador robusto de covarianza.

covariance.OAS(*[, store_precision, …])

Estimador de contracción aproximado de Oracle

covariance.ShrunkCovariance(*[, …])

Estimador de covarianza con contracción

covariance.empirical_covariance(X, *[, …])

Calcula el estimador de covarianza de máxima verosimilitud

covariance.graphical_lasso(emp_cov, alfa, *)

estimador de covarianza con penalización l1

covariance.ledoit_wolf(X, *[, …])

Estima la matriz de covarianza Ledoit-Wolf reducida.

covariance.oas(X, *[, assume_centered])

Estime la covarianza con el algoritmo de contracción aproximada de Oracle.

covariance.shrunk_covariance(emp_cov[, …])

Calcula una matriz de covarianza encogida en diagonal.

sklearn.cross_decomposition: Descomposición cruzada

Guía del usuario: Ver el Descomposición cruzada sección para más detalles.

cross_decomposition.CCA([n_components, …])

Análisis de correlación canónica, también conocido como PLS “Modo B”.

cross_decomposition.PLSCanonical([…])

Transformador y regresor de mínimos cuadrados parciales.

cross_decomposition.PLSRegression([…])

Regresión PLS

cross_decomposition.PLSSVD([n_components, …])

SVD de mínimos cuadrados parciales.

sklearn.datasets: conjuntos de datos

los sklearn.datasets El módulo incluye utilidades para cargar conjuntos de datos, incluidos métodos para cargar y recuperar conjuntos de datos de referencia populares. También cuenta con algunos generadores de datos artificiales.

Guía del usuario: Ver el Utilidades de carga de conjuntos de datos sección para más detalles.

Cargadores

datasets.clear_data_home([data_home])

Elimina todo el contenido de la caché de inicio de datos.

datasets.dump_svmlight_file(X, y, f, *[, …])

Vierta el conjunto de datos en formato de archivo svmlight / libsvm.

datasets.fetch_20newsgroups(*[, data_home, …])

Cargue los nombres de archivo y los datos del conjunto de datos de 20 grupos de noticias (clasificación).

datasets.fetch_20newsgroups_vectorized(*[, …])

Cargue y vectorice el conjunto de datos de 20 grupos de noticias (clasificación).

datasets.fetch_california_housing(*[, …])

Cargue el conjunto de datos de viviendas de California (regresión).

datasets.fetch_covtype(*[, data_home, …])

Cargue el conjunto de datos covertype (clasificación).

datasets.fetch_kddcup99(*[, subset, …])

Cargue el conjunto de datos kddcup99 (clasificación).

datasets.fetch_lfw_pairs(*[, subset, …])

Cargue el conjunto de datos de pares de Caras etiquetadas en la naturaleza (LFW) (clasificación).

datasets.fetch_lfw_people(*[, data_home, …])

Cargue el conjunto de datos de personas (clasificación) de Caras etiquetadas en la naturaleza (LFW).

datasets.fetch_olivetti_faces(*[, …])

Cargue el conjunto de datos de caras de Olivetti de AT&T (clasificación).

datasets.fetch_openml([name, version, …])

Obtener el conjunto de datos de openml por nombre o id del conjunto de datos.

datasets.fetch_rcv1(*[, data_home, subset, …])

Cargue el conjunto de datos de varias etiquetas RCV1 (clasificación).

datasets.fetch_species_distributions(*[, …])

Cargador para el conjunto de datos de distribución de especies de Phillips et.

datasets.get_data_home([data_home])

Devuelve la ruta del directorio de datos scikit-learn.

datasets.load_boston(*[, return_X_y])

Cargue y devuelva el conjunto de datos de precios de la vivienda de Boston (regresión).

datasets.load_breast_cancer(*[, return_X_y, …])

Cargue y devuelva el conjunto de datos de wisconsin de cáncer de mama (clasificación).

datasets.load_diabetes(*[, return_X_y, as_frame])

Cargue y devuelva el conjunto de datos de diabetes (regresión).

datasets.load_digits(*[, n_class, …])

Cargue y devuelva el conjunto de datos de dígitos (clasificación).

datasets.load_files(ruta_contenedor, *[, …])

Cargue archivos de texto con categorías como nombres de subcarpetas.

datasets.load_iris(*[, return_X_y, as_frame])

Cargue y devuelva el conjunto de datos del iris (clasificación).

datasets.load_linnerud(*[, return_X_y, as_frame])

Cargue y devuelva el conjunto de datos de linnerud de ejercicio físico.

datasets.load_sample_image(Nombre de la imágen)

Cargue la matriz numpy de una sola imagen de muestra

datasets.load_sample_images()

Cargue imágenes de muestra para la manipulación de imágenes.

datasets.load_svmlight_file(f, *[, …])

Cargue conjuntos de datos en formato svmlight / libsvm en una matriz de CSR dispersa

datasets.load_svmlight_files(archivos, *[, …])

Cargue el conjunto de datos de varios archivos en formato SVMlight

datasets.load_wine(*[, return_X_y, as_frame])

Cargue y devuelva el conjunto de datos del vino (clasificación).

Generador de muestras

datasets.make_biclusters(forma, n_clusters, *)

Genere una matriz con estructura diagonal de bloque constante para biclustering.

datasets.make_blobs([n_samples, n_features, …])

Genere manchas gaussianas isotrópicas para la agrupación.

datasets.make_checkerboard(forma, n_clusters, *)

Genere una matriz con estructura de tablero de ajedrez de bloques para biclustering.

datasets.make_circles([n_samples, shuffle, …])

Haz un círculo grande que contenga un círculo más pequeño en 2d.

datasets.make_classification([n_samples, …])

Genere un problema de clasificación aleatorio de n clases.

datasets.make_friedman1([n_samples, …])

Genere el problema de regresión “Friedman # 1”.

datasets.make_friedman2([n_samples, noise, …])

Genere el problema de regresión “Friedman # 2”.

datasets.make_friedman3([n_samples, noise, …])

Genere el problema de regresión “Friedman # 3”.

datasets.make_gaussian_quantiles(*[, mean, …])

Genere muestras gaussianas isotrópicas y etiquete por cuantiles.

datasets.make_hastie_10_2([n_samples, …])

Genera datos para la clasificación binaria utilizada en Hastie et al.

datasets.make_low_rank_matrix([n_samples, …])

Genere una matriz de rango mayormente bajo con valores singulares en forma de campana.

datasets.make_moons([n_samples, shuffle, …])

Hacer dos entrelazado de semicírculos.

datasets.make_multilabel_classification([…])

Genere un problema de clasificación aleatorio de varias etiquetas.

datasets.make_regression([n_samples, …])

Genere un problema de regresión aleatoria.

datasets.make_s_curve([n_samples, noise, …])

Genere un conjunto de datos de curva S.

datasets.make_sparse_coded_signal(n_muestras,…)

Genere una señal como una combinación dispersa de elementos del diccionario.

datasets.make_sparse_spd_matrix([dim, …])

Genere una matriz positiva definida simétrica dispersa.

datasets.make_sparse_uncorrelated([…])

Genere un problema de regresión aleatoria con un diseño escaso no correlacionado.

datasets.make_spd_matrix(n_dim, *[, …])

Genere una matriz definida positiva, simétrica aleatoria.

datasets.make_swiss_roll([n_samples, noise, …])

Genere un conjunto de datos de rollo suizo.

sklearn.decomposition: Descomposición de la matriz

los sklearn.decomposition El módulo incluye algoritmos de descomposición matricial, incluidos, entre otros, PCA, NMF o ICA. La mayoría de los algoritmos de este módulo pueden considerarse técnicas de reducción de dimensionalidad.

Guía del usuario: Ver el Descomposición de señales en componentes (problemas de factorización matricial) sección para más detalles.

decomposition.DictionaryLearning([…])

Aprendizaje de diccionario

decomposition.FactorAnalysis([n_components, …])

Análisis factorial (FA).

decomposition.FastICA([n_components, …])

FastICA: un algoritmo rápido para análisis de componentes independientes.

decomposition.IncrementalPCA([n_components, …])

Análisis incremental de componentes principales (IPCA).

decomposition.KernelPCA([n_components, …])

Análisis de componentes principales del kernel (KPCA).

decomposition.LatentDirichletAllocation([…])

Asignación de Dirichlet latente con algoritmo de Bayes variacional en línea

decomposition.MiniBatchDictionaryLearning([…])

Aprendizaje de diccionario por mini lotes

decomposition.MiniBatchSparsePCA([…])

Análisis de componentes principales dispersos de mini lotes

decomposition.NMF([n_components, init, …])

Factorización de matriz no negativa (NMF).

decomposition.PCA([n_components, copy, …])

Análisis de componentes principales (PCA).

decomposition.SparsePCA([n_components, …])

Análisis de componentes principales dispersos (SparsePCA).

decomposition.SparseCoder(diccionario, *[, …])

Codificación escasa

decomposition.TruncatedSVD([n_components, …])

Reducción de dimensionalidad utilizando SVD truncado (también conocido como LSA).

decomposition.dict_learning(X, n_componentes,…)

Resuelve un problema de factorización de la matriz de aprendizaje del diccionario.

decomposition.dict_learning_online(X[, …])

Resuelve un problema de factorización de matrices de aprendizaje de diccionario en línea.

decomposition.fastica(X[, n_components, …])

Realice un análisis rápido de componentes independientes.

decomposition.non_negative_factorization(X)

Calcule la factorización matricial no negativa (NMF).

decomposition.sparse_encode(X, diccionario, *)

Codificación escasa

sklearn.discriminant_analysis: Análisis discriminante

Análisis discriminante lineal y análisis discriminante cuadrático

Guía del usuario: Ver el Análisis discriminante lineal y cuadrático sección para más detalles.

discriminant_analysis.LinearDiscriminantAnalysis([…])

Análisis discriminante lineal

discriminant_analysis.QuadraticDiscriminantAnalysis

Análisis discriminante cuadrático

sklearn.dummy: estimadores ficticios Guía del usuario: Ver el Métricas y puntuación: cuantificación de la calidad de las predicciones

dummy.DummyClassifiersección para más detalles.[, strategy, …](*

)

dummy.DummyRegressorDummyClassifier es un clasificador que hace predicciones usando reglas simples.[, strategy, …](*

)

DummyRegressor es un regresor que hace predicciones usando reglas simples.

sklearn.ensemble: métodos de conjunto sklearn.ensemble los

El módulo incluye métodos basados ​​en conjuntos para clasificación, regresión y detección de anomalías. Guía del usuario: Ver el Métodos de conjunto

ensemble.AdaBoostClassifiersección para más detalles.[…](

)

ensemble.AdaBoostRegressorUn clasificador AdaBoost.[base_estimator, …](

)

ensemble.BaggingClassifierUn regresor de AdaBoost.[base_estimator, …](

)

ensemble.BaggingRegressorUn clasificador de ensacado.[base_estimator, …](

)

ensemble.ExtraTreesClassifierUn regresor de embolsado.[…](

)

ensemble.ExtraTreesRegressorUn clasificador de árboles extra.[n_estimators, …](

)

ensemble.GradientBoostingClassifierUn regresor de árboles extra.[, …](*

)

ensemble.GradientBoostingRegressorAumento de gradiente para clasificación.[, …](*

)

ensemble.IsolationForestAumento de gradiente para regresión.[, n_estimators, …](*

)

ensemble.RandomForestClassifierAlgoritmo de bosque de aislamiento.[…](

)

ensemble.RandomForestRegressorUn clasificador de bosque aleatorio.[…](

)

ensemble.RandomTreesEmbeddingUn regresor forestal aleatorio.[…](

)

ensemble.StackingClassifierUn conjunto de árboles totalmente aleatorios.[, …](estimadores

)

ensemble.StackingRegressorPila de estimadores con clasificador final.[, …](estimadores

)

ensemble.VotingClassifierPila de estimadores con regresor final.[, …](estimadores, *

)

ensemble.VotingRegressorClasificador de reglas de votación blanda / mayoría para estimadores no adaptados.[, …](estimadores, *

)

ensemble.HistGradientBoostingRegressorRegresor de voto de predicción para estimadores no ajustados.[…](

)

ensemble.HistGradientBoostingClassifierÁrbol de regresión de aumento de gradiente basado en histogramas.[…](

)

Árbol de clasificación de aumento de gradiente basado en histogramas.

sklearn.exceptions: Excepciones y advertencias sklearn.exceptions los

exceptions.ConvergenceWarning

El módulo incluye todas las advertencias personalizadas y las clases de error utilizadas en scikit-learn.

exceptions.DataConversionWarning

Advertencia personalizada para capturar problemas de convergencia

exceptions.DataDimensionalityWarning

Advertencia utilizada para notificar conversiones de datos implícitas que ocurren en el código.

exceptions.EfficiencyWarning

Advertencia personalizada para notificar posibles problemas con la dimensionalidad de los datos.

exceptions.FitFailedWarning

Advertencia utilizada para notificar al usuario de un cálculo ineficaz.

exceptions.NotFittedError

Clase de advertencia utilizada si hay un error al ajustar el estimador.

exceptions.UndefinedMetricWarning

Clase de excepción para generar si se usa estimador antes del ajuste.

Advertencia utilizada cuando la métrica no es válida

sklearn.experimental: Experimental sklearn.experimental los

proporciona módulos importables que permiten el uso de funciones experimentales o estimadores.

experimental.enable_hist_gradient_boosting

Las funciones y los estimadores que son experimentales no están sujetos a ciclos de depreciación. ¡Úselos bajo su propio riesgo!

experimental.enable_iterative_imputer

Habilita estimadores de aumento de gradiente basados ​​en histogramas.

experimental.enable_halving_search_cv

Habilita IterativeImputer

Permite estimadores de búsqueda de reducción a la mitad sucesivos

sklearn.feature_extraction: Extracción de características sklearn.feature_extraction los

El módulo se ocupa de la extracción de características a partir de datos sin procesar. Actualmente incluye métodos para extraer características de texto e imágenes. Guía del usuario: Ver el Extracción de características

feature_extraction.DictVectorizersección para más detalles.[, …](*

)

feature_extraction.FeatureHasherTransforma listas de asignaciones de valores de características en vectores.[…](

)

Implementa el hash de funciones, también conocido como el truco de hash.

De imágenes sklearn.feature_extraction.image los

feature_extraction.image.extract_patches_2dsubmodule reúne utilidades para extraer características de imágenes.

(…)

feature_extraction.image.grid_to_graphCambiar la forma de una imagen 2D en una colección de parches

(n_x, n_y)

feature_extraction.image.img_to_graphGráfico de las conexiones píxel a píxel

(img, *)

feature_extraction.image.reconstruct_from_patches_2dGráfico de las conexiones de degradado de píxel a píxel

(…)

feature_extraction.image.PatchExtractorReconstruya la imagen a partir de todos sus parches.[, …](*

)

Extrae parches de una colección de imágenes.

De texto sklearn.feature_extraction.text los

feature_extraction.text.CountVectorizerEl submódulo reúne utilidades para crear vectores de características a partir de documentos de texto.[, …](*

)

feature_extraction.text.HashingVectorizerConvierta una colección de documentos de texto en una matriz de recuentos de tokens

feature_extraction.text.TfidfTransformer

Convertir una colección de documentos de texto en una matriz de ocurrencias de tokens

feature_extraction.text.TfidfVectorizer[, …]

Transformar una matriz de conteo en una representación tf o tf-idf normalizada

(*

) sklearn.feature_selection Convierta una colección de documentos sin procesar en una matriz de funciones TF-IDF.

sklearn.feature_selection: Selección de funciones los El módulo implementa algoritmos de selección de características. Actualmente incluye métodos de selección de filtros univariados y el algoritmo de eliminación de características recursivas. Guía del usuario:

feature_selection.GenericUnivariateSelectVer el[…]Selección de características

sección para más detalles.

feature_selection.SelectPercentile([…])

Selector de funciones univariante con estrategia configurable.

feature_selection.SelectKBest([score_func, k])

Seleccione características de acuerdo con un percentil de las puntuaciones más altas.

feature_selection.SelectFpr([score_func, alpha])

Seleccione características de acuerdo con las k puntuaciones más altas.

feature_selection.SelectFdr([score_func, alpha])

Filtro: seleccione los valores de p por debajo de alfa según una prueba FPR.

feature_selection.SelectFromModel(

)

feature_selection.SelectFweFiltro: seleccione los valores p para una tasa estimada de falsos descubrimientos[score_func, alpha](estimador, *)

Metatransformador para seleccionar características basadas en pesos de importancia.

feature_selection.SequentialFeatureSelector(

)

feature_selection.RFEFiltro: seleccione los valores p correspondientes a la tasa de error familiar[, …](…)

Transformador que realiza la selección secuencial de funciones.

feature_selection.RFECV(estimador, *[, …])

Clasificación de características con eliminación de características recursivas.

feature_selection.VarianceThreshold(estimador, *[threshold])

Clasificación de características con eliminación de características recursivas y selección con validación cruzada del mejor número de características.

feature_selection.chi2(

)

feature_selection.f_classifSelector de funciones que elimina todas las funciones de baja variación.

(X, y)

feature_selection.f_regressionCalcule las estadísticas de chi-cuadrado entre cada característica y clase no negativa.[, center](X, y)

Calcule el valor F de ANOVA para la muestra proporcionada.

feature_selection.mutual_info_classif(X, y, *

)

feature_selection.mutual_info_regressionPruebas de regresión lineal univariante.

(X, y, *)

Estime la información mutua para una variable objetivo discreta.

(X, y, *) sklearn.gaussian_process Estime la información mutua para una variable objetivo continua.

sklearn.gaussian_process: Procesos gaussianos los El módulo implementa la clasificación y regresión basadas en el Proceso Gaussiano. Guía del usuario:

gaussian_process.GaussianProcessClassifierVer el[…]Procesos gaussianos

sección para más detalles.

gaussian_process.GaussianProcessRegressor([…])

Clasificación de procesos gaussianos (GPC) basada en la aproximación de Laplace.

(

gaussian_process.kernels.CompoundKernel)

Regresión del proceso gaussiano (GPR).

gaussian_process.kernels.ConstantKernelGranos:[…](granos)

Núcleo que se compone de un conjunto de otros núcleos.

gaussian_process.kernels.DotProduct([…])

Núcleo constante.

gaussian_process.kernels.ExpSineSquared([…])

Núcleo de producto escalar.

gaussian_process.kernels.Exponentiation(

) Kernel Exp-Sine-Squared (también conocido como kernel periódico). (…)

gaussian_process.kernels.HyperparameterEl kernel de exponenciación toma un kernel base y un parámetro escalar

(pag)

gaussian_process.kernels.Kernely los combina a través de

(…)

gaussian_process.kernels.MaternLa especificación de un hiperparámetro del kernel en forma de una tupla con nombre.[…]()

Clase base para todos los núcleos.

gaussian_process.kernels.PairwiseKernel([…])

Núcleo de matern.

gaussian_process.kernels.Product(

) Product Envoltorio para kernels en sklearn.metrics.pairwise. (k1, k2) los kernel toma dos kernels (k_1 )

gaussian_process.kernels.RBFy[length_scale, …] (k_2 )

y los combina a través de

gaussian_process.kernels.RationalQuadratic([…])

Núcleo de función de base radial (también conocido como núcleo exponencial al cuadrado).

gaussian_process.kernels.Sum(

) Sum Núcleo cuadrático racional. (k1, k2) los kernel toma dos kernels (k_1 )

y

(k_2 )

y los combina vía

gaussian_process.kernels.WhiteKernel([…])

Núcleo blanco.

sklearn.impute: imputar

Transformadores para imputación de valor faltante

Guía del usuario: Ver el Imputación de valores perdidos sección para más detalles.

impute.SimpleImputer(*[, missing_values, …])

Transformador de imputación para completar valores perdidos.

impute.IterativeImputer([estimator, …])

Impresora multivariante que estima cada característica de todas las demás.

impute.MissingIndicator(*[, missing_values, …])

Indicadores binarios de valores perdidos.

impute.KNNImputer(*[, missing_values, …])

Imputación por completar valores perdidos usando k-Vecinos más cercanos.

sklearn.inspection: Inspección

los sklearn.inspection El módulo incluye herramientas para la inspección del modelo.

inspection.partial_dependence(estimador, X,…)

Dependencia parcial de features.

inspection.permutation_importance(estimador,…)

Importancia de la permutación para la evaluación de características [Rd9e56ef97513-BRE].

Graficado

inspection.PartialDependenceDisplay(…[, …])

Gráfico de dependencia parcial (PDP).

inspection.plot_partial_dependence(…[, …])

Gráficos de dependencia parcial (PD) y expectativa condicional individual (ICE).

sklearn.isotonic: regresión isotónica

Guía del usuario: Ver el Regresión isotónica sección para más detalles.

isotonic.IsotonicRegression(*[, y_min, …])

Modelo de regresión isotónica.

isotonic.check_increasing(x, y)

Determine si y está correlacionado monótonamente con x.

isotonic.isotonic_regression(y, *[, …])

Resuelve el modelo de regresión isotónica.

sklearn.kernel_approximation: aproximación del kernel

los sklearn.kernel_approximation El módulo implementa varios mapas de características del kernel aproximados basados ​​en transformadas de Fourier y Count Sketches.

Guía del usuario: Ver el Aproximación de kernel sección para más detalles.

kernel_approximation.AdditiveChi2Sampler

kernel_approximation.NystroemMapa de características aproximado para el núcleo chi2 aditivo.[kernel, …](

)

kernel_approximation.PolynomialCountSketchAproxima un mapa del kernel usando un subconjunto de los datos de entrenamiento.

kernel_approximation.RBFSampler[, gamma, …]Aproximación del núcleo polinómico a través de Tensor Sketch.

(*

kernel_approximation.SkewedChi2Sampler)[, …]Aproxima el mapa de características de un kernel RBF por aproximación de Monte Carlo de su transformada de Fourier.

(*

)

Aproxima el mapa de características del núcleo de “chi-cuadrado sesgado” mediante la aproximación de Monte Carlo de su transformada de Fourier. sklearn.kernel_ridge sklearn.kernel_ridge: regresión de la cresta del kernel

Módulo implementa la regresión de la cresta del kernel. Guía del usuario: Ver el

kernel_ridge.KernelRidgeRegresión de la cresta del kernel[alpha, kernel, …]sección para más detalles.

(

)

Regresión de la cresta del kernel. sklearn.linear_model sklearn.linear_model: Modelos lineales

los El módulo implementa una variedad de modelos lineales. Guía del usuario: Ver el

Modelos lineales

sección para más detalles.

linear_model.LogisticRegressionLas siguientes subsecciones son solo pautas aproximadas: el mismo estimador puede caer en múltiples categorías, dependiendo de sus parámetros.[penalty, …]Clasificadores lineales

(

linear_model.LogisticRegressionCV)[, Cs, …]Clasificador de regresión logística (también conocido como logit, MaxEnt).

(*

linear_model.PassiveAggressiveClassifier)

Clasificador de CV de regresión logística (también conocido como logit, MaxEnt).

linear_model.Perceptron[, penalty, alpha, …]

Clasificador pasivo agresivo (*)

linear_model.RidgeClassifierLeer más en el[alpha, …]Guía del usuario

.

linear_model.RidgeClassifierCV([alphas, …])

Clasificador mediante regresión de Ridge.

linear_model.SGDClassifier([loss, penalty, …])

Clasificador de crestas con validación cruzada incorporada.

(

linear_model.LinearRegression)[, …]Clasificadores lineales (SVM, regresión logística, etc.) con entrenamiento SGD.

Regresores lineales clásicos

linear_model.Ridge(*[alpha, fit_intercept, …])

Regresión lineal por mínimos cuadrados ordinarios.

linear_model.RidgeCV([alphas, …])

Mínimos cuadrados lineales con regularización l2.

linear_model.SGDRegressor([loss, penalty, …])

Regresión de crestas con validación cruzada incorporada.

(

) SGDRegressor Modelo lineal ajustado minimizando una pérdida empírica regularizada con SGD SGDClassifier Regresores con selección de variables

linear_model.ElasticNetLos siguientes estimadores tienen procedimientos de ajuste de selección de variables incorporados, pero cualquier estimador que use una penalización de L1 o de red elástica también realiza una selección de variables: típicamente[alpha, l1_ratio, …]o

con una penalización apropiada.

linear_model.ElasticNetCV([, l1_ratio, …])

Regresión lineal con anteriores combinados L1 y L2 como regularizador.

linear_model.Lars(*[, fit_intercept, …])

Modelo de Elastic Net con ajuste iterativo a lo largo de una ruta de regularización.

linear_model.LarsCV(*[, fit_intercept, …])

Modelo de regresión de ángulo mínimo también conocido como

linear_model.Lasso(*[alpha, fit_intercept, …])

Modelo de regresión de ángulo mínimo con validación cruzada.

linear_model.LassoCV([, eps, n_alphas, …])

Modelo lineal entrenado con L1 antes como regularizador (también conocido como Lazo)

linear_model.LassoLars(*[alpha, …])

Modelo lineal de lazo con ajuste iterativo a lo largo de una ruta de regularización.

linear_model.LassoLarsCV([, fit_intercept, …])

Ajuste del modelo de lazo con regresión de ángulo mínimo también conocido como

linear_model.LassoLarsIC(*[criterion, …])

Lasso con validación cruzada, utilizando el algoritmo LARS.

linear_model.OrthogonalMatchingPursuit([, …])

Ajuste del modelo de lazo con Lars usando BIC o AIC para la selección del modelo

linear_model.OrthogonalMatchingPursuitCV(*

)

Modelo Ortogonal Matching Pursuit (OMP).

linear_model.ARDRegression[, n_iter, tol, …]

Modelo de búsqueda de correspondencia ortogonal (OMP) con validación cruzada.

linear_model.BayesianRidgeRegresores bayesianos[, n_iter, tol, …](*

)

Regresión bayesiana de ARD.

(*

linear_model.MultiTaskElasticNet)[alpha, …]Regresión de la cresta bayesiana.

Regresores lineales multitarea con selección de variables

linear_model.MultiTaskElasticNetCVEstos estimadores se ajustan a múltiples problemas (o tareas) de regresión de manera conjunta, al tiempo que inducen coeficientes escasos. Si bien los coeficientes inferidos pueden diferir entre las tareas, están obligados a coincidir en las características que se seleccionan (coeficientes distintos de cero).[, …](

)

linear_model.MultiTaskLassoModelo de ElasticNet multitarea entrenado con norma mixta L1 / L2 como regularizador.[alpha, …](*

)

linear_model.MultiTaskLassoCVElasticNet L1 / L2 multitarea con validación cruzada incorporada.[, eps, …](

)

Modelo de lazo multitarea entrenado con norma mixta L1 / L2 como regularizador.

(* SGDRegressor ) loss="huber"Modelo de lazo multitarea entrenado con norma mixta L1 / L2 como regularizador.

linear_model.HuberRegressorRegresores robustos de valores atípicos[, epsilon, …]Cualquier estimador que utilice la pérdida de Huber también sería robusto a valores atípicos, p. Ej.

con

linear_model.RANSACRegressor.[…](*

)

linear_model.TheilSenRegressorModelo de regresión lineal que es robusto a valores atípicos.[, …](

)

Algoritmo RANSAC (consenso de muestras de RANdom).

(*

linear_model.PoissonRegressor)[, alpha, …]Estimador de Theil-Sen: modelo robusto de regresión multivariante.

Modelos lineales generalizados (GLM) para regresión

linear_model.TweedieRegressorEstos modelos permiten que las variables de respuesta tengan distribuciones de error distintas de la distribución normal:[, power, …](*

)

linear_model.GammaRegressorModelo lineal generalizado con distribución de Poisson.[, alpha, …](*

)

Modelo lineal generalizado con distribución Tweedie.

linear_model.PassiveAggressiveRegressor(*[, …])

Modelo lineal generalizado con distribución gamma.

linear_model.enet_pathDiverso[, l1_ratio, …](*

)

linear_model.lars_pathRegresor pasivo agresivo[, Xy, Gram, …](X, y, *

) [1]

linear_model.lars_path_gramCalcule la trayectoria de la red elástica con descenso de coordenadas.

(X, y [1]

linear_model.lasso_path)[, eps, …]Calcule la regresión de ángulo mínimo o la ruta de lazo utilizando el algoritmo LARS

(Xy, Gram, *,…)

linear_model.orthogonal_mplars_path en el modo de estadísticas suficientes[, …](X, y, *

)

linear_model.orthogonal_mp_gramCalcular ruta de lazo con descenso de coordenadas

(X, y, *

linear_model.ridge_regression)

Persecución ortogonal a juego (OMP).

(Gramo, Xy, *)

Persecución de emparejamiento ortogonal de Gram (OMP). sklearn.manifold (X, y, alfa, *)

Resuelve la ecuación de la cresta por el método de ecuaciones normales. sklearn.manifold: aprendizaje múltiple los El módulo implementa técnicas de incrustación de datos.

manifold.IsomapGuía del usuario:[, n_neighbors, …]Ver el

Aprendizaje múltiple

manifold.LocallyLinearEmbeddingsección para más detalles.[, …](*

)

manifold.MDSIncrustación de Isomap[n_components, metric, n_init, …](*

)

manifold.SpectralEmbeddingIncrustación localmente lineal[n_components, …](

)

manifold.TSNEEscalamiento multidimensional.[n_components, perplexity, …](

)

manifold.locally_linear_embeddingIncrustación espectral para reducción de dimensionalidad no lineal.

(

manifold.smacof)[, …]Incrustación de vecinos estocásticos distribuidos en t.

(X, *, …)

manifold.spectral_embeddingRealice un análisis de incrustación localmente lineal en los datos.[, …](diferencias, *

)

manifold.trustworthinessCalcula el escalado multidimensional utilizando el algoritmo SMACOF.[, …](adyacencia, *

)

Proyecte la muestra en los primeros vectores propios del gráfico Laplaciano.

(X, X_incrustado, * ) Expresa en qué medida se conserva la estructura local. sklearn.metrics: métricas Ver el

Métricas y puntuación: cuantificación de la calidad de las predicciones sklearn.metrics sección y la

Métricas por pares, afinidades y kernels

sección de la guía del usuario para obtener más detalles. los El módulo incluye funciones de puntuación, métricas de rendimiento y métricas por pares y cálculos de distancia.

metrics.check_scoringInterfaz de selección de modelo[, scoring, …]Ver el

El parámetro de puntuación: definición de reglas de evaluación del modelo

metrics.get_scorersección de la guía del usuario para obtener más detalles.

(estimador

metrics.make_scorer)[, …]Determine el anotador a partir de las opciones del usuario.

(puntuación)

Consigue un anotador de cuerda.

(puntuación_func, * ) Haga un anotador a partir de una métrica de rendimiento o una función de pérdida.

metrics.accuracy_scoreMétricas de clasificación[, …]Ver el

Métricas de clasificación

metrics.aucsección de la guía del usuario para obtener más detalles.

(y_verdadero, y_pred, *

metrics.average_precision_score)

Puntaje de clasificación de precisión.

metrics.balanced_accuracy_score(x, y)

Calcule el área bajo la curva (AUC) usando la regla trapezoidal.

metrics.brier_score_loss(y_verdadero,…)

Calcule la precisión promedio (AP) a partir de las puntuaciones de predicción.

metrics.classification_report(y_verdadero,…)

Calcule la precisión equilibrada.

metrics.cohen_kappa_score(y_verdadero, y_prob, *)[, …]Calcule la pérdida de puntuación de Brier.

(y_verdadero, y_pred, *)

metrics.confusion_matrixCree un informe de texto que muestre las principales métricas de clasificación.

(y1, y2, *

metrics.dcg_score)[, k, …]Kappa de Cohen: una estadística que mide la concordancia entre los anotadores.

(y_verdadero, y_pred, *)

metrics.det_curveCalcule la matriz de confusión para evaluar la precisión de una clasificación.[, …](y_verdadero, y_score, *

)

metrics.f1_scoreCalcule la ganancia acumulada descontada.[, …](y_verdadero, y_score

)

metrics.fbeta_scoreCalcule las tasas de error para diferentes umbrales de probabilidad.

(y_verdadero, y_pred, *

metrics.hamming_loss)[, …]Calcule la puntuación F1, también conocida como puntuación F equilibrada o medida F.

(y_verdadero, y_pred, *, beta)

metrics.hinge_lossCalcule la puntuación F-beta.

(y_verdadero, y_pred, *

metrics.jaccard_score)[, …]Calcule la pérdida promedio de Hamming.

(y_verdadero, pred_decision, *)

metrics.log_lossPérdida media de bisagra (no regularizada).

(y_verdadero, y_pred, *

)

Puntaje del coeficiente de similitud de Jaccard.

(y_verdadero, y_pred, *[, eps, …])

Pérdida de registros, también conocida como pérdida logística o pérdida de entropía cruzada.

metrics.matthews_corrcoef(y_verdadero, y_pred, *)

Calcule el coeficiente de correlación de Matthews (MCC).

metrics.multilabel_confusion_matrix(y_verdadero,…)

Calcule una matriz de confusión para cada clase o muestra.

metrics.ndcg_score(y_verdadero, y_score, *[, k, …])

Calcule la ganancia acumulada descontada normalizada.

metrics.precision_recall_curve(y_verdadero,…)

Calcule pares de recuperación de precisión para diferentes umbrales de probabilidad.

metrics.precision_recall_fscore_support(…)

Calcule la precisión, la recuperación, la medición F y el soporte para cada clase.

metrics.precision_score(y_verdadero, y_pred, *[, …])

Calcule la precisión.

metrics.recall_score(y_verdadero, y_pred, *[, …])

Calcule la recuperación.

metrics.roc_auc_score(y_verdadero, y_score, *[, …])

Calcule el área bajo la curva de características operativas del receptor (ROC AUC) a partir de las puntuaciones de predicción.

metrics.roc_curve(y_verdadero, y_score, *[, …])

Calcular la característica de funcionamiento del receptor (ROC).

metrics.top_k_accuracy_score(y_verdadero, y_score, *)

Puntaje de clasificación de precisión Top-k.

metrics.zero_one_loss(y_verdadero, y_pred, *[, …])

Pérdida de clasificación cero-uno.

Métricas de regresión

Ver el Métricas de regresión sección de la guía del usuario para obtener más detalles.

metrics.explained_variance_score(y_verdadero,…)

Función de puntuación de regresión de varianza explicada.

metrics.max_error(y_verdadero, y_pred)

La métrica max_error calcula el error residual máximo.

metrics.mean_absolute_error(y_verdadero, y_pred, *)

Pérdida de regresión del error absoluto medio.

metrics.mean_squared_error(y_verdadero, y_pred, *)

Pérdida de regresión del error cuadrático medio.

metrics.mean_squared_log_error(y_verdadero, y_pred, *)

Pérdida de regresión de error logarítmico cuadrático medio.

metrics.median_absolute_error(y_verdadero, y_pred, *)

Mediana de la pérdida de regresión del error absoluto.

metrics.mean_absolute_percentage_error(…)

Pérdida de regresión de error porcentual absoluto medio.

metrics.r2_score(y_verdadero, y_pred, *[, …])

Función de puntuación de regresión R ^ 2 (coeficiente de determinación).

metrics.mean_poisson_deviance(y_verdadero, y_pred, *)

Pérdida media de regresión de la desviación de Poisson.

metrics.mean_gamma_deviance(y_verdadero, y_pred, *)

Pérdida de regresión de la desviación gamma media.

metrics.mean_tweedie_deviance(y_verdadero, y_pred, *)

Pérdida media de regresión de la desviación de Tweedie.

Métricas de clasificación de múltiples etiquetas

Ver el Métricas de clasificación de múltiples etiquetas sección de la guía del usuario para obtener más detalles.

metrics.coverage_error(y_verdadero, y_score, *[, …])

Medida de error de cobertura.

metrics.label_ranking_average_precision_score(…)

Calcule la precisión promedio basada en la clasificación.

metrics.label_ranking_loss(y_verdadero, y_score, *)

Calcular medida de pérdida de clasificación.

Métricas de agrupamiento

Ver el Evaluación del desempeño de la agrupación en clústeres sección de la guía del usuario para obtener más detalles.

los sklearn.metrics.cluster El submódulo contiene métricas de evaluación para los resultados del análisis de conglomerados. Hay dos formas de evaluación:

  • supervisado, que utiliza valores de clase de verdad fundamental para cada muestra.
  • sin supervisión, que no lo hace y mide la ‘calidad’ del modelo en sí.

metrics.adjusted_mutual_info_score(…[, …])

Información mutua ajustada entre dos agrupaciones.

metrics.adjusted_rand_score(etiquetas_verdadero,…)

Índice de Rand ajustado al azar.

metrics.calinski_harabasz_score(X, etiquetas)

Calcule la puntuación de Calinski y Harabasz.

metrics.davies_bouldin_score(X, etiquetas)

Calcula la puntuación de Davies-Bouldin.

metrics.completeness_score(etiquetas_verdadero,…)

Métrica de completitud de un etiquetado de clúster dada una verdad básica.

metrics.cluster.contingency_matrix(…[, …])

Construya una matriz de contingencia que describa la relación entre etiquetas.

metrics.cluster.pair_confusion_matrix(…)

Matriz de confusión de pares que surge de dos agrupamientos.

metrics.fowlkes_mallows_score(etiquetas_verdadero,…)

Mide la similitud de dos agrupaciones de un conjunto de puntos.

metrics.homogeneity_completeness_v_measure(…)

Calcule la homogeneidad y la completitud y las puntuaciones de V-Measure a la vez.

metrics.homogeneity_score(etiquetas_verdadero,…)

Métrica de homogeneidad de un etiquetado de clúster dada una verdad fundamental.

metrics.mutual_info_score(etiquetas_verdadero,…)

Información mutua entre dos agrupaciones.

metrics.normalized_mutual_info_score(…[, …])

Información mutua normalizada entre dos agrupaciones.

metrics.rand_score(etiquetas_verdadero, etiquetas_pred)

Índice rand.

metrics.silhouette_score(X, etiquetas, *[, …])

Calcule el coeficiente de silueta medio de todas las muestras.

metrics.silhouette_samples(X, etiquetas, *[, …])

Calcule el coeficiente de silueta para cada muestra.

metrics.v_measure_score(etiquetas_verdadero,…[, beta])

El etiquetado de clústeres de medida V tiene una verdad fundamental.

Métricas de biclustering

Ver el Evaluación de biclustering sección de la guía del usuario para obtener más detalles.

metrics.consensus_score(a, b, *[, similarity])

La similitud de dos conjuntos de biclusters.

Métricas por pares

Ver el Métricas por pares, afinidades y kernels sección de la guía del usuario para obtener más detalles.

metrics.pairwise.additive_chi2_kernel(X[, Y])

Calcula el núcleo de chi-cuadrado aditivo entre observaciones en X e Y.

metrics.pairwise.chi2_kernel(X[, Y, gamma])

Calcula el núcleo de chi-cuadrado exponencial X e Y.

metrics.pairwise.cosine_similarity(X[, Y, …])

Calcule la similitud de coseno entre muestras en X e Y.

metrics.pairwise.cosine_distances(X[, Y])

Calcule la distancia del coseno entre las muestras en X e Y.

metrics.pairwise.distance_metrics()

Métricas válidas para pairwise_distances.

metrics.pairwise.euclidean_distances(X[, Y, …])

Considerando las filas de X (e Y = X) como vectores, calcule la matriz de distancias entre cada par de vectores.

metrics.pairwise.haversine_distances(X[, Y])

Calcule la distancia de Haversine entre muestras en X e Y.

metrics.pairwise.kernel_metrics()

Métricas válidas para pairwise_kernels.

metrics.pairwise.laplacian_kernel(X[, Y, gamma])

Calcule el núcleo laplaciano entre X e Y.

metrics.pairwise.linear_kernel(X[, Y, …])

Calcule el núcleo lineal entre X e Y.

metrics.pairwise.manhattan_distances(X[, Y, …])

Calcule las distancias L1 entre los vectores en X e Y.

metrics.pairwise.nan_euclidean_distances(X)

Calcule las distancias euclidianas en presencia de valores perdidos.

metrics.pairwise.pairwise_kernels(X[, Y, …])

Calcule el núcleo entre las matrices X y la matriz opcional Y.

metrics.pairwise.polynomial_kernel(X[, Y, …])

Calcule el núcleo del polinomio entre X e Y.

metrics.pairwise.rbf_kernel(X[, Y, gamma])

Calcule el kernel rbf (gaussiano) entre X e Y.

metrics.pairwise.sigmoid_kernel(X[, Y, …])

Calcule el núcleo sigmoide entre X e Y.

metrics.pairwise.paired_euclidean_distances(X, Y)

Calcula las distancias euclidianas emparejadas entre X e Y.

metrics.pairwise.paired_manhattan_distances(X, Y)

Calcule las distancias L1 entre los vectores en X e Y.

metrics.pairwise.paired_cosine_distances(X, Y)

Calcula las distancias de coseno emparejadas entre X e Y.

metrics.pairwise.paired_distances(X, Y, *[, …])

Calcula las distancias pareadas entre X e Y.

metrics.pairwise_distances(X[, Y, metric, …])

Calcule la matriz de distancias a partir de una matriz de vectores X y una Y opcional.

metrics.pairwise_distances_argmin(X, Y, *[, …])

Calcule las distancias mínimas entre un punto y un conjunto de puntos.

metrics.pairwise_distances_argmin_min(X, Y, *)

Calcule las distancias mínimas entre un punto y un conjunto de puntos.

metrics.pairwise_distances_chunked(X[, Y, …])

Genere una matriz de distancia fragmento a fragmento con reducción opcional.

Graficado

Ver el Visualizaciones sección de la guía del usuario para obtener más detalles.

metrics.plot_confusion_matrix(estimador, X,…)

Trazar matriz de confusión.

metrics.plot_det_curve(estimador, X, y, *[, …])

Trace la curva de compensación de errores de detección (DET).

metrics.plot_precision_recall_curve(…[, …])

Trazar la curva de recuperación de precisión para clasificadores binarios.

metrics.plot_roc_curve(estimador, X, y, *[, …])

Trazar la curva característica de funcionamiento del receptor (ROC).

metrics.ConfusionMatrixDisplay(…[, …])

Visualización de matriz de confusión.

metrics.DetCurveDisplay(*, fpr, fnr[, …])

Visualización de la curva DET.

metrics.PrecisionRecallDisplay(precisión,…)

Visualización de Precision Recall.

metrics.RocCurveDisplay(*, fpr, tpr[, …])

Visualización de la curva ROC.

sklearn.mixture: Modelos de mezcla gaussiana

los sklearn.mixture El módulo implementa algoritmos de modelado de mezclas.

Guía del usuario: Ver el Modelos de mezcla gaussiana sección para más detalles.

mixture.BayesianGaussianMixture(*[, …])

Estimación bayesiana variacional de una mezcla gaussiana.

mixture.GaussianMixture([n_components, …])

Mezcla gaussiana.

sklearn.model_selection: Selección de modelo

Guía del usuario: Ver el Validación cruzada: evaluación del desempeño del estimador, Ajuste de los hiperparámetros de un estimador y Curva de aprendizaje secciones para más detalles.

Clases de divisores

model_selection.GroupKFold([n_splits])

Variante de iterador de K-fold con grupos no superpuestos.

model_selection.GroupShuffleSplit([…])

Shuffle-Group (s) -Out iterador de validación cruzada

model_selection.KFold([n_splits, shuffle, …])

Validador cruzado de K-Folds

model_selection.LeaveOneGroupOut()

Validación cruzada de dejar un grupo fuera

model_selection.LeavePGroupsOut(n_grupos)

Dejar fuera el validador cruzado del (los) grupo (s) P

model_selection.LeaveOneOut()

Validador cruzado Leave-One-Out

model_selection.LeavePOut(pag)

Validador cruzado Leave-P-Out

model_selection.PredefinedSplit(test_fold)

Validador cruzado dividido predefinido

model_selection.RepeatedKFold(*[, n_splits, …])

Validador cruzado repetido de K-Fold.

model_selection.RepeatedStratifiedKFold(*[, …])

Validador cruzado repetido estratificado en K-Fold.

model_selection.ShuffleSplit([n_splits, …])

Validador cruzado de permutación aleatoria

model_selection.StratifiedKFold([n_splits, …])

Validador cruzado de K-Folds estratificado.

model_selection.StratifiedShuffleSplit([…])

Validador cruzado ShuffleSplit estratificado

model_selection.TimeSeriesSplit([n_splits, …])

Validador cruzado de series temporales

Funciones del divisor

model_selection.check_cv([cv, y, classifier])

Utilidad de verificación de entrada para construir un validador cruzado

model_selection.train_test_split(* matrices[, …])

Dividir matrices o matrices en subconjuntos de prueba y tren aleatorio

Optimizadores de hiperparámetros

model_selection.GridSearchCV(estimador,…)

Búsqueda exhaustiva de valores de parámetros especificados para un estimador.

model_selection.HalvingGridSearchCV(…[, …])

Busque valores de parámetros especificados con reducciones sucesivas a la mitad.

model_selection.ParameterGrid(param_grid)

Cuadrícula de parámetros con un número discreto de valores para cada uno.

model_selection.ParameterSampler(…[, …])

Generador de parámetros muestreados a partir de distribuciones dadas.

model_selection.RandomizedSearchCV(…[, …])

Búsqueda aleatoria de hiperparámetros.

model_selection.HalvingRandomSearchCV(…[, …])

Búsqueda aleatoria de hiperparámetros.

Modelo de validación

model_selection.cross_validate(estimador, X)

Evalúe la (s) métrica (s) mediante validación cruzada y también registre los tiempos de ajuste / puntuación.

model_selection.cross_val_predict(estimador, X)

Genere estimaciones con validación cruzada para cada punto de datos de entrada

model_selection.cross_val_score(estimador, X)

Evaluar una puntuación mediante validación cruzada

model_selection.learning_curve(estimador, X,…)

Curva de aprendizaje.

model_selection.permutation_test_score(…)

Evaluar la importancia de una puntuación con validación cruzada con permutaciones

model_selection.validation_curve(estimador,…)

Curva de validación.

sklearn.multiclass: clasificación multiclase

Estrategias de clasificación multiclase

Este módulo implementa algoritmos de aprendizaje multiclase:
  • uno contra el resto / uno contra todos
  • uno contra uno
  • error al corregir códigos de salida

Los estimadores proporcionados en este módulo son metaestimadores: requieren que se proporcione un estimador base en su constructor. Por ejemplo, es posible utilizar estos estimadores para convertir un clasificador binario o un regresor en un clasificador multiclase. También es posible utilizar estos estimadores con estimadores multiclase con la esperanza de que mejore su precisión o rendimiento en tiempo de ejecución.

Todos los clasificadores de scikit-learn implementan una clasificación multiclase; solo necesita usar este módulo si desea experimentar con estrategias multiclase personalizadas.

El metaclasificador de uno contra el resto también implementa un predict_proba método, siempre que dicho método sea implementado por el clasificador base. Este método devuelve probabilidades de pertenencia a una clase tanto en el caso de etiqueta única como en el de etiquetas múltiples. Tenga en cuenta que en el caso de varias etiquetas, las probabilidades son la probabilidad marginal de que una muestra dada caiga en la clase dada. Como tal, en el caso de múltiples etiquetas, la suma de estas probabilidades sobre todas las etiquetas posibles para una muestra dada no suma a la unidad, como lo hacen en el caso de etiqueta única.

Guía del usuario: Ver el Clasificación multiclase sección para más detalles.

multiclass.OneVsRestClassifier(estimador, *)

Estrategia multiclase de uno contra el resto (OvR).

multiclass.OneVsOneClassifier(estimador, *)

Estrategia multiclase uno contra uno

multiclass.OutputCodeClassifier(estimador, *)

(Corrección de errores) Estrategia multiclase de código de salida

sklearn.multioutput: regresión y clasificación de múltiples salidas

Este módulo implementa regresión y clasificación de múltiples salidas.

Los estimadores proporcionados en este módulo son metaestimadores: requieren que se proporcione un estimador base en su constructor. El metaestimador extiende los estimadores de salida única a los estimadores de salida múltiple.

Guía del usuario: Ver el Clasificación de múltiples etiquetas, Clasificación multiclase-multisalida, y Regresión de múltiples salidas secciones para más detalles.

multioutput.ClassifierChain(estimador_base, *)

Un modelo de etiquetas múltiples que organiza clasificadores binarios en una cadena.

multioutput.MultiOutputRegressor(estimador, *)

Regresión de múltiples objetivos

multioutput.MultiOutputClassifier(estimador, *)

Clasificación de objetivos múltiples

multioutput.RegressorChain(estimador_base, *)

Un modelo de etiquetas múltiples que organiza regresiones en una cadena.

sklearn.naive_bayes: Bayes ingenuo

los sklearn.naive_bayes El módulo implementa algoritmos Naive Bayes. Estos son métodos de aprendizaje supervisado basados ​​en la aplicación del teorema de Bayes con suposiciones sólidas (ingenuas) de independencia de características.

Guía del usuario: Ver el Bayes ingenuo sección para más detalles.

naive_bayes.BernoulliNB(*[, alpha, …])

Clasificador Naive Bayes para modelos Bernoulli multivariados.

naive_bayes.CategoricalNB(*[, alpha, …])

Clasificador Naive Bayes para características categóricas

naive_bayes.ComplementNB(*[, alpha, …])

El clasificador de Complement Naive Bayes descrito en Rennie et al.

naive_bayes.GaussianNB(*[, priors, …])

Bayes ingenuo gaussiano (GaussianNB)

naive_bayes.MultinomialNB(*[, alpha, …])

Clasificador Naive Bayes para modelos multinomiales

sklearn.neighbors: Vecinos más cercanos

los sklearn.neighbors El módulo implementa el algoritmo de los k vecinos más cercanos.

Guía del usuario: Ver el Vecinos mas cercanos sección para más detalles.

neighbors.BallTree(X[, leaf_size, metric])

BallTree para problemas rápidos generalizados de puntos N

neighbors.DistanceMetric

Clase DistanceMetric

neighbors.KDTree(X[, leaf_size, metric])

KDTree para problemas rápidos generalizados de N-point

neighbors.KernelDensity(*[, bandwidth, …])

Estimación de la densidad del grano.

neighbors.KNeighborsClassifier([…])

Clasificador que implementa el voto de los k vecinos más cercanos.

neighbors.KNeighborsRegressor([n_neighbors, …])

Regresión basada en k vecinos más cercanos.

neighbors.KNeighborsTransformer(*[, mode, …])

Transforma X en una gráfica (ponderada) de k vecinos más cercanos

neighbors.LocalOutlierFactor([n_neighbors, …])

Detección de valores atípicos no supervisados ​​mediante el factor de valores atípicos locales (LOF)

neighbors.RadiusNeighborsClassifier([…])

Clasificador que implementa un voto entre vecinos dentro de un radio determinado

neighbors.RadiusNeighborsRegressor([radius, …])

Regresión basada en vecinos dentro de un radio fijo.

neighbors.RadiusNeighborsTransformer(*[, …])

Transforma X en un gráfico (ponderado) de vecinos más cercanos que un radio

neighbors.NearestCentroid([metric, …])

Clasificador de centroide más cercano.

neighbors.NearestNeighbors(*[, n_neighbors, …])

Alumno sin supervisión para implementar búsquedas de vecinos.

neighbors.NeighborhoodComponentsAnalysis([…])

Análisis de componentes de vecindario

neighbors.kneighbors_graph(X, n_vecinos, *)

Calcula la gráfica (ponderada) de k-Vecinos para puntos en X

neighbors.radius_neighbors_graph(X, radio, *)

Calcula la gráfica (ponderada) de Vecinos para puntos en X

sklearn.neural_network: modelos de redes neuronales

los sklearn.neural_network El módulo incluye modelos basados ​​en redes neuronales.

Guía del usuario: Ver el Modelos de redes neuronales (supervisadas) y Modelos de redes neuronales (sin supervisión) secciones para más detalles.

neural_network.BernoulliRBM([n_components, …])

Máquina de Boltzmann restringida Bernoulli (RBM).

neural_network.MLPClassifier([…])

Clasificador de perceptrón multicapa.

neural_network.MLPRegressor([…])

Regresor de perceptrón multicapa.

sklearn.pipeline: Pipeline

los sklearn.pipeline El módulo implementa utilidades para construir un estimador compuesto, como una cadena de transformadas y estimadores.

Guía del usuario: Ver el Pipelines y estimadores compuestos sección para más detalles.

pipeline.FeatureUnion(lista_transformadores, *[, …])

Concatena los resultados de varios objetos transformadores.

pipeline.Pipeline(pasos, *[, memory, verbose])

Pipeline de transformaciones con un estimador final.

pipeline.make_pipeline(*pasos[, memory, verbose])

Construya una tubería a partir de los estimadores dados.

pipeline.make_union(* transformadores[, n_jobs, …])

Construya un FeatureUnion a partir de los transformadores dados.

sklearn.preprocessing: preprocesamiento y normalización

los sklearn.preprocessing El módulo incluye métodos de escalado, centrado, normalización y binarización.

Guía del usuario: Ver el Procesamiento previo de datos sección para más detalles.

preprocessing.Binarizer(*[, threshold, copy])

Binarizar datos (establecer valores de características en 0 o 1) de acuerdo con un umbral.

preprocessing.FunctionTransformer([func, …])

Construye un transformador a partir de un invocable arbitrario.

preprocessing.KBinsDiscretizer([n_bins, …])

Agrupe los datos continuos en intervalos.

preprocessing.KernelCenterer()

Centre una matriz de granos.

preprocessing.LabelBinarizer(*[, neg_label, …])

Binarice las etiquetas de una manera “uno contra todos”.

preprocessing.LabelEncoder()

Codifique las etiquetas de destino con un valor entre 0 y n_classes-1.

preprocessing.MultiLabelBinarizer(*[, …])

Transfórmese entre iterable de iterables y un formato de múltiples etiquetas.

preprocessing.MaxAbsScaler(*[, copy])

Escale cada característica por su valor absoluto máximo.

preprocessing.MinMaxScaler([feature_range, …])

Transforme las características escalando cada característica a un rango determinado.

preprocessing.Normalizer([norm, copy])

Normalice las muestras individualmente a la norma de la unidad.

preprocessing.OneHotEncoder(*[, categories, …])

Codifique características categóricas como una matriz numérica de un solo uso.

preprocessing.OrdinalEncoder(*[, …])

Codifique características categóricas como una matriz de números enteros.

preprocessing.PolynomialFeatures([degree, …])

Genere características polinomiales y de interacción.

preprocessing.PowerTransformer([method, …])

Aplique una transformación de potencia en función de las características para hacer que los datos sean más parecidos a los de Gauss.

preprocessing.QuantileTransformer(*[, …])

Transforma características usando información de cuantiles.

preprocessing.RobustScaler(*[, …])

Escale características usando estadísticas que sean robustas a valores atípicos.

preprocessing.StandardScaler(*[, copy, …])

Estandarice las características eliminando la media y escalando a la varianza de la unidad

preprocessing.add_dummy_feature(X[, value])

Aumente el conjunto de datos con una función ficticia adicional.

preprocessing.binarize(X, *[, threshold, copy])

Umbral booleano de matriz en forma de matriz o scipy.sparse.

preprocessing.label_binarize(y, *, clases)

Binarice las etiquetas de una manera “uno contra todos”.

preprocessing.maxabs_scale(X, *[, axis, copy])

Escale cada característica al [-1, 1] rango sin romper la escasez.

preprocessing.minmax_scale(X[, …])

Transforme las características escalando cada característica a un rango determinado.

preprocessing.normalize(X[, norm, axis, …])

Escale los vectores de entrada individualmente a la norma unitaria (longitud del vector).

preprocessing.quantile_transform(X, *[, …])

Transforma características usando información de cuantiles.

preprocessing.robust_scale(X, *[, axis, …])

Estandarizar un conjunto de datos a lo largo de cualquier eje

preprocessing.scale(X, *[, axis, with_mean, …])

Estandarice un conjunto de datos a lo largo de cualquier eje.

preprocessing.power_transform(X[, method, …])

Las transformaciones de potencia son una familia de transformaciones paramétricas y monótonas que se aplican para hacer que los datos sean más parecidos a los de Gauss.

sklearn.random_projection: Proyección aleatoria

Transformadores de proyección aleatoria.

Las proyecciones aleatorias son una forma simple y computacionalmente eficiente de reducir la dimensionalidad de los datos intercambiando una cantidad controlada de precisión (como variación adicional) por tiempos de procesamiento más rápidos y tamaños de modelo más pequeños.

Las dimensiones y la distribución de las matrices de proyecciones aleatorias se controlan para preservar las distancias por pares entre dos muestras cualesquiera del conjunto de datos.

El principal resultado teórico detrás de la eficiencia de la proyección aleatoria es el Lema de Johnson-Lindenstrauss (citando Wikipedia):

En matemáticas, el lema de Johnson-Lindenstrauss es el resultado de incrustaciones de puntos de baja distorsión desde el espacio euclidiano de alta dimensión al espacio euclidiano de baja dimensión. El lema establece que un pequeño conjunto de puntos en un espacio de alta dimensión puede incrustarse en un espacio de dimensión mucho más baja de tal manera que las distancias entre los puntos se conserven casi por completo. El mapa utilizado para la incrustación es al menos Lipschitz, e incluso puede tomarse como una proyección ortogonal.

Guía del usuario: Ver el Proyección aleatoria sección para más detalles.

random_projection.GaussianRandomProjection([…])

Reducir la dimensionalidad a través de la proyección aleatoria gaussiana.

random_projection.SparseRandomProjection([…])

Reduzca la dimensionalidad a través de una proyección aleatoria dispersa.

random_projection.johnson_lindenstrauss_min_dim(…)

Encuentre un número ‘seguro’ de componentes para proyectar al azar.

sklearn.semi_supervised: Aprendizaje semi-supervisado

los sklearn.semi_supervised El módulo implementa algoritmos de aprendizaje semi-supervisados. Estos algoritmos utilizan pequeñas cantidades de datos etiquetados y grandes cantidades de datos no etiquetados para tareas de clasificación. Este módulo incluye la propagación de etiquetas.

Guía del usuario: Ver el Aprendizaje semi-supervisado sección para más detalles.

semi_supervised.LabelPropagation([kernel, …])

Clasificador de propagación de etiquetas

semi_supervised.LabelSpreading([kernel, …])

Modelo LabelSpreading para aprendizaje semi-supervisado

semi_supervised.SelfTrainingClassifier(…)

Clasificador de autoformación.

sklearn.svm: Máquinas vectoriales de soporte

los sklearn.svm El módulo incluye algoritmos de Support Vector Machine.

Guía del usuario: Ver el Máquinas de vectores de soporte sección para más detalles.

Estimadores

svm.LinearSVC([penalty, loss, dual, tol, C, …])

Clasificación de vectores de soporte lineal.

svm.LinearSVR(*[, epsilon, tol, C, loss, …])

Regresión de vectores de soporte lineal.

svm.NuSVC(*[, nu, kernel, degree, gamma, …])

Vector de Nu-Support Clasificación.

svm.NuSVR(*[, nu, C, kernel, degree, gamma, …])

Regresión de vectores de soporte de Nu.

svm.OneClassSVM(*[, kernel, degree, gamma, …])

Detección de valores atípicos sin supervisión.

svm.SVC(*[, C, kernel, degree, gamma, …])

Clasificación de vectores de soporte C.

svm.SVR(*[, kernel, degree, gamma, coef0, …])

Regresión de vectores con soporte de épsilon.

svm.l1_min_c(X, y, *[, loss, fit_intercept, …])

Devuelve el límite más bajo para C de modo que para C en (l1_min_C, infinito) se garantiza que el modelo no estará vacío.

sklearn.tree: árboles de decisión

los sklearn.tree El módulo incluye modelos basados ​​en árboles de decisión para clasificación y regresión.

Guía del usuario: Ver el Árboles de decisión sección para más detalles.

tree.DecisionTreeClassifier(*[, criterion, …])

Un clasificador de árbol de decisión.

tree.DecisionTreeRegressor(*[, criterion, …])

Un regresor de árbol de decisión.

tree.ExtraTreeClassifier(*[, criterion, …])

Un clasificador de árboles extremadamente aleatorio.

tree.ExtraTreeRegressor(*[, criterion, …])

Un regresor de árbol extremadamente aleatorio.

tree.export_graphviz(árbol de decisión[, …])

Exportar un árbol de decisiones en formato DOT.

tree.export_text(árbol de decisión, *[, …])

Cree un informe de texto que muestre las reglas de un árbol de decisiones.

Graficado

tree.plot_tree(árbol de decisión, *[, …])

Trace un árbol de decisiones.

sklearn.utils: Utilidades

los sklearn.utils El módulo incluye varias utilidades.

Guía para desarrolladores: Ver el Utilidades para desarrolladores página para más detalles.

utils.arrayfuncs.min_pos

Encuentra el valor mínimo de una matriz sobre valores positivos

utils.as_float_array(X, *[, copy, …])

Convierte una matriz similar a una matriz de flotantes.

utils.assert_all_finite(X, *[, allow_nan])

Lanza un ValueError si X contiene NaN o infinito.

utils.Bunch(** kwargs)

Objeto contenedor que expone claves como atributos.

utils.check_X_y(X, y[, accept_sparse, …])

Validación de entrada para estimadores estándar.

utils.check_array(formación[, accept_sparse, …])

Validación de entrada en una matriz, lista, matriz dispersa o similar.

utils.check_scalar(x, nombre, tipo_de_objetivo, *)

Validar el tipo y valor de los parámetros escalares.

utils.check_consistent_length(* matrices)

Verifique que todas las matrices tengan primeras dimensiones consistentes.

utils.check_random_state(semilla)

Convierta la semilla en una instancia np.random.RandomState

utils.class_weight.compute_class_weight(…)

Estime las ponderaciones de clase para conjuntos de datos no balanceados.

utils.class_weight.compute_sample_weight(…)

Estime los pesos de la muestra por clase para conjuntos de datos no balanceados.

utils.deprecated([extra])

Decorador para marcar una función o clase como obsoleta.

utils.estimator_checks.check_estimator(Estimador)

Compruebe si el estimador se adhiere a las convenciones de scikit-learn.

utils.estimator_checks.parametrize_with_checks(…)

Decorador específico de Pytest para parametrizar comprobaciones de estimadores.

utils.estimator_html_repr(estimador)

Cree una representación HTML de un estimador.

utils.extmath.safe_sparse_dot(a, b, *[, …])

Producto escalar que maneja correctamente la caja de matriz dispersa.

utils.extmath.randomized_range_finder(A, *, …)

Calcula una matriz ortonormal cuyo rango se aproxima al rango de A.

utils.extmath.randomized_svd(M, n_componentes, *)

Calcula una SVD aleatoria truncada.

utils.extmath.fast_logdet(A)

Calcule log (det (A)) para A simétrico.

utils.extmath.density(w, ** kwargs)

Calcule la densidad de un vector disperso.

utils.extmath.weighted_mode(a, w, *[, axis])

Devuelve una matriz del valor modal ponderado (más común) en a.

utils.gen_even_slices(n, n_paquetes, *[, n_samples])

Generador para crear n_packs porciones que van hasta n.

utils.graph.single_source_shortest_path_length(…)

Devuelve la longitud de ruta más corta desde el origen hasta todos los nodos accesibles.

utils.graph_shortest_path.graph_shortest_path

Realice una búsqueda de gráfico de ruta más corta en un gráfico dirigido o no dirigido positivo.

utils.indexable(* iterables)

Haga que las matrices sean indexables para la validación cruzada.

utils.metaestimators.if_delegate_has_method(…)

Cree un decorador para los métodos que se delegan a un subestimador

utils.multiclass.type_of_target(y)

Determine el tipo de datos indicados por el objetivo.

utils.multiclass.is_multilabel(y)

Comprobar si y está en un formato de etiquetas múltiples.

utils.multiclass.unique_labels(* ys)

Extraiga una matriz ordenada de etiquetas únicas.

utils.murmurhash3_32

Calcule el murmurhash3 de 32 bits de la clave en la semilla.

utils.resample(* matrices[, replace, …])

Vuelva a muestrear matrices o matrices dispersas de forma coherente.

utils._safe_indexing(X, índices, *[, axis])

Devuelve filas, elementos o columnas de X utilizando índices.

utils.safe_mask(X, máscara)

Devuelva una máscara que sea segura para usar en X.

utils.safe_sqr(X, *[, copy])

Cuadrado de elementos de tipo arreglo y matrices dispersas.

utils.shuffle(* matrices[, random_state, n_samples])

Mezcle matrices o matrices dispersas de forma coherente.

utils.sparsefuncs.incr_mean_variance_axis(X, …)

Calcule la media incremental y la varianza a lo largo de un eje en una matriz CSR o CSC.

utils.sparsefuncs.inplace_column_scale(X, escala)

Escalado de columna in situ de una matriz CSC / CSR.

utils.sparsefuncs.inplace_row_scale(X, escala)

Escalado de filas in situ de una matriz CSR o CSC.

utils.sparsefuncs.inplace_swap_row(X, m, n)

Intercambia dos filas de una matriz CSC / CSR in situ.

utils.sparsefuncs.inplace_swap_column(X, m, n)

Intercambia dos columnas de una matriz CSC / CSR in situ.

utils.sparsefuncs.mean_variance_axis(X, eje)

Calcule la media y la varianza a lo largo de un eje en una matriz CSR o CSC.

utils.sparsefuncs.inplace_csr_column_scale(X, …)

Escalado de columna in situ de una matriz de CSR.

utils.sparsefuncs_fast.inplace_csr_row_normalize_l1

Normalizar fila en el lugar usando la norma l1

utils.sparsefuncs_fast.inplace_csr_row_normalize_l2

Normalización de filas en el lugar usando la norma l2

utils.random.sample_without_replacement

Muestra enteros sin reemplazo.

utils.validation.check_is_fitted(estimador)

Realice la validación is_fitted para el estimador.

utils.validation.check_memory(memoria)

Mira esto memory es joblib.Memory-like.

utils.validation.check_symmetric(matriz, *[, …])

Asegúrese de que la matriz sea 2D, cuadrada y simétrica.

utils.validation.column_or_1d(y, *[, warn])

Columna Ravel o matriz numpy 1d, de lo contrario genera un error.

utils.validation.has_fit_parameter(…)

Comprueba si el método de ajuste del estimador es compatible con el parámetro dado.

utils.all_estimators([type_filter])

Obtenga una lista de todos los estimadores de sklearn.

Utilidades de joblib:

utils.parallel_backend(backend[, n_jobs, …])

Cambie el backend predeterminado utilizado por Parallel dentro de un bloque with.

utils.register_parallel_backend(nombre, fábrica)

Registre una nueva fábrica de backend de Parallel.

Desaprobado recientemente

Se eliminará en 1.0 (cambio de nombre de 0.25)