sklearn.linear_model.lars_path_gram(Xy, Gram, *, n_samples, max_iter=500, alpha_min=0, method='lar', copy_X=True, eps=2.220446049250313e-16, copy_Gram=True, verbose=0, return_path=True, return_n_iter=False, positive=False)[source]

lars_path en el modo de estadísticas suficientes [1]

El objetivo de optimización para el caso method=’lasso’ es:

(1/(2* n_samples))*||y - Xw||^2_2 + alpha *||w||_1

en el caso de method=’lars’, la función objetivo solo se conoce en forma de una ecuación implícita (ver discusión en [1])

Leer más en el Guía del usuario.

Parámetros
Xyarray-like of shape (n_samples,) or (n_samples, n_targets)

Xy = np.punto(XT, y).

Gramarray-like of shape (n_features, n_features)

Gramo = np.dot(XT * X).

n_samplesint or float

Tamaño de muestra equivalente.

max_iterint, default=500

Número máximo de iteraciones a realizar, establecido en infinito sin límite.

alpha_minfloat, default=0

Correlación mínima a lo largo del camino. Corresponde al parámetro alfa del parámetro de regularización en Lasso.

method‘lar’, ‘lasso’, default=’lar’

Especifica el modelo devuelto. Seleccione 'lar' para la regresión de ángulo mínimo, 'lasso' para el Lazo.

copy_Xbool, default=True

Si False, X se sobrescribe.

epsfloat, default=np.finfo(float).eps

La regularización con precisión de máquina en el cálculo de los factores diagonales de Cholesky. Aumente esto para sistemas muy mal acondicionados. A diferencia del tol En algunos algoritmos iterativos basados ​​en optimización, este parámetro no controla la tolerancia de la optimización.

copy_Grambool, default=True

Si False, Gram se sobrescribe.

verboseint, default=0

Controla la verbosidad de salida.

return_pathbool, default=True

Si return_path==True devuelve la ruta completa; de lo contrario, solo devuelve el último punto de la ruta.

return_n_iterbool, default=False

Si devolver el número de iteraciones.

positivebool, default=False

Restrinja los coeficientes para que sean >= 0. Esta opción solo está permitida con el método ‘lasso’. Tenga en cuenta que los coeficientes del modelo no convergerán a la solución de mínimos cuadrados ordinarios para valores pequeños de alfa. Solo coeficientes hasta el valor alfa más pequeño (alphas_[alphas_ > 0.].min() when fit_path=True) alcanzados por el algoritmo paso a paso de Lars-Lasso suelen estar en congruencia con la solución de la función lasso_path de descenso coordinado.

Devoluciones
alphasarray-like of shape (n_alphas + 1,)

Máximo de covarianzas (en valor absoluto) en cada iteración. n_alphas es cualquiera max_iter, n_features o el número de nodos en la ruta con alpha >= alpha_minel que sea menor.

activearray-like of shape (n_alphas,)

Índices de variables activas al final del camino.

coefsarray-like of shape (n_features, n_alphas + 1)

Coeficientes a lo largo del camino

n_iterint

Número de iteraciones ejecutadas. Solo se devuelve si return_n_iter se establece en True.

Ver también

lars_path
lasso_path
lasso_path_gram
LassoLars
Lars
LassoLarsCV
LarsCV
sklearn.decomposition.sparse_encode

Referencias

1

“Regresión de ángulo mínimo”, Efron et al. http://statweb.stanford.edu/~tibs/ftp/lars.pdf

2

Entrada de Wikipedia sobre la regresión de ángulo mínimo

3

Entrada de Wikipedia sobre el Lasso