Posterior a investigar en varios repositorios y páginas al concluir descubrimos la resolución que te enseñaremos ahora.
sklearn.linear_model.lars_path_gram(Xy, Gram, *, n_samples, max_iter=500, alpha_min=0, method='lar', copy_X=True, eps=2.220446049250313e-16, copy_Gram=True, verbose=0, return_path=True, return_n_iter=False, positive=False)
[source]-
lars_path en el modo de estadísticas suficientes [1]
El objetivo de optimización para el caso method=’lasso’ es:
(1/(2* n_samples))*||y - Xw||^2_2 + alpha *||w||_1
en el caso de method=’lars’, la función objetivo solo se conoce en forma de una ecuación implícita (ver discusión en [1])
Leer más en el Guía del usuario.
- Parámetros
-
Xyarray-like of shape (n_samples,) or (n_samples, n_targets)
-
Xy = np.punto(XT, y).
Gramarray-like of shape (n_features, n_features)
-
Gramo = np.dot(XT * X).
n_samplesint or float
-
Tamaño de muestra equivalente.
max_iterint, default=500
-
Número máximo de iteraciones a realizar, establecido en infinito sin límite.
alpha_minfloat, default=0
-
Correlación mínima a lo largo del camino. Corresponde al parámetro alfa del parámetro de regularización en Lasso.
method‘lar’, ‘lasso’, default=’lar’
-
Especifica el modelo devuelto. Seleccione
'lar'
para la regresión de ángulo mínimo,'lasso'
para el Lazo. copy_Xbool, default=True
-
Si
False
,X
se sobrescribe. epsfloat, default=np.finfo(float).eps
-
La regularización con precisión de máquina en el cálculo de los factores diagonales de Cholesky. Aumente esto para sistemas muy mal acondicionados. A diferencia del
tol
En algunos algoritmos iterativos basados en optimización, este parámetro no controla la tolerancia de la optimización. copy_Grambool, default=True
-
Si
False
,Gram
se sobrescribe. verboseint, default=0
-
Controla la verbosidad de salida.
return_pathbool, default=True
-
Si
return_path==True
devuelve la ruta completa; de lo contrario, solo devuelve el último punto de la ruta. return_n_iterbool, default=False
-
Si devolver el número de iteraciones.
positivebool, default=False
-
Restrinja los coeficientes para que sean >= 0. Esta opción solo está permitida con el método ‘lasso’. Tenga en cuenta que los coeficientes del modelo no convergerán a la solución de mínimos cuadrados ordinarios para valores pequeños de alfa. Solo coeficientes hasta el valor alfa más pequeño (
alphas_[alphas_ > 0.].min()
when fit_path=True) alcanzados por el algoritmo paso a paso de Lars-Lasso suelen estar en congruencia con la solución de la función lasso_path de descenso coordinado.
- Devoluciones
-
alphasarray-like of shape (n_alphas + 1,)
-
Máximo de covarianzas (en valor absoluto) en cada iteración.
n_alphas
es cualquieramax_iter
,n_features
o el número de nodos en la ruta conalpha >= alpha_min
el que sea menor. activearray-like of shape (n_alphas,)
-
Índices de variables activas al final del camino.
coefsarray-like of shape (n_features, n_alphas + 1)
-
Coeficientes a lo largo del camino
n_iterint
-
Número de iteraciones ejecutadas. Solo se devuelve si return_n_iter se establece en True.
Ver también
lars_path
lasso_path
lasso_path_gram
LassoLars
Lars
LassoLarsCV
LarsCV
sklearn.decomposition.sparse_encode
Referencias
1
-
“Regresión de ángulo mínimo”, Efron et al. http://statweb.stanford.edu/~tibs/ftp/lars.pdf
2
3