Saltar al contenido

Aplicaciones de la geometría diferencial en inteligencia artificial

Esta sección ha sido evaluado por nuestros expertos así garantizamos la exactitud de nuestra esta crónica.

Solución:

Para aplicaciones de Geometría Diferencial en Ciencias de la Computación, el siguiente enlace es muy útil: http://stat.fsu.edu/~anuj/CVPR_Tutorial/ShortCourse.htm

Habla de :
“Métodos geométricos diferenciales para el análisis de formas y el reconocimiento de actividades”

Uno de los contribuyentes de lo anterior es Dr. Anuj Srivastava (http://stat.fsu.edu/~anuj/index.php). Me gustó la siguiente línea de su página de áreas de investigación: “Esta tecnología es necesaria en muchas aplicaciones – diagnóstico médico, biometría, videovigilancia, imágenes submarinas, cartografía del terreno y análisis de imágenes satelitales. “

Espero eso ayude !

Ciertamente, hay varias áreas en las que la geometría diferencial (DG) afecta a la IA, particularmente dentro del aprendizaje automático y la visión por computadora.

– Datos como colectores –

La idea básica del “aprendizaje múltiple”, que es una técnica ampliamente utilizada para la reducción de dimensionalidad no lineal (NLDR), es ver los datos como si se encontraran en una variedad de baja dimensión (Riemanniana) en un espacio de datos sin procesar de alta dimensión. Ahora bien, hay muchos métodos para NLDR que no son realmente de naturaleza geométrica diferencial, pero todavía se denominan métodos de aprendizaje múltiples. Sin embargo, existen algunos métodos muy “DG”.

Uno son los mapas propios laplacianos. Cada colector de Riemann tiene un operador de Laplace-Beltrami asociado, con un espectro de operadores que lo acompaña. Este espectro tiene muy buenas propiedades para representar funciones en la variedad (ver: artículo de Belkin & Niyogi de 2003, y también “Sobre la optimización de la forma y la representación de datos en el dominio espectral” por Aflalo, Brezis y Kimmel, 2015), y son por lo tanto, es una buena opción para usar como función de representación incorporada. El operador Laplace-Beltrami se estima a través de un gráfico de vecinos más cercanos discretos Laplaciano que converge al true operador continuo de la variedad subyacente, a partir de la cual se muestrean los datos, en el límite.

Otro es Diffusion Maps. Aquí, uno mira la distancia entre puntos usando una aproximación de la “distancia de difusión” en la variedad subyacente. Por supuesto, esto está estrechamente relacionado con la PDE de difusión (calor) en el colector.

Pero, ¿los datos realmente se encuentran en variedades de baja dimensión? Hay algunos trabajos para probar esto, como Fefferman et al, 2016, Testing the Manifold Hypothesis.

– Geometría de la información de modelos estadísticos –

Si considera una familia de distribuciones de probabilidad parametrizadas, entonces una forma obvia de medir la distancia entre ellas es mirar, por ejemplo, la distancia entre los valores de los parámetros. Sin embargo, esta es una forma terrible de medir esta distancia. En su lugar, se debe observar cómo, por ejemplo, cambia la divergencia KL entre las distribuciones, a medida que se varían los parámetros entre sí. Esta es (aproximadamente) la idea de geometría de la información. Consulte también aquí.

Esencialmente, se considera el espacio de distribuciones de probabilidad formado por alguna familia parametrizada y luego se define una métrica de Riemann en el espacio (lo que hace que se convierta en una variedad de Riemann).

Por supuesto, muchos modelos estadísticos son esencialmente distribuciones de probabilidad. En el aprendizaje automático y el reconocimiento de patrones, el objetivo es calcular los parámetros. PERO, ahora que el espacio de parámetros es en realidad una variedad de Riemann, en lugar de seguir el gradiente “clásico” (que solo considera la distancia euclidiana entre parámetros), puede seguir el “gradiente natural”, que tiene propiedades muy superiores. Ver Amari, El gradiente natural funciona de manera eficiente en el aprendizaje.. Su principal desventaja es el tiempo de cálculo, pero la gente está buscando formas de solucionarlo (por ejemplo, vea el trabajo de Martens y Grosse). Véase también el trabajo de Ollivier sobre métricas de Riemannian para redes neuronales.

El fundador del campo, Amari, también analiza las aplicaciones de ML en su libro. Geometría de la información y sus aplicaciones.

– Comprensión de formas –

Particularmente en la visión por computadora en 3D y en los esfuerzos por aplicar el aprendizaje automático a los gráficos por computadora, la geometría diferencial juega un papel importante. key papel. Todo el campo del aprendizaje profundo geométrico depende de ello. El problema surge porque los datos en sí tienen múltiples valores, es decir, las redes convolucionales estándar no se aplican realmente a los datos no euclidianos. Una gran referencia es Aprendizaje profundo geométrico: más allá de los datos euclidianos por Bronstein et al.

– Curvatura de modelos generativos –

Los modelos generativos profundos recientes aprenden mapeos entre un espacio de datos y un espacio latente. En ambos casos, las superficies formadas dentro de cada espacio pueden verse como variedades de Riemann. Esto sugiere formas geométricas de analizar o mejorar los algoritmos. Por ejemplo:

  • Shao et al, La geometría riemanniana de modelos generativos profundos

  • Arvanitidis et al, Rareza del espacio latente: sobre la curvatura de modelos generativos profundos

Sección de Reseñas y Valoraciones

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *