Saltar al contenido

¿Qué es la métrica mAp y cómo se calcula?

Investigamos por distintos sitios y de esta manera regalarte la respuesta para tu inquietud, si continúas con dificultades deja tu inquietud y te contestamos porque estamos para servirte.

Solución:

mAp es la precisión promedio promedio.

Su uso es diferente en el campo de la Recuperación de Información (Referencia [1] [2] ) y configuración de clasificación multiclase (detección de objetos).

Para calcularlo para la detección de objetos, calcule la precisión promedio para cada clase en sus datos en función de las predicciones de su modelo. La precisión promedio está relacionada con el área bajo la curva de recuperación de precisión para una clase. Luego, tomar la media de esta precisión de clase individual promedio le da la precisión promedio promedio.

Para calcular la precisión promedio, consulte [3]

Las citas son del artículo de Zisserman mencionado anteriormente – 4.2 Evaluación de resultados (Página 11):

En primer lugar, un “criterio de superposición” se define como una intersección sobre unión superior a 0,5. (por ejemplo, si una casilla predicha satisface este criterio con respecto a una casilla de verdad básica, se considera una detección). Luego se hace una coincidencia entre las casillas GT y las casillas predichas utilizando este enfoque “codicioso”:

La salida de detecciones por un método se asignó a objetos de verdad en tierra que satisfacían el criterio de superposición en orden clasificado por la salida de confianza (decreciente). Se consideraron múltiples detecciones del mismo objeto en una imagen. false detecciones, por ejemplo, 5 detecciones de un solo objeto contadas como 1 detección correcta y 4 false detecciones

Por lo tanto, cada cuadro predicho es Verdadero-Positivo o Falso-Positivo. Cada cuadro de verdad en tierra es Verdadero-Positivo. No hay verdaderos negativos.

Luego, la precisión promedio se calcula promediando los valores de precisión en la curva de recuperación de precisión donde la recuperación está en el rango [0, 0.1, …, 1] (por ejemplo, promedio de 11 valores de precisión). Para ser más precisos, consideramos una curva PR ligeramente corregida, donde para cada punto de la curva (p, r), si existe un punto de la curva diferente (p’, r’) tal que p’ > p y r’ >= r , reemplazamos p con el máximo p’ de esos puntos.

Lo que aún no me queda claro es qué se hace con esas cajas GT que son nunca detectado (incluso si la confianza es 0). Esto significa que hay ciertos valores de recuperación que la curva de recuperación de precisión nunca alcanzará, y esto hace que el cálculo de precisión promedio anterior no esté definido.

Editar:

Respuesta corta: en la región donde la recuperación es inalcanzable, la precisión cae a 0.

Una forma de explicar esto es suponer que cuando el umbral de confianza se acerca a 0, un número infinito de predicho los cuadros delimitadores se iluminan por toda la imagen. Luego, la precisión pasa inmediatamente a 0 (ya que solo hay un número finito de cajas GT) y el retiro sigue creciendo en esta curva plana hasta que alcanzamos el 100%.

Para la detección, una forma común de determinar si una propuesta de objeto era correcta es Intersección sobre Unión (IOU, IU). Esto toma el conjunto A
de píxeles del objeto propuesto y el conjunto de true píxeles de objeto B y calcula:

Comúnmente, IoU > 0.5 significa que fue un éxito, de lo contrario, fue un error. Para cada clase, se puede calcular el

  • Verdadero positivo TP(c): se hizo una propuesta para la clase c y en realidad había un objeto de la clase c
  • Falso positivo FP(c): se hizo una propuesta para la clase c, pero no hay ningún objeto de la clase c
  • Precisión media para la clase c:

El mAP (precisión media media) es entonces:

Nota:
Si uno quiere mejores propuestas, uno aumenta el IoU de 0,5 a un valor más alto (hasta 1,0 que sería perfecto). Uno puede denotar esto con [email protected], donde p in (0, 1) es el pagaré.

[email protected][.5:.95] significa que el mAp se calcula sobre múltiples umbrales y luego se promedia nuevamente

Editar:
Para obtener información más detallada, consulte las métricas de evaluación de COCO

Puntuaciones y comentarios

Al final de la web puedes encontrar las acotaciones de otros programadores, tú asimismo tienes la libertad de insertar el tuyo si lo crees conveniente.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *