Para detecção, uma maneira comum de determinar se uma proposta de objeto estava correta é Intersecção sobre União (IoU, IU). Isso pega o conjunto de pixels de objeto propostos e o conjunto de pixels de objeto verdadeiros B e calcula:
Geralmente, IoU> 0,5 significa que foi um êxito, caso contrário, foi um fracasso. Para cada classe, pode-se calcular o
- Verdadeiro positivo ( ): foi feita uma proposta para a classe c e, na verdade, havia um objeto da classe c
- Falso Positivo ( ): a proposta foi feita para a classe C , mas não há nenhum objeto da classe c
- Precisão média da classe : # T P ( c )
O mAP (precisão média média) =
Se alguém deseja melhores propostas, aumenta a IoU de 0,5 para um valor mais alto (até 1,0, o que seria perfeito). Pode-se denotar isso com mAP @ p, onde é a IoU.
Mas o que mAP@[.5:.95]
(como encontrado neste artigo ) significa?
computer-vision
Martin Thoma
fonte
fonte
[.5:.95]
parte se refira a um intervalo de valores de IoU, mas como esse intervalo é avaliado em um único mAP, eu não saberia.Respostas:
mAP@[.5:.95]
(alguém indicadomAP@[.5,.95]
) significa mAP médio em diferentes limites de IoU, de 0,5 a 0,95, etapa 0,05 (0,5, 0,55, 0,6, 0,65, 0,7, 0,75, 0,8, 0,85, 0,9, 0,95).BTW, o código fonte do coco mostra exatamente o que
mAP@[.5:.95]
está fazendo:self.iouThrs = np.linspace(.5, 0.95, np.round((0.95 - .5) / .05) + 1, endpoint=True)
Referências
https://github.com/pdollar/coco
http://mscoco.org/
https://www.cs.cornell.edu/~sbell/pdf/cvpr2016-ion-bell.pdf
https://arxiv.org/pdf/1506.01497.pdf
https://arxiv.org/pdf/1611.10012.pdf
fonte
fonte
A média é de AP em todas as categorias. Tradicionalmente, isso é chamado de "precisão média média" (mAP). Não fazemos distinção entre AP e mAP (e também AR e mAR) e assumimos que a diferença é clara no contexto.
http://cocodataset.org/#detections-eval
fonte