深刻理解目标检测中的mAP评估指标

发布网友

我来回答

1个回答

热心网友

分享人工智能技术干货,专注深度学习与计算机视觉领域!

mAP,即“Mean Average Percision”,中文为“均值平均精度”,通常指所有图片中所有类别的AP平均值,常用于目标检测任务中评估算法性能。Iou=0.5@mAP指的是在Iou阈值为0.5下的均值平均精度值。尽管很多人知道mAP越高越好,但对这个评估指标的理解可能并不深入,不清楚其计算方式。本文将深入探讨目标检测中的mAP评估指标,包括其概念原理和计算方法。

要了解mAP的计算方法,需要先了解一些相关概念。这些概念在之前的文章《常见的模型算法评估指标》中有详细阐述。在此,我们重温一下与mAP计算相关的评估指标。

混淆矩阵中的四个参数如下:

True Positive(TP):预测为正例,实际为正例,即算法预测正确。

False Positive(FP):预测为正例,实际为负例,即算法预测错误。

True Negative(TN):预测为负例,实际为负例,即算法预测正确。

False Negative(FN):预测为负例,实际为正例,即算法预测错误。

Precision:精确率,指的是正确预测的正样本数占所有预测为正样本的数量的比值。

Recall:召回率,指的是正确预测的正样本数占真实正样本总数的比值。

IOU(Intersection over Union):交并比,指的是ground truth bbox与predict bbox的交集面积占两者并集面积的一个比率。

AP(Average Percision):AP为平均精度,指的是所有图片内的具体某一类的PR曲线下的面积。

mAP是指所有图片内的所有类别的AP的平均值。要深刻理解mAP,我们需要关注每个类别的AP。计算mAP的关键在于每个类别的AP。

举例说明每个类别的AP计算过程,从而得出mAP的计算方式。

假设我们有10张图像用于目标检测,每张图像都事先标记有GT(Ground Truth)标注框。我们只关注一个类别,例如车辆。经过算法预测后,每一张图像都会得出相应的车辆预测框和置信度。根据置信度进行降序排序,然后按照常用阈值取Iou=0.5,预测框与实际框的Iou大于0.5时,记为TP,否则记为FP。有了每一张图像的TP、FP和FN,就可以计算每一张图像的Precision和Recall值,从而计算出PR曲线下的面积得出具体类别的AP值。

根据上述假设和AP计算原理,我们可以得出PR曲线图,蓝色折线即为PR曲线,红色折线与横纵坐标所包围的面积即为该PR曲线下的PR面积即AP值。

因此,在该假设情况下,该目标检测算法的车辆类在Iou为0.5的情况下其AP值为0.476,同理,其他目标类别可依据该方法计算得出。

在得出具体类别的AP平均精度计算方法后,我们不难得出mAP的计算方法。按照以下公式即可得出目标检测算法的mAP评估指标:

其中,C为目标检测任务中的类别数量。

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com