机器学习常用评估指标
机器学习常用评估指标
机器学习的评价指标有精度、精确率、召回率、P-R曲线、F1 值、TPR、FPR、ROC等指标,还有在生物领域常用的敏感性、特异性等指标。
基础
在分类任务中,各指标的计算基础都来自于对正负样本的分类结果,用混淆矩阵表示,如 图1 所示:
其中:
-
TP(True Positives)表示真正例,即模型正确预测为正类的样本数量。
-
FN(False Negatives)表示假负例,即模型错误预测为负类的正类样本数量。
-
FP(False Positive)表示假正例,即模型错误地将负类预测为正类的情况。
-
TN(True Negative)表示真正例,即模型正确地将负类预测为负类的情况。
精度
Accuracy = T P + T N T P + F N + F P + T N \text{Accuracy} = \frac{TP + TN}{TP + FN + FP + TN} Accuracy=TP+FN+FP+TNTP+TN
即所有分类正确的样本占全部样本的比例。
精确率
精确率又叫Precision
Precision = T P T P + F P \text{Precision} = \frac{TP}{TP + FP} Precision=TP+FPTP
模型预测为正例的样本中,真正为正例的比例。
召回率
召回率又叫:Recall、查全率
Recall = T P T P + F N \text{Recall} = \frac{TP}{TP + FN} Recall=TP+FNTP
即模型正确识别出的正类样本占所有实际正类样本的比例。
P-R曲线
P-R曲线又叫做:PRC,通过可视化的方式展示了模型在精确率和召回率两个关键指标之间的权衡关系。
理想情况下,曲线应尽可能靠近右上角(精确率和召回率均为 1)。
AP(Average Precision)是 P-R 曲线与坐标轴围成的面积,用于量化模型整体性能。AP 值越高,模型在不同阈值下的综合表现越好。
F1 值
F1 值是机器学习中用于衡量分类模型性能的综合指标,它通过调和平均的方式整合了精确率和召回率。
F 1 = 2 ∗ P ∗ R P + R F1 = \frac{2 \ast P \ast R}{P + R} F1=P+R2∗P∗R
相较于算术平均,调和平均更强调对较小值的敏感性。这意味着当精确率或召回率任意一方过低时,F1 值会显著下降,从而强制模型在两者间寻求平衡。
TPR
真正例率,衡量正例识别能力,即召回率。
TPR = T P T P + F N \text{TPR} = \frac{TP}{TP + FN} TPR=TP+FNTP
FPR
假正例率,衡量负例误判为正例的比例。
FPR = F P F P + T N \text{FPR} = \frac{FP}{FP + TN} FPR=FP+TNFP
ROC
ROC曲线起源于二战时期的雷达信号检测理论,用于衡量 “信号” 与 “噪声” 的区分能力。
P-R 和 ROC 的区别:
ROC 曲线以FPR为横轴、TPR为纵轴,侧重展示模型在不同阈值下区分正负样本的整体能力,对样本不均衡不敏感,适用于医疗诊断等需平衡误判成本的场景;而 P-R 曲线以Recall为横轴、Precision为纵轴,直接刻画正例预测的 “查准率” 与 “查全率” 权衡,在正负样本高度失衡(如欺诈检测)时更能反映模型对稀有正例的识别性能,两者分别从不同维度揭示模型在分类阈值调整下的表现,需结合数据分布和业务目标选择使用。
AUC 即 ROC 曲线下的面积,是评估二分类模型性能的核心指标。其本质是衡量模型对正负样本的排序能力——AUC 值越高,模型将正样本排在负样本之前的概率越大。