Здравствуйте, читатели, в моем предыдущем блоге мы узнали, как мы можем выбрать правильную метрику для оценки наших моделей классификации, используя такие метрики, как точность, полнота, точность и F-оценка.

Сегодня мы поговорим еще о двух таких важных метриках — кривой ROC-AUC и кривой P-R (Precision-Recall) и о том, как они могут помочь нам оценить наши модели классификации.

Кривые ROC и кривые Precision-Recall — это диагностические инструменты, которые помогают в интерпретации бинарных (двухклассовых) моделей классификации. Графики из этих кривых могут быть созданы и использованы для понимания компромисса в производительности для различных пороговых значений при интерпретации прогнозов, сделанных моделью. Каждый из этих графиков дает оценку, т.е. оценку AUC (площадь под кривой), которая суммирует их и может пригодиться при сравнении различных моделей.

Давайте поговорим о кривой P-R (точность-отзыв)

Кривая точности-отзыва (или кривая PR) представляет собой график точности (ось Y) и отзыва (ось X) для различных порогов вероятности. Ориентация кривой PR на класс меньшинства делает ее эффективной диагностикой несбалансированных моделей бинарной классификации.

Точность количественно определяет количество сделанных правильных положительных прогнозов, а отзыв определяет количество правильных положительных прогнозов, сделанных из всех положительных прогнозов, которые могли быть сделаны.

Precision-Recall AUC суммирует кривую с диапазоном пороговых значений в виде единой оценки. Затем эту оценку можно использовать в качестве точки сравнения между различными моделями в задаче бинарной классификации, где оценка 1,0 представляет собой модель с отличными навыками.

Кривая ROC (или кривая рабочих характеристик приемника):

Она очень похожа на кривую точность/отзыв, но вместо того, чтобы строить график зависимости точности от отзыва, кривая ROC отображает процент истинно положительных результатов (отзывов) в сравнении с коэффициентом ложных срабатываний.

  • TruePositiveRate = TruePositives / (TruePositives + False Negatives)
  • FalsePositiveRate = FalsePositives / (FalsePositives + TrueNegatives), что также равно единице за вычетом истинно отрицательного показателя (отношение отрицательных случаев, которые правильно классифицируются как отрицательные). TNR
    также называют специфичностью.

Следовательно, кривая ROC отображает чувствительность (отзыв) Vs1 — специфичность, площадь под кривой можно рассчитать, чтобы получить единую оценку для модели классификатора по всем пороговым значениям. Это называется площадью ROC под кривой или ROC AUC, очень похожей на PR-AUC, которую мы обсуждали выше.

Теперь мы знаем, что представляют собой эти две кривые, но важно задать вопрос, как решить, какую из них использовать.

Кривые точности-отзыва рекомендуются для областей с сильным перекосом, где кривые ROC могут давать чрезмерно оптимистичное представление о производительности.

Как правило, вы должны отдавать предпочтение кривой PR, когда положительный
класс встречается редко
или когда вас больше волнует ложный положительные, чем
ложноотрицательные
, и ROC-кривая в противном случае.

Спасибо за прочтение, Ура :)