IT

분류 모델 평가 이해 Confusion Matrix 메트릭의 중요성

rimicode 2023. 4. 11. 18:46
728x90
반응형
SMALL

 

분류 모델의 평가는 기계 활용 능력의 중추적인 측면입니다. 그것은 특정 평가 기준에 기반한 모델의 정확도와 성능을 결정하는 것을 포함합니다. 일반적으로 사용되는 평가 기준 중 하나는 분류 문제에 대한 사실 및 예측 값의 요약을 제공하는 혼동 행렬입니다. 이 블로그 게시물에서는 혼동 매트릭스를 기반으로 하는 분류 모델의 평가 지표를 살펴보겠습니다.

 

 

 

 

혼동 행렬이란 무엇입니까?

 

혼동 행렬은 데이터의 실제값과 예측값을 비교하여 분류 모델의 성능을 표시하는 표입니다. 일반적으로 양수와 음수 또는 예와 아니오와 같은 두 가지 클래스만 있는 이진 분류 문제에서 사용됩니다. 테이블은 아래와 같이 각각 다른 스크립트를 나타내는 4개의 사분면으로 나뉩니다.

 

 

Confusion Matrix

 

  • TP - True Positive: 실제 값이 양수인 정확한 예측의 수입니다.
  • FP - False Positive: 실제 값이 음수인 잘못된 예측의 수입니다.
  • TN - True Negative: 실제 값이 음수인 올바른 예측의 수입니다.
  • FN - False Negative: 실제 값이 양수인 잘못된 예측의 수입니다.

 

 

 

 

Confusion Matrix 기반 평가 지표

 

혼동 매트릭스는 분류 모델의 정확도와 성능을 결정하는 데 사용할 수 있는 다채로운 평가 기준을 제공합니다. 일반적으로 사용되는 기준 중 일부는 다음과 같습니다.

 

1. Accuracy(정확도): 정확도는 모델의 전반적인 정확성을 측정하며 총 예측 수에 대한 올바른 예측 수의 비율로 계산됩니다. 다음과 같이 표현됩니다.

 

정확도 = (TP + TN) / (TP + FP + TN + FN)

 

2. Precision(정밀도): 정밀도는 모델에 의해 생성된 총 양성 예측 중에서 진정한 양성 예측의 비율을 측정합니다. 다음과 같이 표현됩니다.

 

정밀도 = TP / (TP + FP)

 

3. Recall(재현율): 재현율은 데이터의 사실 양성 값 중에서 참 긍정 예측의 비율을 측정합니다. 다음과 같이 표현됩니다.

 

재현율 = TP / (TP + FN)

 

4. F1-Score: F1-Score는 정밀도와 재현율의 조화 평균이며 두 기준 사이의 균형을 측정하는 데 사용됩니다. 다음과 같이 표현됩니다.

 

F1-Score = 2 * (Precision * Recall) / (Precision + Recall)

 

5. Specificity(특이성): 특이성은 데이터의 실제 음성 값 중에서 참 음성 예측의 비율을 측정합니다. 다음과 같이 표현됩니다.

 

특이도 = TN / (TN + FP)

 

 

 

 

혼돈 행렬을 기초한 분류 모델의 평가 지표는 모델의 정확도와 성능을 측정하는 포괄적인 방법을 제공합니다. 혼동 매트릭스에서 추론된 기준은 모델의 강점과 단점을 결정하는 데 도움이 되며 모델이 개선될 수 있는 방법에 대한 통찰력을 제공합니다. 해결 중인 문제와 작업의 특정 조건을 기반으로 적용 가능한 메트릭을 선택하는 것이 중요합니다.

 

728x90
반응형
LIST