Calcolatore Matrice di Confusione
Analizza le prestazioni dei modelli di classificazione con le metriche della matrice di confusione
Questo calcolatore ti aiuta a valutare le prestazioni dei modelli di classificazione utilizzando le metriche della matrice di confusione:
- Inserisci i quattro valori base della matrice di confusione:
- Veri Positivi (VP): Casi positivi correttamente previsti
- Veri Negativi (VN): Casi negativi correttamente previsti
- Falsi Positivi (FP): Casi erroneamente previsti come positivi
- Falsi Negativi (FN): Casi erroneamente previsti come negativi
- Il calcolatore calcolerà:
- Accuratezza: Previsioni corrette totali
- Precisione: Valore predittivo positivo
- Richiamo: Tasso di veri positivi (Sensibilità)
- Punteggio F1: Media armonica di precisione e richiamo
- Specificità: Tasso di veri negativi
- Tassi di Falsi Positivi e Negativi
Metriche chiave e le loro formule:
- Accuratezza = (VP + VN) / (VP + VN + FP + FN)
Misura le previsioni corrette in tutte le classi
- Precisione = VP / (VP + FP)
Quanti dei previsti come positivi sono effettivamente positivi
- Richiamo = VP / (VP + FN)
Quanti dei positivi reali sono correttamente identificati
- Punteggio F1 = 2 × (Precisione × Richiamo) / (Precisione + Richiamo)
Media armonica che bilancia precisione e richiamo
- Specificità = VN / (VN + FP)
Quanti dei negativi reali sono correttamente identificati
Le matrici di confusione sono utilizzate in vari campi:
- Valutazione dei modelli di machine learning
- Test diagnostici medici
- Sistemi di controllo qualità
- Rilevamento delle frodi
- Filtraggio dello spam
- Classificazione delle immagini
- Elaborazione del linguaggio naturale
Su quale metrica dovrei concentrarmi?
Dipende dalla tua applicazione. Usa l'accuratezza per dataset bilanciati, la precisione quando i falsi positivi sono costosi, il richiamo quando i falsi negativi sono costosi, e il punteggio F1 quando hai bisogno di un equilibrio tra precisione e richiamo.
Qual è la differenza tra accuratezza e precisione?
L'accuratezza misura le previsioni corrette totali (sia positive che negative), mentre la precisione si concentra sull'accuratezza delle sole previsioni positive. Un'alta accuratezza non significa sempre alta precisione, specialmente con dataset sbilanciati.
Quando dovrei usare il punteggio F1?
Usa il punteggio F1 quando hai bisogno di una singola metrica che bilanci precisione e richiamo, specialmente con dataset sbilanciati. È particolarmente utile quando sia i falsi positivi che i falsi negativi hanno costi simili.