Data & ComputingMaschinelles LernenUniversity
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS

Binärer Kreuzentropie-Verlust Calculator

Verlustfunktion für Klassifikation.

Use the free calculatorCheck the variablesOpen the advanced solver
This is the free calculator preview. Advanced walkthroughs stay in the app.
Result
Ready
Loss

Formula first

Overview

Der binäre Kreuzentropie-Verlust oder Log-Loss quantifiziert den Unterschied zwischen zwei Wahrscheinlichkeitsverteilungen: den tatsächlichen binären Labels und den vorhergesagten Wahrscheinlichkeiten. Er belegt Vorhersagen, die selbstsicher, aber falsch sind, mit einer starken logarithmischen Strafe und steuert dadurch Optimierungsalgorithmen wie den Gradientenabstieg, um die Modellgenauigkeit zu verbessern.

Symbols

Variables

y = True Label (0/1), p = Predicted Prob, L = Loss

True Label (0/1)
Variable
Predicted Prob
Variable
Loss
Variable

Apply it well

When To Use

When to use: Diese Funktion ist speziell für binäre Klassifikationsaufgaben entwickelt, bei denen die Ausgabe ein einzelner Wahrscheinlichkeitswert zwischen 0 und 1 ist. Sie wird am häufigsten als Zielfunktion für logistische Regression und neuronale Netze verwendet, die in der Ausgabeschicht eine Sigmoid-Aktivierungsfunktion nutzen.

Why it matters: Anders als ein einfacher Klassifikationsfehler ist diese Verlustfunktion differenzierbar, was für Backpropagation im Deep Learning essenziell ist. Sie sorgt dafür, dass das Modell stärker bestraft wird, wenn es 'selbstsicher falsch' ist, als wenn es 'unsicher falsch' ist, was zu robusteren probabilistischen Vorhersagen führt.

Avoid these traps

Common Mistakes

  • Logarithmus zur Basis 10 verwenden (verwende den natürlichen Logarithmus).
  • p=0 oder p=1 genau (führt zu Unendlichkeit).

One free problem

Practice Problem

Ein medizinisches Diagnosemodell sagt mit einer Wahrscheinlichkeit von 0.85 voraus, dass ein Patient eine bestimmte Erkrankung hat. Wenn der Patient die Erkrankung tatsächlich hat (y=1), berechne den binären Kreuzentropie-Verlust.

Hint: Da y=1 gilt, vereinfacht sich die Formel zu L = -ln(p).

The full worked solution stays in the interactive walkthrough.

References

Sources

  1. Wikipedia: Cross-entropy
  2. Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville
  3. Deep Learning (Goodfellow, Bengio, Courville)
  4. Pattern Recognition and Machine Learning (Bishop)
  5. Goodfellow, Bengio, and Courville Deep Learning
  6. Bishop Pattern Recognition and Machine Learning
  7. Standard curriculum — Machine Learning