Data & ComputingMakine ÖğrenimiUniversity
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS

İkili Çapraz Entropi Kaybı

Sınıflandırma için kayıp fonksiyonu.

Understand the formulaSee the free derivationOpen the full walkthrough

This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.

Core idea

Overview

İkili Çapraz Entropi Kaybı veya Log Kaybı, iki olasılık dağılımı arasındaki farkı nicel olarak belirler: gerçek ikili etiketler ve tahmin edilen olasılıklar. Güvenilir ancak yanlış tahminlere ağır bir logaritmik ceza uygulayarak, gradyan inişi gibi optimizasyon algoritmalarını model doğruluğunu iyileştirmeye yönlendirir.

When to use: Bu fonksiyon, çıktının 0 ile 1 arasında tek bir olasılık değeri olduğu ikili sınıflandırma görevleri için özel olarak tasarlanmıştır. Çıkış katmanında sigmoid aktivasyon fonksiyonu kullanan lojistik regresyon ve sinir ağları için amaç fonksiyonu olarak en yaygın şekilde kullanılır.

Why it matters: Basit sınıflandırma hatasından farklı olarak, bu kayıp fonksiyonu türevlenebilirdir, bu da derin öğrenmede geri yayılım için elzemdir. Modelin 'güvenle yanlış' olmaktan ziyade 'belirsizce yanlış' olduğu için daha ağır cezalandırılmasını sağlayarak daha sağlam olasılıksal tahminlere yol açar.

Symbols

Variables

y = True Label (0/1), p = Predicted Prob, L = Loss

True Label (0/1)
Variable
Predicted Prob
Variable
Loss
Variable

Walkthrough

Derivation

Türetme: İkili Çapraz Entropi (Log Kaybı)

Bağımsız Bernoulli etiketli veriler için negatif log-olabilirlik olarak ikili çapraz entropi kaybını türetir.

  • Hedefler ikili etiketlerdir: \{0,1\}.
  • Gözlemler bağımsızdır (olabilirlik çarpanlaması için i.i.d.).
  • Model çıktıları 0 < _i < 1 (olasılıklar) koşulunu sağlar.
1

Bernoulli Olasılığını Yazın:

Eğer =1 ise terim _i'yi, eğer =0 ise (1-_i)'yi katkıda bulunur. Bağımsızlık, i üzerinden çarpabilmemizi sağlar.

2

Log-Olasılığını Alın:

Logaritma çarpımları toplam haline getirir ve optimizasyonu kolaylaştırır.

3

Bir Minimizasyon Hedefine Dönüştürün:

Negatif ortalama log-olabilirliği minimize etmek, olabilirliği maksimize etmeye eşdeğerdir; bu ikili çapraz entropidir.

Result

Source: Standard curriculum — Machine Learning

Visual intuition

Graph

Graph type: logarithmic

Why it behaves this way

Intuition

Eğrinin 'derinliğinin' kaybı temsil ettiği eğimli bir ceza manzarası hayal edin. Manzara, tahminler gerçek etiketlerle mükemmel uyduğunda düzdür (sıfır kayıp), ancak yüksek (yüksek

Term
Tek bir tahmin için hesaplanan kayıp değeri.
Daha yüksek bir kayıp, modelin tahmin ettiği olasılık ile gerçek sonuç arasındaki tutarsızlığın daha büyük olduğunu gösterir ve modelin parametrelerini ayarlaması gerektiğini belirtir.
Term
Örnek için gerçek ikili etiket (negatif sınıf için 0, pozitif sınıf için 1).
Modelin doğru tahmin etmeyi amaçladığı gerçeği temsil eder.
Term
Modelin gerçek etiketin 1 (pozitif sınıf) olma olasılığı tahmini.
Pozitif sonuç için modelin güvenini yansıtır, 0'dan (kesinlikle negatif) 1'e (kesinlikle pozitif) kadar değişir.

Signs and relationships

  • -: Bir olasılığın (0 ile 1 arasında bir değer) doğal logaritması her zaman negatif veya sıfırdır. Baştaki negatif işaret bu değeri tersine çevirir, böylece kayıp fonksiyonunun negatif olmadığını ve model eğitimi sırasında minimize edilebileceğini
  • ln(): Logaritmik fonksiyon, modelin kendinden emin ama yanlış bir tahmin yapması durumunda ağır bir ceza uygular. Örneğin, gerçek etiket 'y' 1 ancak 'p' 0'a çok yakınsa, 'ln(p)' büyük negatif bir sayı olur

Free study cues

Insight

Canonical usage

Binary Cross-Entropy Loss is a dimensionless quantity that quantifies the error between predicted probabilities and true binary labels in classification tasks.

Dimension note

Binary Cross-Entropy Loss is inherently dimensionless because it operates on probabilities and binary labels, which are dimensionless quantities.

Ballpark figures

  • Quantity:

One free problem

Practice Problem

Bir tıbbi teşhis modeli, bir hastanın belirli bir duruma sahip olma olasılığını 0.85 olarak tahmin ediyor. Hasta gerçekten bu duruma sahipse (y=1), ikili çapraz entropi kaybını hesaplayın.

Hint: Y=1 olduğu için formül L = -ln(p) olarak basitleşir.

The full worked solution stays in the interactive walkthrough.

Where it shows up

Real-World Context

Kedi/köpek sınıflandırıcısı eğitme bağlamında İkili Çapraz Entropi Kaybı, ölçümleri yorumlanabilir bir değere dönüştürmek için kullanılır. Sonuç önemlidir çünkü çıktıya güvenmeden önce model davranışını, algoritma maliyetini veya tahmin kalitesini değerlendirmeye yardımcı olur.

Study smarter

Tips

  • Sayısal kararsızlığı veya tanımsız doğal logaritmaları önlemek için tam olarak 0 veya 1 olasılık girişlerinden kaçının.
  • Kayıp değeri, tahmin edilen olasılık hedef etiketle mükemmel bir şekilde eşleşirse yalnızca 0 olacaktır.
  • Çok sınıflı senaryolarda, bu ikili varyasyon yerine Kategorik Çapraz Entropi'yi kullanın.

Avoid these traps

Common Mistakes

  • 10 tabanlı logaritma kullanmak (doğal logaritma kullanın).
  • p=0 veya p=1 tam olarak (sonsuzluğa neden olur).

Common questions

Frequently Asked Questions

Bağımsız Bernoulli etiketli veriler için negatif log-olabilirlik olarak ikili çapraz entropi kaybını türetir.

Bu fonksiyon, çıktının 0 ile 1 arasında tek bir olasılık değeri olduğu ikili sınıflandırma görevleri için özel olarak tasarlanmıştır. Çıkış katmanında sigmoid aktivasyon fonksiyonu kullanan lojistik regresyon ve sinir ağları için amaç fonksiyonu olarak en yaygın şekilde kullanılır.

Basit sınıflandırma hatasından farklı olarak, bu kayıp fonksiyonu türevlenebilirdir, bu da derin öğrenmede geri yayılım için elzemdir. Modelin 'güvenle yanlış' olmaktan ziyade 'belirsizce yanlış' olduğu için daha ağır cezalandırılmasını sağlayarak daha sağlam olasılıksal tahminlere yol açar.

10 tabanlı logaritma kullanmak (doğal logaritma kullanın). p=0 veya p=1 tam olarak (sonsuzluğa neden olur).

Kedi/köpek sınıflandırıcısı eğitme bağlamında İkili Çapraz Entropi Kaybı, ölçümleri yorumlanabilir bir değere dönüştürmek için kullanılır. Sonuç önemlidir çünkü çıktıya güvenmeden önce model davranışını, algoritma maliyetini veya tahmin kalitesini değerlendirmeye yardımcı olur.

Sayısal kararsızlığı veya tanımsız doğal logaritmaları önlemek için tam olarak 0 veya 1 olasılık girişlerinden kaçının. Kayıp değeri, tahmin edilen olasılık hedef etiketle mükemmel bir şekilde eşleşirse yalnızca 0 olacaktır. Çok sınıflı senaryolarda, bu ikili varyasyon yerine Kategorik Çapraz Entropi'yi kullanın.

References

Sources

  1. Wikipedia: Cross-entropy
  2. Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville
  3. Deep Learning (Goodfellow, Bengio, Courville)
  4. Pattern Recognition and Machine Learning (Bishop)
  5. Goodfellow, Bengio, and Courville Deep Learning
  6. Bishop Pattern Recognition and Machine Learning
  7. Standard curriculum — Machine Learning