İkili Çapraz Entropi Kaybı
Sınıflandırma için kayıp fonksiyonu.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
İkili Çapraz Entropi Kaybı veya Log Kaybı, iki olasılık dağılımı arasındaki farkı nicel olarak belirler: gerçek ikili etiketler ve tahmin edilen olasılıklar. Güvenilir ancak yanlış tahminlere ağır bir logaritmik ceza uygulayarak, gradyan inişi gibi optimizasyon algoritmalarını model doğruluğunu iyileştirmeye yönlendirir.
When to use: Bu fonksiyon, çıktının 0 ile 1 arasında tek bir olasılık değeri olduğu ikili sınıflandırma görevleri için özel olarak tasarlanmıştır. Çıkış katmanında sigmoid aktivasyon fonksiyonu kullanan lojistik regresyon ve sinir ağları için amaç fonksiyonu olarak en yaygın şekilde kullanılır.
Why it matters: Basit sınıflandırma hatasından farklı olarak, bu kayıp fonksiyonu türevlenebilirdir, bu da derin öğrenmede geri yayılım için elzemdir. Modelin 'güvenle yanlış' olmaktan ziyade 'belirsizce yanlış' olduğu için daha ağır cezalandırılmasını sağlayarak daha sağlam olasılıksal tahminlere yol açar.
Symbols
Variables
y = True Label (0/1), p = Predicted Prob, L = Loss
Walkthrough
Derivation
Türetme: İkili Çapraz Entropi (Log Kaybı)
Bağımsız Bernoulli etiketli veriler için negatif log-olabilirlik olarak ikili çapraz entropi kaybını türetir.
- Hedefler ikili etiketlerdir: \{0,1\}.
- Gözlemler bağımsızdır (olabilirlik çarpanlaması için i.i.d.).
- Model çıktıları 0 < _i < 1 (olasılıklar) koşulunu sağlar.
Bernoulli Olasılığını Yazın:
Eğer =1 ise terim _i'yi, eğer =0 ise (1-_i)'yi katkıda bulunur. Bağımsızlık, i üzerinden çarpabilmemizi sağlar.
Log-Olasılığını Alın:
Logaritma çarpımları toplam haline getirir ve optimizasyonu kolaylaştırır.
Bir Minimizasyon Hedefine Dönüştürün:
Negatif ortalama log-olabilirliği minimize etmek, olabilirliği maksimize etmeye eşdeğerdir; bu ikili çapraz entropidir.
Result
Source: Standard curriculum — Machine Learning
Visual intuition
Graph
Graph type: logarithmic
Why it behaves this way
Intuition
Eğrinin 'derinliğinin' kaybı temsil ettiği eğimli bir ceza manzarası hayal edin. Manzara, tahminler gerçek etiketlerle mükemmel uyduğunda düzdür (sıfır kayıp), ancak yüksek (yüksek
Signs and relationships
- -: Bir olasılığın (0 ile 1 arasında bir değer) doğal logaritması her zaman negatif veya sıfırdır. Baştaki negatif işaret bu değeri tersine çevirir, böylece kayıp fonksiyonunun negatif olmadığını ve model eğitimi sırasında minimize edilebileceğini
- ln(): Logaritmik fonksiyon, modelin kendinden emin ama yanlış bir tahmin yapması durumunda ağır bir ceza uygular. Örneğin, gerçek etiket 'y' 1 ancak 'p' 0'a çok yakınsa, 'ln(p)' büyük negatif bir sayı olur
Free study cues
Insight
Canonical usage
Binary Cross-Entropy Loss is a dimensionless quantity that quantifies the error between predicted probabilities and true binary labels in classification tasks.
Dimension note
Binary Cross-Entropy Loss is inherently dimensionless because it operates on probabilities and binary labels, which are dimensionless quantities.
Ballpark figures
- Quantity:
One free problem
Practice Problem
Bir tıbbi teşhis modeli, bir hastanın belirli bir duruma sahip olma olasılığını 0.85 olarak tahmin ediyor. Hasta gerçekten bu duruma sahipse (y=1), ikili çapraz entropi kaybını hesaplayın.
Hint: Y=1 olduğu için formül L = -ln(p) olarak basitleşir.
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
Kedi/köpek sınıflandırıcısı eğitme bağlamında İkili Çapraz Entropi Kaybı, ölçümleri yorumlanabilir bir değere dönüştürmek için kullanılır. Sonuç önemlidir çünkü çıktıya güvenmeden önce model davranışını, algoritma maliyetini veya tahmin kalitesini değerlendirmeye yardımcı olur.
Study smarter
Tips
- Sayısal kararsızlığı veya tanımsız doğal logaritmaları önlemek için tam olarak 0 veya 1 olasılık girişlerinden kaçının.
- Kayıp değeri, tahmin edilen olasılık hedef etiketle mükemmel bir şekilde eşleşirse yalnızca 0 olacaktır.
- Çok sınıflı senaryolarda, bu ikili varyasyon yerine Kategorik Çapraz Entropi'yi kullanın.
Avoid these traps
Common Mistakes
- 10 tabanlı logaritma kullanmak (doğal logaritma kullanın).
- p=0 veya p=1 tam olarak (sonsuzluğa neden olur).
Common questions
Frequently Asked Questions
Bağımsız Bernoulli etiketli veriler için negatif log-olabilirlik olarak ikili çapraz entropi kaybını türetir.
Bu fonksiyon, çıktının 0 ile 1 arasında tek bir olasılık değeri olduğu ikili sınıflandırma görevleri için özel olarak tasarlanmıştır. Çıkış katmanında sigmoid aktivasyon fonksiyonu kullanan lojistik regresyon ve sinir ağları için amaç fonksiyonu olarak en yaygın şekilde kullanılır.
Basit sınıflandırma hatasından farklı olarak, bu kayıp fonksiyonu türevlenebilirdir, bu da derin öğrenmede geri yayılım için elzemdir. Modelin 'güvenle yanlış' olmaktan ziyade 'belirsizce yanlış' olduğu için daha ağır cezalandırılmasını sağlayarak daha sağlam olasılıksal tahminlere yol açar.
10 tabanlı logaritma kullanmak (doğal logaritma kullanın). p=0 veya p=1 tam olarak (sonsuzluğa neden olur).
Kedi/köpek sınıflandırıcısı eğitme bağlamında İkili Çapraz Entropi Kaybı, ölçümleri yorumlanabilir bir değere dönüştürmek için kullanılır. Sonuç önemlidir çünkü çıktıya güvenmeden önce model davranışını, algoritma maliyetini veya tahmin kalitesini değerlendirmeye yardımcı olur.
Sayısal kararsızlığı veya tanımsız doğal logaritmaları önlemek için tam olarak 0 veya 1 olasılık girişlerinden kaçının. Kayıp değeri, tahmin edilen olasılık hedef etiketle mükemmel bir şekilde eşleşirse yalnızca 0 olacaktır. Çok sınıflı senaryolarda, bu ikili varyasyon yerine Kategorik Çapraz Entropi'yi kullanın.
References
Sources
- Wikipedia: Cross-entropy
- Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville
- Deep Learning (Goodfellow, Bengio, Courville)
- Pattern Recognition and Machine Learning (Bishop)
- Goodfellow, Bengio, and Courville Deep Learning
- Bishop Pattern Recognition and Machine Learning
- Standard curriculum — Machine Learning