Data & Computingमशीन लर्निंगA-Level
AQAAPIBAbiturBachilleratoCambridgeCCEACESS

लॉजिस्टिक फ़ंक्शन

सिग्मॉइड एक्टिवेशन फ़ंक्शन।

Understand the formulaSee the free derivationOpen the full walkthrough

This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.

Core idea

Overview

लॉजिस्टिक फ़ंक्शन, जिसे आमतौर पर सिग्मॉइड फ़ंक्शन के रूप में जाना जाता है, किसी भी वास्तविक-मान वाले इनपुट को 0 और 1 के बीच एक सीमित सीमा में मैप करता है। मशीन लर्निंग में, यह बाइनरी वर्गीकरण और तंत्रिका नेटवर्क के लिए मौलिक एक्टिवेशन फ़ंक्शन के रूप में कार्य करता है, रैखिक संयोजनों को संभावनाओं में बदलता है।

When to use: किसी विशिष्ट वर्ग की संभावना की भविष्यवाणी करने के लिए बाइनरी वर्गीकरण करते समय इस फ़ंक्शन का उपयोग करें। यह विशेष रूप से प्रभावी होता है जब सुविधाओं और लक्ष्य परिणाम के बीच संबंध रैखिक प्रवृत्ति के बजाय एस-आकार के वक्र का अनुसरण करता है।

Why it matters: यह मॉडल को निरंतर डेटा की संभाव्य व्याख्या करने की अनुमति देता है, जो जोखिम मूल्यांकन और निर्णय लेने वाली प्रणालियों के लिए आवश्यक है। इसकी भिन्न प्रकृति इसे जटिल तंत्रिका नेटवर्क को प्रशिक्षित करने में उपयोग किए जाने वाले ग्रेडिएंट डिसेंट अनुकूलन के लिए भी महत्वपूर्ण बनाती है।

Symbols

Variables

(x) = Output (0-1), x = Input Value

Output (0-1)
Variable
Input Value
Variable

Walkthrough

Derivation

सूत्र: लॉजिस्टिक (सिग्मॉइड) फ़ंक्शन

लॉजिस्टिक फ़ंक्शन किसी भी वास्तविक इनपुट को 0 और 1 के बीच सख्ती से मान पर मैप करता है, इसलिए इसे बाइनरी वर्गीकरण में संभाव्यता के रूप में व्याख्या की जा सकती है।

  • इनपुट x एक वास्तविक संख्या है।
  • आउटपुट को सकारात्मक वर्ग की संभाव्यता के रूप में व्याख्या की जाती है।
1

सिग्मॉइड फ़ंक्शन को बताएँ:

घातांक यह सुनिश्चित करते हैं कि भाजक हमेशा धनात्मक हो, आउटपुट को (0,1) में रखता है।

2

सीमित व्यवहार की जाँच करें:

बड़ा धनात्मक x को छोटा बनाता है, जबकि बड़ा ऋणात्मक x को बड़ा बनाता है, जिससे अंश 0 की ओर बढ़ता है।

Note: x=0 पर, (0)=1/2।

Result

Source: Standard curriculum — A-Level Data Science & Machine Learning

Free formulas

Rearrangements

Solve for

x को विषय बनाएं

इनपुट मान x को हल करने के लिए लॉजिस्टिक फ़ंक्शन फॉर्मूला को पुनर्व्यवस्थित करता है।

Difficulty: 4/5

The static page shows the finished rearrangements. The app keeps the full worked algebra walkthrough.

Visual intuition

Graph

Graph type: sigmoid

Why it behaves this way

Intuition

एक चिकनी, एस-आकार की वक्र की कल्पना करें जो किसी भी वास्तविक इनपुट को 0 और 1 के बीच एक आउटपुट पर मैप करती है, जो एक स्थिति से दूसरी स्थिति में धीरे-धीरे संक्रमण का प्रतिनिधित्व करती है।

Term
लॉजिस्टिक फ़ंक्शन का आउटपुट, एक संभाव्यता या सक्रियण स्तर का प्रतिनिधित्व करता है।
यह किसी विशेष घटना (जैसे, सकारात्मक वर्ग से संबंधित) की संभावना को मापता है, हमेशा 0 और 1 के बीच स्केल किया जाता है।
Term
फ़ंक्शन का इनपुट, अक्सर मशीन लर्निंग मॉडल में सुविधाओं का एक रैखिक संयोजन।
सकारात्मक परिणाम के लिए 'सबूत' या 'स्कोर' का प्रतिनिधित्व करता है। उच्च 'x' मजबूत सबूत का संकेत देता है, संभाव्यता को 1 के करीब धकेलता है।

Signs and relationships

  • -x: घातांक '' में ऋणात्मक चिह्न एस-आकार के लिए महत्वपूर्ण है। जैसे-जैसे इनपुट 'x' बढ़ता है, '-x' घटता है, जिससे '' शून्य के करीब पहुंचता है।
  • 1 + e^{-x}: भाजक यह सुनिश्चित करता है कि आउटपुट '(x)' हमेशा 0 और 1 के बीच घिरा रहे। चूंकि '' हमेशा धनात्मक होता है, '1 + ' हमेशा 1 से बड़ा होता है, जो यह गारंटी देता है कि अंश '1 / (1 + )' है।

Free study cues

Insight

Canonical usage

The logistic function takes a dimensionless input and produces a dimensionless output, typically interpreted as a probability or a value between 0 and 1.

Dimension note

Both the input 'x' and the output '(x)' of the logistic function are dimensionless. The exponent of 'e' must always be dimensionless, and the function's output is a probability, which is a ratio without physical

One free problem

Practice Problem

गहरी शिक्षा मॉडल में एक तंत्रिका को 0 का भारित योग (लॉजिट) प्राप्त होता है। लॉजिस्टिक फ़ंक्शन का उपयोग करके आउटपुट सक्रियण S की गणना करें।

Hint: 0 की घात तक कोई भी गैर-शून्य आधार 1 होता है।

The full worked solution stays in the interactive walkthrough.

Where it shows up

Real-World Context

सकारात्मक वर्ग की संभावना की भविष्यवाणी करना। के संदर्भ में, लॉजिस्टिक फ़ंक्शन मापों को ऐसी मान में बदलने के लिए इस्तेमाल होता है जिसे समझा जा सके। परिणाम इसलिए महत्वपूर्ण है क्योंकि यह मॉडल व्यवहार, एल्गोरिदम लागत या पूर्वानुमान गुणवत्ता का मूल्यांकन करने में मदद करता है।

Study smarter

Tips

  • जब इनपुट x 0 हो तो आउटपुट S बिल्कुल 0.5 होता है।
  • 0 से दूर इनपुट 'लुप्तप्राय ग्रेडिएंट' की ओर ले जाते हैं जहाँ फ़ंक्शन बहुत सपाट हो जाता है।
  • फ़ंक्शन को बहुत जल्दी 0 या 1 पर संतृप्त होने से रोकने के लिए हमेशा इनपुट सुविधाओं को सामान्य करें।

Avoid these traps

Common Mistakes

  • e^-x में नकारात्मक चिह्न भूलना।
  • आउटपुट को असीमित मानना।

Common questions

Frequently Asked Questions

लॉजिस्टिक फ़ंक्शन किसी भी वास्तविक इनपुट को 0 और 1 के बीच सख्ती से मान पर मैप करता है, इसलिए इसे बाइनरी वर्गीकरण में संभाव्यता के रूप में व्याख्या की जा सकती है।

किसी विशिष्ट वर्ग की संभावना की भविष्यवाणी करने के लिए बाइनरी वर्गीकरण करते समय इस फ़ंक्शन का उपयोग करें। यह विशेष रूप से प्रभावी होता है जब सुविधाओं और लक्ष्य परिणाम के बीच संबंध रैखिक प्रवृत्ति के बजाय एस-आकार के वक्र का अनुसरण करता है।

यह मॉडल को निरंतर डेटा की संभाव्य व्याख्या करने की अनुमति देता है, जो जोखिम मूल्यांकन और निर्णय लेने वाली प्रणालियों के लिए आवश्यक है। इसकी भिन्न प्रकृति इसे जटिल तंत्रिका नेटवर्क को प्रशिक्षित करने में उपयोग किए जाने वाले ग्रेडिएंट डिसेंट अनुकूलन के लिए भी महत्वपूर्ण बनाती है।

e^-x में नकारात्मक चिह्न भूलना। आउटपुट को असीमित मानना।

सकारात्मक वर्ग की संभावना की भविष्यवाणी करना। के संदर्भ में, लॉजिस्टिक फ़ंक्शन मापों को ऐसी मान में बदलने के लिए इस्तेमाल होता है जिसे समझा जा सके। परिणाम इसलिए महत्वपूर्ण है क्योंकि यह मॉडल व्यवहार, एल्गोरिदम लागत या पूर्वानुमान गुणवत्ता का मूल्यांकन करने में मदद करता है।

जब इनपुट x 0 हो तो आउटपुट S बिल्कुल 0.5 होता है। 0 से दूर इनपुट 'लुप्तप्राय ग्रेडिएंट' की ओर ले जाते हैं जहाँ फ़ंक्शन बहुत सपाट हो जाता है। फ़ंक्शन को बहुत जल्दी 0 या 1 पर संतृप्त होने से रोकने के लिए हमेशा इनपुट सुविधाओं को सामान्य करें।

References

Sources

  1. Wikipedia: Logistic function
  2. Deep Learning by Ian Goodfellow, Yoshua Bengio, Aaron Courville
  3. Wikipedia: Sigmoid function
  4. Ian Goodfellow, Yoshua Bengio, Aaron Courville Deep Learning
  5. Christopher M. Bishop Pattern Recognition and Machine Learning
  6. Trevor Hastie, Robert Tibshirani, Jerome Friedman The Elements of Statistical Learning
  7. Standard curriculum — A-Level Data Science & Machine Learning