Perceptron लर्निंग रूल क्या है? | Perceptron Learning Rule in Neural Network in Hindi


Perceptron लर्निंग रूल क्या है? (Perceptron Learning Rule in Neural Network)

Perceptron Learning Rule न्यूरल नेटवर्क में **वेट अपडेट करने की एक विधि** है, जो त्रुटि (Error) को कम करने के लिए उपयोग की जाती है। इसे Frank Rosenblatt ने 1958 में विकसित किया था और यह **सिंगल-लेयर न्यूरल नेटवर्क** के लिए उपयुक्त है।

Perceptron Learning Rule की परिभाषा

यह नियम कहता है कि यदि कोई न्यूरॉन गलत भविष्यवाणी करता है, तो वेट्स (Weights) को इस तरह से अपडेट किया जाता है कि अगली बार वह सही आउटपुट प्रदान करे।

Perceptron Learning Rule का गणितीय निरूपण

वेट अपडेट निम्नलिखित समीकरण द्वारा किया जाता है:

W(new) = W(old) + η * (T - Y) * X

  • W(new): नया वेट
  • W(old): पुराना वेट
  • η (Eta): लर्निंग रेट (Learning Rate)
  • T: टार्गेट आउटपुट
  • Y: वास्तविक आउटपुट
  • X: इनपुट वैल्यू

Perceptron लर्निंग एल्गोरिदम

Perceptron Learning Algorithm निम्नलिखित चरणों में कार्य करता है:

  1. वेट और बायस को इनिशियलाइज़ करें। प्रारंभ में सभी वेट को 0 या किसी छोटे रैंडम वैल्यू पर सेट करें।
  2. प्रत्येक इनपुट के लिए आउटपुट निकालें। आउटपुट का अनुमान लगाने के लिए Y = f(W.X + b) का उपयोग करें।
  3. वेट अपडेट करें। यदि Y ≠ T, तो वेट अपडेट करें।
  4. चरणों को दोहराएँ। जब तक त्रुटि न्यूनतम न हो जाए।

Perceptron Model की संरचना

Perceptron न्यूरल नेटवर्क में मुख्य रूप से तीन भाग होते हैं:

  • इनपुट लेयर: डेटा को इनपुट के रूप में लेता है।
  • वेट और समायोजन: प्रत्येक इनपुट को एक वेट असाइन किया जाता है।
  • एक्टिवेशन फंक्शन: आउटपुट उत्पन्न करने के लिए स्टेप फंक्शन का उपयोग किया जाता है।

Perceptron Learning Rule का उदाहरण

नीचे AND गेट को Perceptron मॉडल द्वारा दर्शाया गया है:

इनपुट X1 इनपुट X2 आउटपुट (Y) टार्गेट (T) वेट अपडेट
0 0 0 0 No Change
0 1 0 0 No Change
1 0 0 0 No Change
1 1 1 1 No Change

Perceptron Rule के उपयोग

  • सरल क्लासिफिकेशन टास्क जैसे **AND, OR गेट** में
  • बाइनरी क्लासिफिकेशन समस्याओं में
  • स्पैम और नॉन-स्पैम ईमेल फ़िल्टरिंग में

Perceptron Rule की सीमाएँ

  • यह केवल **लीनियर सेपरेबल** समस्याओं को हल कर सकता है।
  • यह **XOR गेट** जैसी नॉन-लीनियर समस्याओं को हल नहीं कर सकता।
  • मल्टी-लेयर न्यूरल नेटवर्क (MLP) की आवश्यकता होती है जटिल समस्याओं को हल करने के लिए।

Perceptron Rule बनाम अन्य लर्निंग नियम

विशेषता Perceptron Rule Hebb Rule Delta Rule
आधारित है त्रुटि सुधार समान सक्रियता ग्रेडिएंट डिसेंट
वेट अपडेट टार्गेट आउटपुट से तुलना कर इनपुट और आउटपुट के गुणन के आधार पर त्रुटि ग्रेडिएंट के आधार पर
सीखने का प्रकार नियमित अनियमित संख्यात्मक

निष्कर्ष

Perceptron Learning Rule न्यूरल नेटवर्क में एक महत्वपूर्ण लर्निंग तकनीक है, जिसका उपयोग बाइनरी क्लासिफिकेशन और सिंपल पैटर्न रिकग्निशन में किया जाता है। हालांकि, यह केवल लीनियर सेपरेबल डेटा के लिए कार्य करता है और जटिल समस्याओं के लिए मल्टी-लेयर परसेप्ट्रॉन (MLP) आवश्यक होता है।

Related Post

Comments

Comments