एआय मध्ये न्यूरल नेटवर्क म्हणजे काय?

एआय मध्ये न्यूरल नेटवर्क म्हणजे काय?

न्यूरल नेटवर्क्स गूढ वाटतात पण ते गूढ वाटत नाहीत. जर तुम्हाला कधी प्रश्न पडला असेल की एआय मध्ये न्यूरल नेटवर्क म्हणजे काय? आणि ते फक्त फॅन्सी टोपी असलेले गणित आहे का, तर तुम्ही योग्य ठिकाणी आहात. आम्ही ते व्यावहारिक ठेवू, छोट्या छोट्या वळणांमध्ये आणि हो - काही इमोजीज. तुम्हाला या सिस्टीम काय आहेत, त्या का काम करतात, कुठे अपयशी ठरतात आणि हात हलवल्याशिवाय त्यांच्याबद्दल कसे बोलावे हे कळेल.

या लेखानंतर तुम्हाला वाचायला आवडतील असे लेख:

🔗 एआय बायस म्हणजे काय?
निष्पक्षता सुनिश्चित करण्यासाठी एआय सिस्टीम आणि धोरणांमधील पक्षपात समजून घेणे.

🔗 प्रेडिक्टिव्ह एआय म्हणजे काय?
भविष्यातील निकालांचा अंदाज घेण्यासाठी भाकित करणारे एआय नमुन्यांचा कसा वापर करते.

🔗 एआय ट्रेनर म्हणजे काय?
एआय प्रशिक्षण देणाऱ्या व्यावसायिकांची भूमिका आणि जबाबदाऱ्यांचा शोध घेणे.

🔗 एआय मध्ये संगणक दृष्टी म्हणजे काय?
संगणकाच्या दृष्टिकोनातून एआय व्हिज्युअल डेटाचे कसे अर्थ लावते आणि विश्लेषण करते.


एआय मध्ये न्यूरल नेटवर्क म्हणजे काय? १० सेकंदांचे उत्तर ⏱️

न्यूरल नेटवर्क म्हणजे न्यूरॉन्स नावाच्या साध्या गणना युनिट्सचा एक संच असतो जो संख्या पुढे पाठवतो, प्रशिक्षणादरम्यान त्यांची कनेक्शन ताकद समायोजित करतो आणि हळूहळू डेटामधील पॅटर्न शिकतो. जेव्हा तुम्ही डीप लर्निंग तेव्हा याचा अर्थ सहसा अनेक स्टॅक केलेले लेयर्स असलेले न्यूरल नेटवर्क असते, ज्यामध्ये हाताने कोडिंग करण्याऐवजी शिकण्याची वैशिष्ट्ये आपोआप असतात. दुसऱ्या शब्दांत: बरेच लहान गणिताचे तुकडे, हुशारीने व्यवस्थित केलेले, उपयुक्त होईपर्यंत डेटावर प्रशिक्षित केलेले [1].


न्यूरल नेटवर्क कशामुळे उपयुक्त ठरते? ✅

  • प्रतिनिधित्व शक्ती : योग्य आर्किटेक्चर आणि आकारासह, नेटवर्क्स अत्यंत जटिल कार्यांचे अंदाजे मूल्यांकन करू शकतात (युनिव्हर्सल अ‍ॅप्रोक्सिमेशन प्रमेय पहा) [4].

  • शेवटपासून शेवटपर्यंत शिक्षण : हाताने अभियांत्रिकी वैशिष्ट्यांऐवजी, मॉडेल त्यांना शोधते [1].

  • सामान्यीकरण : एक सुव्यवस्थित नेटवर्क फक्त लक्षात ठेवत नाही - ते नवीन, न पाहिलेल्या डेटावर कार्य करते [1].

  • स्केलेबिलिटी : मोठे डेटासेट आणि मोठे मॉडेल्स बहुतेकदा परिणाम सुधारत राहतात... संगणकीय आणि डेटा गुणवत्ता [1] सारख्या व्यावहारिक मर्यादांपर्यंत.

  • हस्तांतरणीयता : एका कार्यात शिकलेली वैशिष्ट्ये दुसऱ्या कार्यात मदत करू शकतात (शिक्षण हस्तांतरण आणि सुधारणा) [1].

लहान फील्ड नोट (उदाहरण परिस्थिती): एक लहान उत्पादन-वर्गीकरण टीम कॉम्पॅक्ट CNN साठी हाताने बनवलेल्या वैशिष्ट्यांची अदलाबदल करते, साधे ऑग्मेंटेशन (फ्लिप्स/क्रॉप्स) जोडते आणि व्हॅलिडेशन एरर ड्रॉप पाहते - नेटवर्क "जादू" आहे म्हणून नाही तर ते थेट पिक्सेलमधून अधिक उपयुक्त वैशिष्ट्ये शिकले म्हणून.


“AI मध्ये न्यूरल नेटवर्क म्हणजे काय?” साध्या इंग्रजीत, एका संशयास्पद रूपकासह 🍞

बेकरी लाइनची कल्पना करा. साहित्य आत येते, कामगार रेसिपीमध्ये बदल करतात, चव तपासणारे तक्रार करतात आणि टीम रेसिपी पुन्हा अपडेट करते. नेटवर्कमध्ये, इनपुट थरांमधून वाहतात, लॉस फंक्शन आउटपुटचे ग्रेडिंग करते आणि ग्रेडियंट्स पुढच्या वेळी चांगले करण्यासाठी वजनांना धक्का देतात. रूपक म्हणून परिपूर्ण नाही - ब्रेड वेगळे करता येत नाही - पण ती चिकटते [1].


न्यूरल नेटवर्कची शरीररचना 🧩

  • न्यूरॉन्स : भारित बेरीज आणि सक्रियकरण कार्य लागू करणारे छोटे कॅल्क्युलेटर.

  • वजन आणि पूर्वाग्रह : सिग्नल कसे एकत्र होतात हे परिभाषित करणारे समायोज्य नॉब.

  • लेयर्स : इनपुट लेयर डेटा प्राप्त करतो, लपलेले लेयर्स त्याचे रूपांतर करतात, आउटपुट लेयर भाकित करतो.

  • सक्रियकरण कार्ये : ReLU, sigmoid, tanh आणि softmax सारखे नॉनलाइनर ट्विस्ट शिक्षण लवचिक बनवतात.

  • नुकसान कार्य : अंदाज किती चुकीचा आहे याचा स्कोअर (वर्गीकरणासाठी क्रॉस-एंट्रोपी, प्रतिगमनासाठी MSE).

  • ऑप्टिमायझर : एसजीडी किंवा अ‍ॅडम सारखे अल्गोरिदम वजने अपडेट करण्यासाठी ग्रेडियंट वापरतात.

  • नियमितीकरण : मॉडेलला जास्त फिटिंग होण्यापासून रोखण्यासाठी ड्रॉपआउट किंवा वजन कमी होणे यासारख्या तंत्रे.

जर तुम्हाला औपचारिक उपचार हवे असतील (पण तरीही वाचनीय असतील), तर ओपन पाठ्यपुस्तक डीप लर्निंगमध्ये संपूर्ण स्टॅक समाविष्ट आहे: गणिताचा पाया, ऑप्टिमायझेशन आणि सामान्यीकरण [1].


सक्रियकरण कार्ये, थोडक्यात पण उपयुक्तपणे ⚡

  • ReLU : नकारात्मक साठी शून्य, सकारात्मक साठी रेषीय. सोपे, जलद, प्रभावी.

  • सिग्मॉइड : ० आणि १ मधील मूल्ये स्क्वॅश करते - उपयुक्त परंतु संतृप्त होऊ शकते.

  • तान्ह : सिग्मॉइडसारखे पण शून्याभोवती सममितीय.

  • सॉफ्टमॅक्स : वर्गांमधील कच्च्या स्कोअरचे संभाव्यतेमध्ये रूपांतर करते.

तुम्हाला प्रत्येक वक्र आकार लक्षात ठेवण्याची गरज नाही - फक्त ट्रेड-ऑफ आणि सामान्य डिफॉल्ट्स जाणून घ्या [1, 2].


शिकणे प्रत्यक्षात कसे घडते: बॅकप्रॉप, पण भीतीदायक नाही 🔁

  1. फॉरवर्ड पास : अंदाज तयार करण्यासाठी डेटा थर थर करून प्रवाहित होतो.

  2. नुकसान मोजा : भाकिताची सत्याशी तुलना करा.

  3. बॅकप्रोपॅगेशन : साखळी नियम वापरून प्रत्येक वजनाच्या संदर्भात तोट्याचे ग्रेडियंट मोजा.

  4. अपडेट : ऑप्टिमायझर वजन थोडे बदलतो.

  5. पुनरावृत्ती : अनेक युगे. मॉडेल हळूहळू शिकतो.

व्हिज्युअल्स आणि कोड-अ‍ॅडजेसंट स्पष्टीकरणांसह व्यावहारिक अंतर्ज्ञानासाठी, बॅकप्रॉप आणि ऑप्टिमायझेशनवरील क्लासिक CS231n नोट्स पहा [2].


न्यूरल नेटवर्क्सचे प्रमुख कुटुंबे, एका दृष्टीक्षेपात 🏡

  • फीडफॉरवर्ड नेटवर्क्स (MLPs) : सर्वात सोपा प्रकार. डेटा फक्त पुढे सरकतो.

  • कन्व्होल्यूशनल न्यूरल नेटवर्क्स (CNNs) : कडा, पोत, आकार शोधणाऱ्या स्थानिक फिल्टर्समुळे प्रतिमांसाठी उत्तम [2].

  • रिकरंट न्यूरल नेटवर्क्स (RNNs) आणि व्हेरिएंट्स : ऑर्डरची भावना ठेवून मजकूर किंवा टाइम सिरीज सारख्या अनुक्रमांसाठी तयार केलेले [1].

  • ट्रान्सफॉर्मर्स : एकाच वेळी एकाच क्रमाने वेगवेगळ्या स्थानांमधील संबंध मॉडेल करण्याकडे लक्ष द्या; भाषेत आणि त्यापलीकडे प्रभावी [3].

  • ग्राफ न्यूरल नेटवर्क्स (GNNs) : ग्राफच्या नोड्स आणि कडांवर काम करा - रेणू, सोशल नेटवर्क्स, शिफारस [1] साठी उपयुक्त.

  • ऑटोएन्कोडर आणि व्हीएई : संकुचित प्रतिनिधित्व जाणून घ्या आणि भिन्नता निर्माण करा [1].

  • जनरेटिव्ह मॉडेल्स : GAN पासून ते प्रसार मॉडेल्सपर्यंत, प्रतिमा, ऑडिओ, सम कोडसाठी वापरले जातात [1].

CS231n नोट्स विशेषतः CNN साठी अनुकूल आहेत, तर ट्रान्सफॉर्मर पेपर हे लक्ष-आधारित मॉडेल्ससाठी प्राथमिक स्रोत आहे [2, 3].


तुलना सारणी: सामान्य न्यूरल नेटवर्क प्रकार, ते कोणासाठी आहेत, किंमत आणि ते का काम करतात 📊

साधन / प्रकार प्रेक्षक महागडा ते का काम करते
फीडफॉरवर्ड (एमएलपी) नवशिक्या, विश्लेषक कमी-मध्यम साधे, लवचिक, योग्य बेसलाइन
सीएनएन व्हिजन टीम्स मध्यम स्थानिक नमुने + पॅरामीटर शेअरिंग
आरएनएन / एलएसटीएम / जीआरयू अनुक्रम लोक मध्यम तात्पुरती स्मृती... क्रम कॅप्चर करते
ट्रान्सफॉर्मर एनएलपी, मल्टीमॉडल मध्यम-उच्च संबंधित संबंधांवर लक्ष केंद्रित केले जाते
जीएनएन शास्त्रज्ञ, रिकसिस मध्यम आलेखांवरून पाठवल्या जाणाऱ्या संदेशामुळे रचना दिसून येते
ऑटोएन्कोडर / व्हीएई संशोधक कमी-मध्यम संकुचित प्रतिनिधित्व शिकतो
GAN / प्रसार सर्जनशील प्रयोगशाळा मध्यम-उच्च विरोधी किंवा पुनरावृत्ती होणारी ध्वनी निरसन करणारी जादू

टीप: किंमत मोजणी आणि वेळेवर अवलंबून असते; तुमचा मायलेज बदलतो. एक किंवा दोन सेल जाणूनबुजून गप्पा मारत आहेत.


"एआय मध्ये न्यूरल नेटवर्क म्हणजे काय?" विरुद्ध क्लासिकल एमएल अल्गोरिदम ⚖️

  • फीचर इंजिनिअरिंग : क्लासिक एमएल बहुतेकदा मॅन्युअल फीचर्सवर अवलंबून असते. न्यूरल नेट्स फीचर्स आपोआप शिकतात - जटिल डेटासाठी एक मोठा विजय [1].

  • डेटा हंगर : नेटवर्क्स बहुतेकदा अधिक डेटाने चमकतात; कमी डेटा सोप्या मॉडेल्सना अनुकूल ठरू शकतो [1].

  • गणना : नेटवर्कना GPU सारखे अ‍ॅक्सिलरेटर आवडतात [1].

  • कामगिरीची कमाल मर्यादा : असंरचित डेटा (प्रतिमा, ऑडिओ, मजकूर) साठी, डीप नेटचे वर्चस्व असते [1, 2].


प्रत्यक्षात व्यवहारात काम करणारा प्रशिक्षण कार्यप्रवाह 🛠️

  1. उद्दिष्ट परिभाषित करा : वर्गीकरण, प्रतिगमन, क्रमवारी, पिढी - जुळणारा तोटा निवडा.

  2. डेटा रँगलिंग : ट्रेन/व्हॅलिडेशन/टेस्टमध्ये विभागा. वैशिष्ट्ये सामान्य करा. बॅलन्स क्लासेस. इमेजसाठी, फ्लिप, क्रॉप, लघु आवाज यासारख्या ऑगमेंटेशनचा विचार करा.

  3. वास्तुकलेची निवड : सोपी सुरुवात करा. गरज असेल तेव्हाच क्षमता जोडा.

  4. प्रशिक्षण लूप : डेटा बॅच करा. फॉरवर्ड पास. नुकसान मोजा. बॅकप्रॉप. अपडेट. लॉग मेट्रिक्स.

  5. नियमित करा : गळती, वजन कमी होणे, लवकर थांबणे.

  6. मूल्यांकन करा : हायपरपॅरामीटर्ससाठी व्हॅलिडेशन सेट वापरा. ​​अंतिम तपासणीसाठी एक चाचणी सेट धरा.

  7. काळजीपूर्वक पाठवा : प्रवाहाचे निरीक्षण करा, पक्षपात तपासा, परत येण्याची योजना करा.

ठोस सिद्धांतासह एंड-टू-एंड, कोड-ओरिएंटेड ट्युटोरियलसाठी, ओपन टेक्स्टबुक आणि CS231n नोट्स विश्वसनीय अँकर आहेत [1, 2].


ओव्हरफिटिंग, सामान्यीकरण आणि इतर ग्रेमलिन 👀

  • ओव्हरफिटिंग : हे मॉडेल प्रशिक्षणातील काही बारकावे लक्षात ठेवते. अधिक डेटा, मजबूत नियमितीकरण किंवा सोप्या आर्किटेक्चरसह दुरुस्त करा.

  • अंडरफिटिंग : मॉडेल खूप सोपे आहे किंवा प्रशिक्षण खूप लाजाळू आहे. क्षमता वाढवा किंवा जास्त वेळ प्रशिक्षण द्या.

  • डेटा लीक : चाचणी संचातील माहिती प्रशिक्षणात घुसते. तुमचे स्प्लिट तीनदा तपासा.

  • खराब कॅलिब्रेशन : आत्मविश्वासपूर्ण पण चुकीचे मॉडेल धोकादायक असते. कॅलिब्रेशन किंवा वेगळे लॉस वेटिंग विचारात घ्या.

  • वितरण शिफ्ट : वास्तविक जगातील डेटाची हालचाल. निरीक्षण करा आणि परिस्थितीशी जुळवून घ्या.

सामान्यीकरण आणि नियमितीकरणामागील सिद्धांतासाठी, मानक संदर्भांवर अवलंबून रहा [1, 2].


सुरक्षितता, अर्थ लावणे आणि जबाबदार तैनाती 🧭

न्यूरल नेटवर्क्स उच्च-स्तरीय निर्णय घेऊ शकतात. लीडरबोर्डवर ते चांगले काम करतात हे पुरेसे नाही. तुम्हाला संपूर्ण जीवनचक्रात प्रशासन, मापन आणि शमन चरणांची आवश्यकता आहे. NIST AI जोखीम व्यवस्थापन फ्रेमवर्क व्यावहारिक कार्ये - GOVERN, MAP, MEASURE, MANAGE - ची रूपरेषा देते जेणेकरून संघांना डिझाइन आणि तैनातीमध्ये जोखीम व्यवस्थापन एकत्रित करण्यास मदत होईल [5].

काही जलद सूचना:

  • पक्षपाती तपासणी : योग्य आणि कायदेशीर असेल तेथे लोकसंख्याशास्त्रीय तुकड्यांचे मूल्यांकन करा.

  • अर्थ लावणे : स्पष्टता किंवा वैशिष्ट्य गुणधर्म यासारख्या तंत्रांचा वापर करा. ते अपूर्ण आहेत, तरीही उपयुक्त आहेत.

  • देखरेख : अचानक मेट्रिक ड्रॉप किंवा डेटा ड्रिफ्टसाठी अलर्ट सेट करा.

  • मानवी देखरेख : परिणामकारक निर्णयांसाठी मानवांना माहिती द्या. वीरता नाही, फक्त स्वच्छता.


तुम्हाला गुप्तपणे पडलेले वारंवार विचारले जाणारे प्रश्न 🙋

न्यूरल नेटवर्क हे मुळात मेंदू आहे का?

मेंदूने प्रेरित, हो - पण सरलीकृत. नेटवर्कमधील न्यूरॉन्स हे गणितीय कार्ये आहेत; जैविक न्यूरॉन्स हे जटिल गतिमानतेसह जिवंत पेशी आहेत. समान व्हाइब्स, खूप वेगळे भौतिकशास्त्र [1].

मला किती थरांची आवश्यकता आहे?

लहान सुरुवात करा. जर तुम्ही कमी फिटिंग करत असाल तर रुंदी किंवा खोली जोडा. जर तुम्ही जास्त फिटिंग करत असाल तर क्षमता नियमित करा किंवा कमी करा. कोणताही जादूचा आकडा नाही; फक्त प्रमाणीकरण वक्र आणि संयम आहे [1].

मला नेहमीच GPU ची आवश्यकता असते का?

नेहमीच नाही. कमी डेटावरील छोटे मॉडेल्स CPU वर प्रशिक्षित होऊ शकतात, परंतु प्रतिमा, मोठे मजकूर मॉडेल्स किंवा मोठे डेटासेटसाठी, एक्सीलरेटर खूप वेळ वाचवतात [1].

लोक लक्ष देणे शक्तिशाली का म्हणतात?

कारण लक्ष मॉडेल्सना इनपुटच्या सर्वात संबंधित भागांवर लक्ष केंद्रित करण्यास अनुमती देते, फक्त क्रमाने न जाता. ते जागतिक संबंध कॅप्चर करते, जे भाषा आणि बहुआयामी कार्यांसाठी खूप महत्वाचे आहे [3].

"एआय मध्ये न्यूरल नेटवर्क म्हणजे काय?" हे "डीप लर्निंग म्हणजे काय" पेक्षा वेगळे आहे का?

सखोल शिक्षण हा खोल मज्जासंस्थेचा वापर करणारा व्यापक दृष्टिकोन आहे. म्हणून एआयमध्ये मज्जासंस्थेचा नेटवर्क म्हणजे काय? म्हणजे मुख्य पात्राबद्दल विचारण्यासारखे आहे; खोल शिक्षण हा संपूर्ण चित्रपट आहे [1].


व्यावहारिक, थोड्याशा मतप्रणालीच्या टिप्स 💡

  • साध्या बेसलाइनला प्राधान्य द्या . डेटा शिकण्यायोग्य आहे की नाही हे एक लहान मल्टीलेअर पर्सेप्ट्रॉन देखील सांगू शकते.

  • डेटा पाइपलाइन पुनरुत्पादित करण्यायोग्य ठेवा . जर तुम्ही तो पुन्हा चालवू शकत नसाल तर तुम्ही त्यावर विश्वास ठेवू शकत नाही.

  • शिकण्याचा दर तुम्हाला वाटतो त्यापेक्षा जास्त महत्त्वाचा आहे. वेळापत्रक वापरून पहा. वॉर्मअप मदत करू शकते.

  • बॅच आकारात तडजोड आहे. मोठे बॅच ग्रेडियंट स्थिर करतात परंतु ते वेगळ्या पद्धतीने सामान्यीकृत करू शकतात.

  • जेव्हा गोंधळ होतो, तेव्हा प्लॉट लॉस वक्र आणि वजनाचे निकष . प्लॉटमध्ये किती वेळा उत्तर दिले जाते हे पाहून तुम्हाला आश्चर्य वाटेल.

  • गृहीतके कागदोपत्री लिहा. भविष्यकाळात तुम्ही गोष्टी विसरता - जलद [1, 2].


खोलवर जाऊन शोध: डेटाची भूमिका, किंवा कचरा बाहेर टाकणे म्हणजे कचरा बाहेर का टाकणे 🗑️➡️✨

न्यूरल नेटवर्क्स जादूने सदोष डेटा दुरुस्त करत नाहीत. स्क्युड लेबल्स, अ‍ॅनोटेशन चुका किंवा अरुंद सॅम्पलिंग हे सर्व मॉडेलमध्ये प्रतिध्वनीत होतील. क्युरेट करा, ऑडिट करा आणि ऑगमेंट करा. आणि जर तुम्हाला खात्री नसेल की तुम्हाला अधिक डेटा हवा आहे की चांगले मॉडेल, तर उत्तर अनेकदा त्रासदायकपणे सोपे असते: दोन्ही - परंतु डेटा गुणवत्तेपासून सुरुवात करा [1].


"AI मध्ये न्यूरल नेटवर्क म्हणजे काय?" - तुम्ही पुन्हा वापरू शकता अशा छोट्या व्याख्या 🧾

  • न्यूरल नेटवर्क हे एक स्तरित फंक्शन अ‍ॅप्रॉक्सिमेटर आहे जे ग्रेडियंट सिग्नल [1, 2] वापरून वजन समायोजित करून जटिल पॅटर्न शिकते.

  • ही एक अशी प्रणाली आहे जी सलग नॉनलाइनर चरणांद्वारे इनपुटचे आउटपुटमध्ये रूपांतर करते, ज्याला नुकसान कमी करण्यासाठी प्रशिक्षित केले जाते [1].

  • हा एक लवचिक, डेटा-हँगरी मॉडेलिंग दृष्टिकोन आहे जो प्रतिमा, मजकूर आणि ऑडिओ [1, 2, 3] सारख्या असंरचित इनपुटवर भरभराटीला येतो.


खूप लांब, वाचले नाही आणि शेवटचे टिप्पण्या 🎯

जर कोणी तुम्हाला विचारले की एआयमध्ये न्यूरल नेटवर्क म्हणजे काय? तर येथे आवाजाचा अर्थ आहे: न्यूरल नेटवर्क म्हणजे साध्या युनिट्सचा एक संच आहे जो टप्प्याटप्प्याने डेटा रूपांतरित करतो, तोटा कमी करून आणि ग्रेडियंटचे अनुसरण करून परिवर्तन शिकतो. ते शक्तिशाली आहेत कारण ते स्केल करतात, वैशिष्ट्ये स्वयंचलितपणे शिकतात आणि खूप जटिल कार्ये दर्शवू शकतात [1, 4]. जर तुम्ही डेटा गुणवत्ता, प्रशासन किंवा देखरेखीकडे दुर्लक्ष केले तर ते धोकादायक आहेत [5]. आणि ते जादू नाहीत. फक्त गणित, गणना आणि चांगले अभियांत्रिकी - थोड्याशा चवीसह.


पुढील वाचन, काळजीपूर्वक निवडलेले (उद्धरण नसलेले अतिरिक्त)


संदर्भ

[1] गुडफेलो, आय., बेंगिओ, वाय., आणि कौरविले, ए. डीप लर्निंग . एमआयटी प्रेस. मोफत ऑनलाइन आवृत्ती: अधिक वाचा

[2] स्टॅनफोर्ड CS231n. व्हिज्युअल रिकग्निशनसाठी कन्व्होल्यूशनल न्यूरल नेटवर्क्स (कोर्स नोट्स): अधिक वाचा

[3] वासवानी, ए., शाझीर, एन., परमार, एन., इत्यादी (२०१७). लक्ष देणे हेच तुम्हाला आवश्यक आहे . न्यूरआयपीएस. आर्क्सिव्ह: अधिक वाचा

[4] सायबेन्को, जी. (१९८९). सिग्मॉइडल फंक्शनच्या सुपरपोझिशनद्वारे अंदाजे . नियंत्रण, सिग्नल आणि सिस्टम्सचे गणित , २, ३०३–३१४. स्प्रिंगर: अधिक वाचा

[5] NIST. AI जोखीम व्यवस्थापन फ्रेमवर्क (AI RMF) : अधिक वाचा


अधिकृत एआय असिस्टंट स्टोअरमध्ये नवीनतम एआय शोधा

आमच्याबद्दल

ब्लॉगवर परत