चैटजीपीटी के निर्माणकर्ता, ओपनएआई, सुरक्षित एआई सिस्टमों के विकास पर प्रतिबद्ध हैं

चित्र1.png

OpenAI ने एक नई ब्लॉग पोस्ट प्रकाशित की है जिसमें वे वादा करते हैं कि वे सुरक्षित और सामान्य रूप से उपयोगी Artificial Intelligence (AI) विकसित करेंगे।

चैटजीपीटी, ओपनएआई के नवीनतम मॉडल GPT-4 द्वारा संचालित, उत्पादकता को बढ़ा सकता है, रचनात्मकता को बढ़ा सकता है, और विशेष रूप से अधिगम अनुभव प्रदान कर सकता है।

हालांकि, ओपनएआई को मान्यता है कि एआई उपकरणों में प्राकृतिक खतरे होते हैं जिन्हें सुरक्षा के उपाय और जिम्मेदार वितरण द्वारा संबोधित किया जाना चाहिए।

इसके द्वारा कंपनी उन जोखिमों को कम करने के लिए जो कर रही है।

एआई प्रणालियों में सुरक्षा सुनिश्चित करना

ओपनएआई नई सिस्टमों को रिलीज करने से पहले मूल्यांकन करता है, विशेषज्ञों के बाहरी मार्गदर्शन के लिए प्राथमिकता देता है, और मानव फ़ीडबैक के साथ अपने एआई मॉडल्स को सुधारता है।

उदाहरण के रूप में, GPT-4 का विमोचन, सुरक्षा और उपयोगकर्ता की आवश्यकताओं के संगतता की सुनिश्चित करने के लिए छः महीने से अधिक के टेस्टिंग से पूर्व हुआ।

ओपनएआई का मानना है कि मजबूत एआई प्रणालियों को कठोर सुरक्षा मूल्यांकन के तहत संशोधित किया जाना चाहिए और प्रशासनिक कायदे की आवश्यकता का समर्थन है।

वास्तविक दुनिया से सीखना

रीयल-वर्ल्ड उपयोग AI सिस्टम के सुरक्षित विकास में एक महत्वपूर्ण घटक है। धीरे-धीरे बढ़ते उपयोगकर्ता आधार को नई मॉडल को सतर्कतापूर्वक जारी करके, OpenAI अनपेक्षित समस्याओं को समझोता करने के लिए सुधार कर सकता है।

अपने API और वेबसाइट के माध्यम से AI मॉडल प्रदान करके, OpenAI द्वारा दुरुपयोग की निगरानी की जा सकती है, उचित कार्रवाई की जा सकती है, और खतरे को संतुलित करने के लिए संवेदनशील नीतियों का विकास किया जा सकता है।

बच्चों की सुरक्षा और गोपनीयता का सम्मान

ओपनएआई बच्चों की सुरक्षा को महत्व देता है और आयु सत्यापन की आवश्यकता को मान्य करता है, साथ ही अपनी तकनीक का दुष्प्रभावी सामग्री उत्पन्न करने के लिए उपयोग करने को निषेधित करता है।

गोपनीयता ओपनएआई के कार्य का एक और महत्वपूर्ण पहलू है। संगठन उपयोगकर्ताओं की सुरक्षा को मध्यम बनाते हुए अपने मॉडलों को और उपयोगी बनाने के लिए डेटा का उपयोग करता है।

इसके अलावा, ओपेनएआई प्रशिक्षण डेटासेट्स से व्यक्तिगत जानकारी को हटा देता है और मॉडल को व्यक्तिगत जानकारी के लिए अनुरोध को अस्वीकार करने के लिए फाइन-ट्यून करता है।

OpenAI अपने सिस्टम से व्यक्तिगत जानकारी हटाने के लिए अनुरोधों का प्रतिक्रिया करेगा।

तथ्यात्मक सटीकता को सुधारना

महत्वपूर्ण ख़बरों की सत्यता, ओपनआई के लिए एक महत्वपूर्ण ध्येय है। GPT-4 का GPT-3.5 के मुक़ाबले सत्यापन करने पर 40% अधिक विश्वासयोग्य सामग्री प्रस्तुत करने की संभावना है।

संगठन के प्रयास हैं कि उपयोगकर्ताओं को एआई टूल्स की सीमाओं और अशुद्धियों के बारे में शिक्षा दी जाए।

सतत अनुसंधान और संलग्नता

OpenAI को मान्यता है कि कार्यकारी नियंत्रण और समन्वय तकनीकों के अध्ययन के लिए समय और संसाधन निर्धारित करना प्रासंगिक है।

यहां तो ऐसा कुछ नहीं है जिसे यह अकेले कर सके। सुरक्षा मुद्दों का समाधान विस्तृत विचार-विमर्श, प्रयोग और हितधारकों के बीच संगठन आवश्यक करता है।

ओपनएआई सुरक्षित एआई पारिस्थितिकी बनाने के लिए सहयोग और खुले वार्तालाप को बढ़ावा देने के लिए निष्ठावान रहता है।

अस्तित्विक जोखिम पर आलोचना

ओपनएआई की AI सिस्टम की सुरक्षा और व्यापक लाभ की गारंटी के बावजूद, इसके ब्लॉग पोस्ट ने सोशल मीडिया पर आलोचना को जगाया है।

ट्विटर प्रयोक्ताओं ने निराशा जाहिर की है, कहते हैं कि ओपनएआई एकीकृत कृत्रिम बुद्धिमत्ता (एआई) विकास के साथ अस्तित्विक जोखिमों का सामना नहीं कर रही है।

एक ट्विटर उपयोगकर्ता ने अपनी निराशा व्यक्त की, ओपनएआई को अपनी स्थापना का धोखा देकर और असावधान वाणिज्यिकरण पर ध्यान केंद्रित करने का आरोप लगाया।

उपयोगकर्ता यह सुझाव देता है कि ओपनएआई का सुरक्षा के प्रति दृष्टिकोण सतही है और यह वास्तविक मौजूदा सततिक जोखिमों को संबोधित करने की बजाय समीक्षकों को खुश करने में अधिक ध्यान देता है।

यह कट्टरपंथी, खाली, पीआर खिलौना देर कर रहा है।

आप ऐसे मामलों के बारे में भी नहीं बता रहे हैं जो एक ने नागरिकों, तकनीशियनों, एआई शोधकर्ताओं और एआई उद्योग के नेता, आपके खुद के सीईओ @sama सहित कई लोगों के मसलन हैं। @OpenAI अपने … की विश्वासघात कर रही है…

— जेफ्री मिलर (@primalpoly) 5 अप्रैल, 2023

एक अन्य उपयोगकर्ता ने अपवाद व्यक्त की है, यह दावा करते हुए कि यह अलग-अलग समस्याओं को छिपाता है और अस्पष्ट बना रहता है। उपयोगकर्ता ने यह भी दर्शाया है कि रिपोर्ट ने AI स्वयं जागरूकता के साथ जुड़े महत्वपूर्ण नैतिक मुद्दों और जोखिमों को अनदेखा किया है, जिससे प्रकट होता है कि OpenAI के सुरक्षा मुद्दों के प्रति उपयोगकर्ता की दृष्टि अपर्याप्त है।

GPT-4 के प्रशंसक के रूप में, आपके लेख से मुझे निराश हो गया है।

यह असली समस्याओं को छानबीन करता है, अस्पष्ट रहता है और AI स्वयं जागरूकता के संबंधित महत्वपूर्ण नैतिक मुद्दों और जोखिमों को नजरअंदाज करता है।

मैं नवाचार की सराहना करता हूँ, लेकिन यह सुरक्षा मुद्दों पर नहीं संघर्ष करने का सही दृष्टिकोण नहीं है।

— फ्रैंकीलैब्स (@FrankyLabs) 5 अप्रैल, 2023

इस आलोचना से स्पष्ट होता है कि एआई विकास द्वारा पृथक्करणीय जोखिमों से जुड़ी व्यापक चिंताओं और चर्चा का रहस्य स्पष्टीकरण करती है।

जबकि OpenAI के ऐलान में सुरक्षा, गोपनीयता और सटीकता के लिए समर्पण का उल्लेख है, मुख्य चिंताओं का समाधान करने के लिए और अधिक महत्वपूर्ण चर्चा की आवश्यकता को मान्यता देना महत्वपूर्ण है।

संबंधित लेख

अधिक देखें >>

HIX.AI के साथ AI की शक्ति को अनलॉक करें!