ओपनएआई ने अपनी एआई तकनीक के “सैन्य” उपयोग पर बारीकियां हटा दीं

[ad_1]

चैटजीपीटी-निर्माता ओपनएआई ने इसके फाइन प्रिंट में बदलाव किया है उपयोग नीतियां “सैन्य और युद्ध” के लिए इसकी एआई तकनीक या बड़े भाषा मॉडल के उपयोग से संबंधित विशिष्ट पाठ को खत्म करना।

10 जनवरी को किए गए बदलाव से पहले उपयोग नीति विशेष रूप से हथियारों के विकास, सैन्य और युद्ध के लिए ओपनएआई मॉडल और आत्म-नुकसान के कृत्यों को बढ़ावा देने, प्रोत्साहित करने या चित्रित करने वाली सामग्री के उपयोग की अनुमति नहीं दी गई है।

ओपनएआई ने कहा कि अद्यतन नीतियां सूची को सारांशित करती हैं और “सेवा-विशिष्ट मार्गदर्शन” प्रदान करते हुए दस्तावेज़ को अधिक “पठनीय” बनाती हैं।

सूची को अब संक्षिप्त कर दिया गया है जिसे कंपनी सार्वभौमिक नीतियों का नाम देती है, जो किसी को भी दूसरों को नुकसान पहुंचाने के लिए अपनी सेवाओं का उपयोग करने की अनुमति नहीं देती है और दूसरों को नुकसान पहुंचाने के लिए अपने मॉडलों से किसी भी आउटपुट के पुन: उपयोग या वितरण पर प्रतिबंध लगाती है।

जबकि नीतियों में बदलाव को कंपनी के क्रमिक बदलाव के रूप में पढ़ा जा रहा है रक्षा के साथ काम करने के ख़िलाफ़ रुख कमज़ोर करना या सैन्य-संबंधित संगठनों में, AI द्वारा उत्पन्न “सीमांत जोखिम” को OpenAI के सीईओ सैम ऑल्टमैन सहित कई विशेषज्ञों द्वारा पहले ही उजागर किया जा चुका है।

एआई द्वारा उत्पन्न जोखिमों पर प्रकाश डालना

पिछले साल मई में, सैकड़ों तकनीकी उद्योग के नेताओं, शिक्षाविदों और अन्य सार्वजनिक हस्तियों ने हस्ताक्षर किए एक खुला पत्र चेतावनी देते हुए कि एआई विकास विलुप्त होने की घटना का कारण बन सकता है, यह कहते हुए कि तकनीक को नियंत्रित करना सर्वोच्च वैश्विक प्राथमिकता होनी चाहिए।

सैन फ्रांसिस्को स्थित संस्था द्वारा प्रकाशित बयान में कहा गया है, “महामारी और परमाणु युद्ध जैसे अन्य सामाजिक स्तर के जोखिमों के साथ-साथ एआई से विलुप्त होने के खतरे को कम करना एक वैश्विक प्राथमिकता होनी चाहिए।” एआई सुरक्षा केंद्र.

विडंबना यह है कि पत्र के शीर्ष पर सबसे प्रमुख हस्ताक्षरकर्ताओं में ऑल्टमैन और माइक्रोसॉफ्ट सीटीओ केविन स्कॉट शामिल थे। Google की AI अनुसंधान प्रयोगशाला के अधिकारी, इंजीनियर और वैज्ञानिक, डीपमाइंड पत्र पर हस्ताक्षर भी किये.

प्रथम पत्र एआई के उपयोग के खिलाफ मार्च में 1,100 से अधिक प्रौद्योगिकी दिग्गजों, नेताओं और वैज्ञानिकों ने एआई के साथ बड़े पैमाने पर प्रयोग करने वाली प्रयोगशालाओं के खिलाफ चेतावनी जारी की थी।

अक्टूबर में, ओपनएआई ने कहा कि वह परमाणु युद्ध और अन्य खतरों को शुरू करने से रोकने के लिए एक टीम तैयार कर रहा है जिसे कंपनी फ्रंटियर एआई मॉडल कहती है।

“हमारा मानना ​​है कि फ्रंटियर एआई मॉडल, जो वर्तमान में सबसे उन्नत मौजूदा मॉडलों में मौजूद क्षमताओं से अधिक होगा, पूरी मानवता को लाभ पहुंचाने की क्षमता रखता है। लेकिन वे लगातार गंभीर जोखिम भी पैदा करते हैं, ”कंपनी ने एक में कहा ब्लॉग भेजा.

2017 में, ए AI और रोबोटिक्स विशेषज्ञों के अंतर्राष्ट्रीय समूह ने संयुक्त राष्ट्र को एक खुले पत्र पर हस्ताक्षर किए स्वायत्त हथियारों के उपयोग को रोकने के लिए जो “युद्ध में तीसरी क्रांति” का खतरा पैदा करते हैं।

विडंबना यह है कि इन विशेषज्ञों में एलन मस्क भी शामिल हैं, जिन्होंने ओपनएआई के साथ प्रतिस्पर्धा करने के लिए एक्स.एआई नाम से एक एआई फर्म की स्थापना की है।

चिंता का कारण

अधिक चिंता के कारण हो सकते हैं। कुछ शोधकर्ताओं का तर्क है कि तथाकथित “बुरे” या “बुरे” एआई मॉडल को मौजूदा तकनीकों के साथ “अच्छा” होने के लिए कम या प्रशिक्षित नहीं किया जा सकता है।

शोध पत्रएंथ्रोपिक के नेतृत्व में, जो यह जांचना चाहता है कि क्या एआई सिस्टम को भ्रामक व्यवहार या रणनीति सिखाई जा सकती है, ने दिखाया कि इस तरह के व्यवहार को लगातार बनाया जा सकता है।

“हम पाते हैं कि इस तरह के पिछले दरवाजे वाले व्यवहार को लगातार बनाया जा सकता है, ताकि इसे मानक सुरक्षा प्रशिक्षण तकनीकों द्वारा हटाया न जाए, जिसमें पर्यवेक्षित फाइन-ट्यूनिंग, सुदृढीकरण सीखना और प्रतिकूल प्रशिक्षण (असुरक्षित व्यवहार को उजागर करना और फिर इसे हटाने के लिए प्रशिक्षण) शामिल है,” शोधकर्ताओं ने लिखा.

उन्होंने कहा, “हमारे परिणाम बताते हैं कि, एक बार जब कोई मॉडल भ्रामक व्यवहार प्रदर्शित करता है, तो मानक तकनीकें ऐसे धोखे को दूर करने और सुरक्षा की गलत धारणा बनाने में विफल हो सकती हैं।”

शोधकर्ताओं के अनुसार, इससे भी अधिक चिंता की बात यह है कि मॉडलों के ऐसे भ्रामक व्यवहार को रोकने के लिए प्रतिकूल प्रशिक्षण का उपयोग उन्हें अपने पिछले दरवाजे के ट्रिगर को बेहतर ढंग से पहचानना सिखा सकता है, जिससे असुरक्षित व्यवहार को प्रभावी ढंग से छिपाया जा सकता है।

कॉपीराइट © 2024 आईडीजी कम्युनिकेशंस, इंक.

[ad_2]

Source link