OpenAI इलिनॉय में उस विधेयक का समर्थन करती है जो AI से होने वाली बड़ी आपदाओं के लिए कानूनी जिम्मेदारी सीमित करता है

OpenAI इलिनॉय में एक ऐसे कानून का समर्थन कर रही है जो AI प्रयोगशालाओं को बड़े पैमाने पर आपदाओं के मामलों में मुकदमों से सुरक्षा प्रदान करता है, बशर्ते कि सुरक्षा प्रोटोकॉल का पालन किया गया हो।

OpenAI इलिनॉय में उस विधेयक का समर्थन करती है जो AI से होने वाली बड़ी आपदाओं के लिए कानूनी जिम्मेदारी सीमित करता है
विनियमन और नैतिकता
12 de अप्रैल de 2026
12

एक महत्वपूर्ण रणनीतिक बदलाव में, OpenAI ने आधिकारिक तौर पर संयुक्त राज्य अमेरिका के इलिनॉय राज्य में लंबित विधेयक SB 3444 के लिए अपना समर्थन घोषित किया है। इस प्रस्ताव का उद्देश्य उन्नत आर्टिफिशियल इंटेलिजेंस कंपनियों के लिए एक कानूनी कवच स्थापित करना है, जो उन्हें विनाशकारी परिदृश्यों में नागरिक उत्तरदायित्व से छूट देगा, जैसे कि ऐसी घटनाएं जिनके परिणामस्वरूप 100 या अधिक लोगों की मृत्यु या गंभीर चोटें हों, या 1 बिलियन डॉलर (लगभग 8,400 करोड़ रुपये) से अधिक का वित्तीय नुकसान हो। यह कदम कंपनी के रुख में एक उल्लेखनीय परिवर्तन को दर्शाता है, जो पहले एक रक्षात्मक रणनीति अपनाती थी और अक्सर उन कानूनों के खिलाफ होती थी जो तकनीकी प्रयोगशालाओं के संचालन पर अधिक कानूनी सख्ती लागू करते थे।

AI विनियमन का वर्तमान परिदृश्य

तकनीकी दिग्गजों की स्वायत्त मॉडलों के कार्यों के लिए कानूनी जिम्मेदारी पर बहस तब और तेज हो जाती है जब ये सिस्टम अधिक शक्तिशाली हो जाते हैं और समाज के महत्वपूर्ण बुनियादी ढांचे में एकीकृत हो जाते हैं। अब तक, संयुक्त राज्य अमेरिका में कोई संघीय मानक नहीं है जो स्पष्ट रूप से परिभाषित करे कि उन्नत मॉडलों की विफलता या दुरुपयोग से होने वाले नुकसान की लागत किसे उठानी चाहिए। इस विधायी शून्य ने कैलिफोर्निया और न्यूयॉर्क जैसे राज्य सरकारों को अपने स्वयं के नियम बनाने के लिए प्रोत्साहित किया है, जैसे कि SB 53 कानून और 'रेज एक्ट' (Raise Act), जो अधिक पारदर्शिता और सुरक्षा रिपोर्ट की मांग करते हैं। OpenAI ने अपनी ग्लोबल अफेयर्स टीम के माध्यम से तर्क दिया है कि राज्य कानूनों का यह जाल अनावश्यक परिचालन घर्षण पैदा करता है और राष्ट्रीय स्तर पर एक एकीकृत नियामक ढांचे के निर्माण की वकालत करता है।

तकनीकी परिभाषाएं और सुरक्षा का दायरा

विधेयक SB 3444 यह परिभाषित करने के लिए विशिष्ट मानदंड स्थापित करता है कि फ्रंटियर आर्टिफिशियल इंटेलिजेंस मॉडल क्या है। पाठ के अनुसार, वर्गीकरण उन सभी प्रणालियों पर लागू होता है जिनकी कम्प्यूटेशनल प्रशिक्षण लागत 100 मिलियन डॉलर से अधिक है, एक ऐसा स्तर जो OpenAI, Google, xAI, Anthropic और Meta जैसे क्षेत्र के प्रमुख संगठनों को शामिल करता है। प्रस्ताव में प्रावधान है कि गंभीर नुकसान के मुकदमों से सुरक्षा का लाभ उठाने के लिए, डेवलपर्स को सख्त आवश्यकताओं का पालन करना होगा: नुकसान को जानबूझकर या लापरवाही से न किया गया हो और मॉडल की सुरक्षा और अखंडता की विस्तृत रिपोर्ट सार्वजनिक और पारदर्शी रूप से प्रकाशित की गई हो।

सार्वजनिक सुरक्षा के लिए निहितार्थ

विधेयक में निहित गंभीर नुकसान की परिभाषा में चिंताजनक परिदृश्य शामिल हैं, जिसमें रासायनिक, जैविक, रेडियोलॉजिकल या परमाणु हथियार विकसित करने के लिए दुर्भावनापूर्ण एजेंटों द्वारा मॉडल का उपयोग शामिल है। इसके अलावा, कानून उन स्थितियों पर भी विचार करता है जहां मॉडल स्वयं, प्रत्यक्ष मानवीय हस्तक्षेप के बिना, ऐसी कार्रवाई करता है जो यदि किसी व्यक्ति द्वारा की जाती, तो उसे गंभीर अपराध माना जाता। हालांकि, जिम्मेदारी से छूट पूर्ण नहीं है: यह पूरी तरह से डेवलपर्स की ओर से दुर्भावना (intent) के अभाव और आवश्यक पारदर्शिता प्रथाओं के अनुपालन पर निर्भर करती है। 'सिक्योर एआई' (Secure AI) प्रोजेक्ट के स्कॉट विसर जैसे सार्वजनिक नीति विशेषज्ञ चेतावनी देते हैं कि यह उपाय विवादास्पद है, और वे ऐसे शोधों का हवाला देते हैं जो बताते हैं कि इलिनॉय में 90% लोग इस विचार को खारिज करते हैं कि तकनीकी कंपनियों को विशेष कानूनी प्रतिरक्षा होनी चाहिए।

इलिनॉय के नियामक इतिहास के साथ तुलना

इलिनॉय ने संयुक्त राज्य अमेरिका में तकनीकी विनियमन की एक प्रयोगशाला के रूप में खुद को स्थापित किया है, जो अक्सर अन्य राज्यों की तुलना में अधिक कठोर उपाय अपनाता है। स्थानीय इतिहास में 2008 का बायोमेट्रिक सूचना गोपनीयता कानून और हाल ही में मानसिक स्वास्थ्य सेवाओं में AI के उपयोग को प्रतिबंधित करने वाला पहला राष्ट्रीय कानून शामिल है। यह इतिहास OpenAI द्वारा SB 3444 के समर्थन को एक उच्च जोखिम वाला कदम बनाता है, क्योंकि राज्य ने पहले ही कई अवसरों पर तकनीकी कंपनियों की जिम्मेदारी कम करने के बजाय उसे बढ़ाने की प्राथमिकता दिखाई है। बिग टेक (Big Tech) की दृष्टि, जो नवाचार में बाधाओं से बचना चाहती है, और स्थानीय विधायकों की नागरिकों की भलाई के प्रति चिंता के बीच का संघर्ष इस विवाद का केंद्र बिंदु बनने का वादा करता है।

दृष्टिकोण और AI शासन का भविष्य

एक एकीकृत संघीय ढांचे की खोज और राज्य कानूनों के प्रसार के बीच का टकराव सिलिकॉन वैली में एक बड़े तनाव को दर्शाता है, जहां AI वर्चस्व की वैश्विक दौड़ में नेतृत्व खोने का डर राजनीतिक एजेंडे को निर्धारित करता है। जहां ट्रम्प प्रशासन ने खंडित राज्य कानूनों से बचने के लिए दिशानिर्देशों को बढ़ावा दिया है, वहीं अमेरिकी कांग्रेस अभी भी व्यापक संघीय कानून पारित करने में कठिनाइयों का सामना कर रही है। समानांतर में, OpenAI अन्य मोर्चों पर कानूनी चुनौतियों का सामना कर रहा है, जिसमें उपयोगकर्ताओं के परिवारों द्वारा दायर मुकदमे भी शामिल हैं, जिनका आरोप है कि उनकी प्रणालियों के साथ बातचीत ने घातक व्यक्तिगत नुकसान में योगदान दिया है। इलिनॉय में इस परियोजना का परिणाम एक थर्मामीटर के रूप में काम करेगा कि क्या AI प्रयोगशालाएं तकनीक के दैनिक जीवन में सर्वव्यापी होने से पहले सीमित उत्तरदायित्व का सिद्धांत स्थापित करने में सक्षम होंगी या नहीं।

विज्ञापन
साझा करें
टिप्पणियाँ (0)

टिप्पणी करने के लिए लॉगिन करें

लॉगिन

खाता नहीं है? खाता बनाएँ

@bielgga
@bielgga

डेवलपर और एआई उत्साही। Compartilhei के संस्थापक।

विज्ञापन