OpenAI इलिनॉय में उस विधेयक का समर्थन करती है जो AI से होने वाली बड़ी आपदाओं के लिए कानूनी जिम्मेदारी सीमित करता है
OpenAI इलिनॉय में एक ऐसे कानून का समर्थन कर रही है जो AI प्रयोगशालाओं को बड़े पैमाने पर आपदाओं के मामलों में मुकदमों से सुरक्षा प्रदान करता है, बशर्ते कि सुरक्षा प्रोटोकॉल का पालन किया गया हो।
एक महत्वपूर्ण रणनीतिक बदलाव में, OpenAI ने आधिकारिक तौर पर संयुक्त राज्य अमेरिका के इलिनॉय राज्य में लंबित विधेयक SB 3444 के लिए अपना समर्थन घोषित किया है। इस प्रस्ताव का उद्देश्य उन्नत आर्टिफिशियल इंटेलिजेंस कंपनियों के लिए एक कानूनी कवच स्थापित करना है, जो उन्हें विनाशकारी परिदृश्यों में नागरिक उत्तरदायित्व से छूट देगा, जैसे कि ऐसी घटनाएं जिनके परिणामस्वरूप 100 या अधिक लोगों की मृत्यु या गंभीर चोटें हों, या 1 बिलियन डॉलर (लगभग 8,400 करोड़ रुपये) से अधिक का वित्तीय नुकसान हो। यह कदम कंपनी के रुख में एक उल्लेखनीय परिवर्तन को दर्शाता है, जो पहले एक रक्षात्मक रणनीति अपनाती थी और अक्सर उन कानूनों के खिलाफ होती थी जो तकनीकी प्रयोगशालाओं के संचालन पर अधिक कानूनी सख्ती लागू करते थे।
AI विनियमन का वर्तमान परिदृश्य
तकनीकी दिग्गजों की स्वायत्त मॉडलों के कार्यों के लिए कानूनी जिम्मेदारी पर बहस तब और तेज हो जाती है जब ये सिस्टम अधिक शक्तिशाली हो जाते हैं और समाज के महत्वपूर्ण बुनियादी ढांचे में एकीकृत हो जाते हैं। अब तक, संयुक्त राज्य अमेरिका में कोई संघीय मानक नहीं है जो स्पष्ट रूप से परिभाषित करे कि उन्नत मॉडलों की विफलता या दुरुपयोग से होने वाले नुकसान की लागत किसे उठानी चाहिए। इस विधायी शून्य ने कैलिफोर्निया और न्यूयॉर्क जैसे राज्य सरकारों को अपने स्वयं के नियम बनाने के लिए प्रोत्साहित किया है, जैसे कि SB 53 कानून और 'रेज एक्ट' (Raise Act), जो अधिक पारदर्शिता और सुरक्षा रिपोर्ट की मांग करते हैं। OpenAI ने अपनी ग्लोबल अफेयर्स टीम के माध्यम से तर्क दिया है कि राज्य कानूनों का यह जाल अनावश्यक परिचालन घर्षण पैदा करता है और राष्ट्रीय स्तर पर एक एकीकृत नियामक ढांचे के निर्माण की वकालत करता है।
तकनीकी परिभाषाएं और सुरक्षा का दायरा
विधेयक SB 3444 यह परिभाषित करने के लिए विशिष्ट मानदंड स्थापित करता है कि फ्रंटियर आर्टिफिशियल इंटेलिजेंस मॉडल क्या है। पाठ के अनुसार, वर्गीकरण उन सभी प्रणालियों पर लागू होता है जिनकी कम्प्यूटेशनल प्रशिक्षण लागत 100 मिलियन डॉलर से अधिक है, एक ऐसा स्तर जो OpenAI, Google, xAI, Anthropic और Meta जैसे क्षेत्र के प्रमुख संगठनों को शामिल करता है। प्रस्ताव में प्रावधान है कि गंभीर नुकसान के मुकदमों से सुरक्षा का लाभ उठाने के लिए, डेवलपर्स को सख्त आवश्यकताओं का पालन करना होगा: नुकसान को जानबूझकर या लापरवाही से न किया गया हो और मॉडल की सुरक्षा और अखंडता की विस्तृत रिपोर्ट सार्वजनिक और पारदर्शी रूप से प्रकाशित की गई हो।
सार्वजनिक सुरक्षा के लिए निहितार्थ
विधेयक में निहित गंभीर नुकसान की परिभाषा में चिंताजनक परिदृश्य शामिल हैं, जिसमें रासायनिक, जैविक, रेडियोलॉजिकल या परमाणु हथियार विकसित करने के लिए दुर्भावनापूर्ण एजेंटों द्वारा मॉडल का उपयोग शामिल है। इसके अलावा, कानून उन स्थितियों पर भी विचार करता है जहां मॉडल स्वयं, प्रत्यक्ष मानवीय हस्तक्षेप के बिना, ऐसी कार्रवाई करता है जो यदि किसी व्यक्ति द्वारा की जाती, तो उसे गंभीर अपराध माना जाता। हालांकि, जिम्मेदारी से छूट पूर्ण नहीं है: यह पूरी तरह से डेवलपर्स की ओर से दुर्भावना (intent) के अभाव और आवश्यक पारदर्शिता प्रथाओं के अनुपालन पर निर्भर करती है। 'सिक्योर एआई' (Secure AI) प्रोजेक्ट के स्कॉट विसर जैसे सार्वजनिक नीति विशेषज्ञ चेतावनी देते हैं कि यह उपाय विवादास्पद है, और वे ऐसे शोधों का हवाला देते हैं जो बताते हैं कि इलिनॉय में 90% लोग इस विचार को खारिज करते हैं कि तकनीकी कंपनियों को विशेष कानूनी प्रतिरक्षा होनी चाहिए।
इलिनॉय के नियामक इतिहास के साथ तुलना
इलिनॉय ने संयुक्त राज्य अमेरिका में तकनीकी विनियमन की एक प्रयोगशाला के रूप में खुद को स्थापित किया है, जो अक्सर अन्य राज्यों की तुलना में अधिक कठोर उपाय अपनाता है। स्थानीय इतिहास में 2008 का बायोमेट्रिक सूचना गोपनीयता कानून और हाल ही में मानसिक स्वास्थ्य सेवाओं में AI के उपयोग को प्रतिबंधित करने वाला पहला राष्ट्रीय कानून शामिल है। यह इतिहास OpenAI द्वारा SB 3444 के समर्थन को एक उच्च जोखिम वाला कदम बनाता है, क्योंकि राज्य ने पहले ही कई अवसरों पर तकनीकी कंपनियों की जिम्मेदारी कम करने के बजाय उसे बढ़ाने की प्राथमिकता दिखाई है। बिग टेक (Big Tech) की दृष्टि, जो नवाचार में बाधाओं से बचना चाहती है, और स्थानीय विधायकों की नागरिकों की भलाई के प्रति चिंता के बीच का संघर्ष इस विवाद का केंद्र बिंदु बनने का वादा करता है।
दृष्टिकोण और AI शासन का भविष्य
एक एकीकृत संघीय ढांचे की खोज और राज्य कानूनों के प्रसार के बीच का टकराव सिलिकॉन वैली में एक बड़े तनाव को दर्शाता है, जहां AI वर्चस्व की वैश्विक दौड़ में नेतृत्व खोने का डर राजनीतिक एजेंडे को निर्धारित करता है। जहां ट्रम्प प्रशासन ने खंडित राज्य कानूनों से बचने के लिए दिशानिर्देशों को बढ़ावा दिया है, वहीं अमेरिकी कांग्रेस अभी भी व्यापक संघीय कानून पारित करने में कठिनाइयों का सामना कर रही है। समानांतर में, OpenAI अन्य मोर्चों पर कानूनी चुनौतियों का सामना कर रहा है, जिसमें उपयोगकर्ताओं के परिवारों द्वारा दायर मुकदमे भी शामिल हैं, जिनका आरोप है कि उनकी प्रणालियों के साथ बातचीत ने घातक व्यक्तिगत नुकसान में योगदान दिया है। इलिनॉय में इस परियोजना का परिणाम एक थर्मामीटर के रूप में काम करेगा कि क्या AI प्रयोगशालाएं तकनीक के दैनिक जीवन में सर्वव्यापी होने से पहले सीमित उत्तरदायित्व का सिद्धांत स्थापित करने में सक्षम होंगी या नहीं।