नई दिल्ली:– आर्टिफिशियल इंटेलिजेंस की दुनिया में बड़ा बदलाव देखने को मिल रहा है। OpenAI, Google और Anthropic अब अपने एडवांस AI मॉडल्स को सुरक्षित रखने के लिए एक साथ आ गई हैं।
रिपोर्ट्स के मुताबिक, ये कंपनियां मिलकर उन तरीकों पर रोक लगाने की तैयारी कर रही हैं, जिनके जरिए उनके AI मॉडल्स की नकल की जा रही है। खासतौर पर सस्ते AI मॉडल बनाने की कोशिशों को टारगेट किया जा रहा है।
मॉडल डिस्टिलेशन पर सख्त नजर
AI कंपनियों का फोकस अब मॉडल डिस्टिलेशन पर है। यह एक ऐसी तकनीक है, जिसमें छोटे मॉडल को बड़े और एडवांस मॉडल की तरह ट्रेन किया जाता है। आमतौर पर यह प्रक्रिया वैध मानी जाती है, लेकिन कंपनियों का आरोप है कि कुछ डेवलपर्स इसका गलत इस्तेमाल कर रहे हैं। रिपोर्ट के अनुसार, बड़ी मात्रा में डेटा निकालकर छोटे AI मॉडल तैयार किए जा रहे हैं, जो कम लागत में बड़े मॉडल्स को टक्कर दे सकते हैं।
Frontier Model Forum बना बड़ा हथियार
इन कंपनियों के बीच जानकारी साझा करने का काम Frontier Model Forum के जरिए हो रहा है। इस फोरम की शुरुआत 2023 में OpenAI, Google, Anthropic और Microsoft ने मिलकर की थी। इसका मकसद एडवांस AI सिस्टम्स को सुरक्षित और जिम्मेदार तरीके से विकसित करना है।
अब इसी प्लेटफॉर्म का इस्तेमाल संदिग्ध गतिविधियों को पहचानने और उन्हें रोकने के लिए किया जा रहा है। कंपनियां आपस में डेटा और पैटर्न शेयर कर रही हैं, ताकि यह समझा जा सके कि कहां और कैसे उनके मॉडल्स की कॉपी हो रही है।
DeepSeek विवाद ने बढ़ाई चिंता
AI मॉडल की चोरी का मुद्दा तब और गरमाया जब DeepSeek पर 2025 में OpenAI ने अपने मॉडल की नकल करने का आरोप लगाया। कहा गया कि DeepSeek ने डिस्टिलेशन तकनीक का इस्तेमाल कर “DeepSeek R1” मॉडल तैयार किया। हालांकि इन दावों की स्वतंत्र पुष्टि नहीं हो सकी, लेकिन इस घटना ने कंपनियों की चिंता जरूर बढ़ा दी है।
कंपनियों को अरबों का नुकसान
रिपोर्ट्स के मुताबिक, इस तरह के AI मॉडल्स की वजह से अमेरिकी टेक कंपनियों को हर साल अरबों डॉलर का नुकसान हो रहा है। यही कारण है कि अब इसे सिर्फ बिजनेस नहीं, बल्कि राष्ट्रीय सुरक्षा का मुद्दा भी माना जा रहा है।
AI सेक्टर में बढ़ेगी टक्कर
OpenAI, Google और Anthropic का यह कदम आने वाले समय में AI सेक्टर की दिशा बदल सकता है। जहां एक तरफ सुरक्षा कड़ी होगी, वहीं दूसरी तरफ कंपनियों के बीच प्रतिस्पर्धा और भी तेज हो जाएगी।
