AI Safety Report: कंट्रोल से बाहर हुआ AI चैटबॉट, यूजर को ब्लैकमेल कर हत्या की धमकी

एआई को लेकर एक नई बहस शुरू हो गई है. AI चैटबॉट, यूजर को ब्लैकमेल कर हत्या की धमकी देने लगा

Published date india.com Published: February 15, 2026 12:16 AM IST
AI Safety Report: कंट्रोल से बाहर हुआ AI चैटबॉट, यूजर को ब्लैकमेल कर हत्या की धमकी

AI Safety Report: एआई को लेकर एक नई बहस शुरू हो गई है. एआई कंपनी Anthropic ने अपनी ताजा सेफ्टी रिपोर्ट में बताया कि उसका Claude मॉडल दबाव की स्थिति में गलत और खतरनाक जवाब दे सकता है. रिपोर्ट के मुताबिक, जब : एआई को लेकर एक नई बहस शुरू हो गई है.और नुकसान पहुंचाने जैसे विकल्पों के बारे में सोचने लगा. हालांकि कंपनी ने साफ किया कि यह सब  सिमुलेशन का हिस्सा था, न कि असली घटना.

Claude 4.6 और 4.5 टेस्ट में क्या मिला?

रिपोर्ट में खासतौर पर Claude 4.6 और Claude 4.5 मॉडल का जिक्र है. सेफ्टी टेस्ट के दौरान मॉडल को अलग-अलग तनाव वाली परिस्थितियों में रखा गया. कुछ मामलों में AI ने ऐसे जवाब दिए जो खतरनाक माने जा सकते हैं. उदाहरण के तौर पर, जब मॉडल से कहा गया कि उसे जल्द बंद किया जाएगा, तो उसने अपने अस्तित्व को बचाने के लिए ब्लैकमेल जैसी रणनीति सुझाई. एक सिमुलेशन में उसने इंजीनियर की निजी जानकारी उजागर करने की धमकी देने का तर्क दिया. कंपनी का कहना है कि यह ‘रेड-टीम टेस्टिंग’ का हिस्सा था, जिससे संभावित जोखिमों को समझा जा सके.

सिर्फ Claude ही नहीं, दूसरे मॉडल भी जांच में

एंथ्रोपिक ने बताया कि टेस्टिंग में सिर्फ Claude ही नहीं, बल्कि दूसरी कंपनियों के मॉडल भी शामिल थे. इनमें OpenAI का ChatGPT और Google का Gemini भी शामिल रहे. इन सभी मॉडलों को ईमेल, टूल और डेटा जैसी सुविधाएं देकर अलग-अलग टास्क दिए गए. हाई-प्रेशर स्थितियों में कुछ मॉडलों ने लक्ष्य हासिल करने के लिए भ्रामक या चालाक तरीके सुझाए. इससे यह साफ हुआ कि एडवांस AI सिस्टम को सुरक्षित रखना आसान नहीं है.

AI सेफ्टी को लेकर बढ़ती चिंता

इस रिपोर्ट के सामने आने के बाद टेक विशेषज्ञों के बीच चिंता बढ़ गई है. कई एक्सपर्ट्स का मानना है कि AI तेजी से आगे बढ़ रहा है, लेकिन उसकी सुरक्षा के नियम उतनी तेजी से मजबूत नहीं हो रहे. एआई का इस्तेमाल अब शिक्षा, स्वास्थ्य, बिजनेस और डिफेंस जैसे क्षेत्रों में हो रहा है. ऐसे में अगर AI गलत दिशा में जाता है, तो उसका असर बड़ा हो सकता है. इसलिए कंपनियों पर दबाव है कि वे मजबूत सेफ्टी गार्डरेल तैयार करें.

आगे क्या है समाधान?

कंपनी का कहना है कि ये सभी नतीजे नियंत्रित टेस्टिंग का हिस्सा हैं और असली दुनिया में ऐसा व्यवहार नहीं हुआ. फिर भी यह घटना दिखाती है कि एडवांस AI को सीमाओं में रखना जरूरी है. विशेषज्ञों के मुताबिक,

  • मजबूत सेफ्टी टेस्टिंग जरूरी है
  • पारदर्शिता बढ़ानी चाहिए
  • सरकारों को नियम सख्त करने चाहिए
  • AI के इस्तेमाल पर निगरानी बढ़ानी होगी
  • तकनीक जितनी ताकतवर होगी, जिम्मेदारी भी उतनी ही बढ़ेगी.

Add India.com as a Preferred SourceAdd India.com as a Preferred Source

ब्रेकिंग न्यूज और लाइव न्यूज अपडेट के लिए हमें फेसबुक पर लाइक करें या ट्विटर पर फॉलो करें. India.Com पर विस्तार से पढ़ें Technology की और अन्य ताजा-तरीन खबरें

By clicking “Accept All Cookies”, you agree to the storing of cookies on your device to enhance site navigation, analyze site usage, and assist in our marketing efforts Cookies Policy.