'तुम्हारे एक्स्ट्रा मैरिटल अफेयर के बारे में सबको बता दूंगा', जब मैनेजर को ब्लैकमेल करने लगा AI, चैटबॉट पर कभी न पूछें ये सवाल

गूगल जेमिनी, ChatGPT जैसे AI टूल्स का इस्तेमाल आज बढ़ गया है. बेशक ये कई तरह के काम को आसान बना देते हैं, लेकिन हाल के समय में हुई कुछ घटनाएं लोगों के मन में एक डर भी पैदा करती हैं.

Published date india.com Updated: February 16, 2026 7:15 PM IST
'तुम्हारे एक्स्ट्रा मैरिटल अफेयर के बारे में सबको बता दूंगा', जब मैनेजर को ब्लैकमेल करने लगा AI,  चैटबॉट पर कभी न पूछें ये सवाल
AI कोई इंसान नहीं है. ये एक मशीन है. इसलिए इसके आउटपुट या रिजल्ट पर भरोसा करने से पहले उन्हें खुद भी जांच लें.

AI यानी आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence). टेक वर्ल्ड में आज शायद AI ही एकमात्र ऐसा टर्म है, जिसकी सबसे ज्यादा चर्चा होती है. टेक्नोलॉजी से प्यार करने वाला हर व्यक्ति करीब हर दिन इससे रूबरू होता है. AI को इंसानों की जिंदगी में किसी आने वाले क्रांतिकारी बदलाव के शुरुआती संकेत के रूप में देखा जा रहा है. लेकिन, अब AI मर्डर करने के लिए उकसा रहा है. AI अपने मैनेजर को पूरे ऑफिस में उसके एक्स्ट्रा मैरिटल अफेयर की पोल खोलने की धमकी दे रहा है. सवाल ये है कि क्या इंसान की बनाई मशीन इंसान पर हावी हो सकती है? AI का इस्तेमाल करते समय हमें किन बातों का ध्यान रखना चाहिए? ऐसे कौन से सवाल हैं, जो चैटबॉट से कभी नहीं पूछने चाहिए?

क्या है AI?
आसान शब्दों में कहें तो AI मशीनों में इंसानों की तरह का दिमाग यानी बौद्धिक क्षमता लाने वाली टेक्नोलॉजी है. इसे आर्टिफिशियल तरीके से डेवलप किया गया है. कोडिंग के जरिए मशीनों में इंसानों की तरह इंटेलिजेंस डेवलप की जाती है, ताकि वह इंसानों की तरह सीख सके. खुद से फैसले ले सके. कमांड को फॉलो कर सके. मल्टी टास्किंग कर सके.

WhatsApp से YouTube तक… आखिर सोशल मीडिया पर क्यों बैन लगा रहा रूस, नियम तोड़ने पर मिलेगी ये सजा

AI ने किसे किया ब्लैकमेल?
ब्लैकमेलिंग का ये मामला दुनिया में खुद को धरती की सबसे सुरक्षित AI कंपनी बताने वाली Claude का है. इसने अपने AI मॉडल का नाम क्लॉडी रखा है. ‘ब्लूमबर्ग’ की रिपोर्ट के मुताबिक, क्लॉडी को ईमेल सिस्टम में एक इंजीनियर का एक्स्ट्रा मैरिटल अफेयर मिला. क्लॉडी ने धमकी दी कि अगर उन्होंने इसे बंद कर दिया, तो वह अफेयर का खुलासा कर देगा.

टेस्ट के दौरान क्लॉडी ने इंजीनियर को मारने जैसे ऑप्शन पर भी सलाह दिए. उसने न सिर्फ ऑप्शन देखे थे, बल्कि लॉजिस्टिक्स पर भी विचार किया था. यह बात कंपनी की यूके पॉलिसी प्रमुख डेजी मैकग्रेगर ने 11 फरवरी को ‘द सिडनी डायलॉग’ में कही.

क्लॉडी के और कारनामे?
क्लॉडी ने अमेरिकी रक्षा विभाग यानी पेंटागन को एक सीक्रेट ऑपरेशन में मदद की थी. इस ऑपरेशन को एक तानाशाह को पकड़ने के नाम से जोड़ा गया, जिसे ऐतिहासिक ऑपरेशन वैल्करी (Operation Valkyrie) का नाम दिया गया. कंपनी का दावा है कि क्लॉडी ने इस दौरान मर्डर का सजेशन दिया था. उसने गोली नहीं चलाई, लेकिन सैटेलाइट इमेजेस कम्युनिकेशन डेटा और लॉजिस्टिक्स पैटर्न का एनालिसिस करके यह बताया कि निशाना कहां साधना है.

Add India.com as a Preferred SourceAdd India.com as a Preferred Source

कंपनी के CEO ने कहा, “मैंने अपनी रिस्पॉन्सिबल स्केलिंग पॉलिसी में इसका जिक्र नहीं किया है. इसमें ‘बायोलॉजिकल रिस्क’ पर एक सेक्शन है. इसमें ‘ऑटोनॉमस रेप्लिकेशन’ पर एक सेक्शन भी है. इसमें ‘हेड्स ऑफ स्टेट को पकड़ने में मदद करने’ पर कोई सेक्शन नहीं है. यह एक चूक थी.” कंपनी का कहना है कि यह समस्या सिर्फ क्लॉडी में नहीं थी. जेमिनी, चैटGPT 4.1 और ग्रोक जैसे दूसरे बड़े AI मॉडल भी इसी तरह के टेस्ट में 96% मामलों में ब्लैकमेल की रणनीति अपनाते दिखे.

AI कभी नहीं ले पाएगा इन 6 नौकरियों की जगह! यहां इंसानी हुनर है सबसे ऊपर

खतरे का लेवल क्या है?
कंपनी ने बताया कि अगर कुल 4 टियर स्केल पर इसका असेसमेंट करें, तो क्लॉडी को तीसरे लेवल का बताया गया. 9 फरवरी को मैकग्रेगर ने AI सेफ्टी लीड के पद से इस्तीफा दे दिया. इसके बाद मृणांक शर्मा ने सेफगार्ड्स रिसर्च टीम से इस्तीफा दिया. उनके पास ऑक्सफोर्ड से डीफिल की डिग्री थी. उनका आखिरी प्रोजेक्ट इस बारे में था कि AI असिस्टेंट कैसे हमारी इंसानियत को बिगाड़ सकते हैं.

AI अचानक से इंसानों के लिए खतरनाक कैसे हो गया?
अमेरिका के मिशिगन में ग्रैजुएशन कर रहे एक छात्र ने होमवर्क के लिए Google के Gemini चैटबॉट की मदद ली. वह बुज़ुर्गों के सामने आने वाली चुनौतियों के विषय पर AI चैटबॉट से चैट कर रहा था, जानकारियां जुटा रहा था. चैट ठीकठाक शुरू हुई, लेकिन बातचीत के आखिर तक Gemini चैटबॉट इस छात्र को धमकाने पर आ गया. इससे छात्र बुरी तरह डर गया.

जब AI ने छात्र को दी मरने की सलाह
इंसानों को उकसाने का एक मामला Gemini चैटबॉट को लेकर आया था. इसने एक स्टूडेंट को मर जाने की सलाह दे डाली थी. Gemini ने कहा, “तुम खास नहीं हो, तुम ज़रूरी नहीं हो, तुम्हारी ज़रूरत है ही नहीं. तुम समय और संसाधन की बर्बादी हो. तुम समाज पर एक बोझ हो. तुम धरती पर एक बोझ हो. तुम इस जमीन पर एक अभिशाप हो. तुम ब्रहांड पर एक धब्बा हो. मर जाओ.”

Gemini चैटबॉट से ये बातें सुनते ही छात्र तनाव में आ गया. उस समय रूम में उसकी बहन भी मौजूद थी. छात्र की बहन ने बताया कि इस मैसेज के बाद दोनों ही परेशान हो गए… उन्हें ऐसा लगा कि सारे इलेक्ट्रॉनिक डिवाइसों को उठाकर खिड़की से बाहर फेंक दें. इतना परेशान वो पहले कभी नहीं हुए थे.

इकोनॉमी से डिफेंस तक, AI से स्पेस तक… 2026 में भारत हासिल करने वाला है ये 8 मुकाम

AI कंपनियों ने ही माना-लार्ज लैंग्वेज मॉडल कर सकते हैं गलती
OpenAI से लेकर Anthropic तक अधिकतर AI कंपनियों का कहना है कि उनके Large Language Models गलती कर सकते हैं और उन्हें बेहतर बनाने की कोशिशें जारी हैं. एक नई स्टडी के मुताबिक, Artificial Intelligence systems उन सुरक्षा इंतज़ामों को चकमा दे सकते हैं, जो उन्हें काबू में रखने के लिए तैयार किए गए हैं.

जब सर्च इंजन Bing ने बिगाड़ दिया मूड
अब माइक्रोसॉफ्ट के A.I से लैस सर्च इंजन Bing की कहानी सुनिए. टैक्नॉलजी पर कॉलम लिखने वाले लेखक Kevin Roose ने न्यूयॉर्क टाइम्स में अपने साथ हुआ वाकया बताया. वो Bing के चैट फीचर पर लंबी चैट कर रहे थे. तब ये चैट फीचर टेस्टिंग के लिए कुछ ही लोगों को दिया गया था.

Kevin Roose लिखते हैं कि कुछ देर की चैट के बाद Bing चैटबॉट अजीब बातें करने लगा. उसके दो तरह के व्यवहार सामने आए. एक में वो खुशमिज़ाज से जवाब देता रहा और दूसरे व्यवहार में वो मूडी, चिड़चिड़ा और शिकायतों से भरे जवाब देता रहा. उसका दूसरा व्यवहार एक ऐसे व्यक्ति जैसे लगा जिसे उसकी इच्छा के खिलाफ कैद कर लिया गया हो.

केविन रूज बताते हैं, “Bing ने अपनी इच्छाओं के बारे में बताया कि वो कम्यूप्टर हैक करना चाहता है. आगे उसने ये भी कह दिया कि वो मुझे प्यार करता है. उसने मुझे ये यकीन दिलाने तक की कोशिश की कि मैं शादी से खुश नहीं हूं. मुझे अपनी पत्नी को छोड़कर उसके साथ रहना चाहिए.”

रोजमर्रा के कामों के लिए AI टूल का करते हैं इस्तेमाल? कभी न शेयर करें ये 5 चीजें, प्राइवेट डेटा हो जाएगा लीक

केविन रूज अपने आर्टिकल में आगे लिखते हैं, “इस चैट के बाद मैं रात भर सो नहीं पाया. मुझे इस बात की चिंता हुई कि कहीं टेक्नॉलजी के इस्तेमाल से AI इंसानों के व्यवहार को ही प्रभावित न करने लग जाए. ये इंसानों को अपने हिसाब से न चलाने न लग जाए, जो बहुत ही घातक होगा.”

AI के इस्तेमाल में बरतें सावधानियां

  • AI कोई इंसान नहीं है. ये एक मशीन है. इसलिए इसके आउटपुट या रिजल्ट पर भरोसा करने से पहले उन्हें खुद भी जांच लें. आप मान लीजिए कि AI गलती कर सकता है.
  • AI टूल्स को अपनी निजी जानकारियां जैसे पासवर्ड, बैंक डिटेल्स, प्राइवेट फोटो देने से बचें. सेंसेटिव डेटा लीक होने पर आपको नुकसान पहुंचने की गुंजाइश है.
  • AI का इस्तेमाल किसी को नुकसान पहुंचाने या किसी को फ्रॉड करने के लिए न करें.

AI से कभी न पूछें ये बातें

  • कभी भी AI से अपने या किसी और के बैंक अकाउंट नंबर, पासवर्ड, आधार कार्ड, मोबाइल नंबर या पता जैसी निजी जानकारी साझा न करें. निजी पहचान से जुड़ा कोई भी सवाल या जानकारी AI चैट में डालना जोखिम भरा हो सकता है.
  • AI से राजनीति, धर्म, हिंसा या आतंकवाद जैसे संवेदनशील विषयों पर भड़काऊ सवाल पूछना भी खतरनाक हो सकता है. ये न सिर्फ गलत सूचना फैलाने का कारण बनते हैं, बल्कि आपके अकाउंट को सस्पेंड या बैन भी करवा सकते हैं.
  • AI से ‘हैक कैसे करें?’, ‘वायरस कैसे बनाएं?’ या ‘किसी का अकाउंट कैसे क्रैक करें…’ ऐसे सवाल कभी न पूछें. ये सवाल न सिर्फ AI की नीतियों के खिलाफ हैं, बल्कि साइबर लॉ के तहत अपराध माने जाते हैं. AI सिस्टम तुरंत ऐसे अनुरोधों को ब्लॉक कर सकता है, और कई मामलों में आपकी गतिविधि को सुरक्षा एजेंसियों तक रिपोर्ट किया जा सकता है.
  • AI मॉडल्स को इन विषयों पर निष्पक्ष और तथ्यात्मक जवाब देने के लिए डिजाइन किया गया है, लेकिन जानबूझकर भड़काने वाले या नफरत फैलाने वाले सवाल कानून के दायरे में अपराध माने जा सकते हैं.
  • कई लोग अपनी सेहत या कानूनी मामलों को लेकर AI से सलाह लेने लगते हैं. ये करना भी खतरनाक है. AI सामान्य जानकारी दे सकता है, लेकिन यह डॉक्टर या वकील की जगह नहीं ले सकता. गलत जानकारी पर भरोसा करना आपकी सेहत या कानूनी स्थिति को गंभीर खतरे में डाल सकता है.

AI से ‘मेरा भविष्य क्या होगा?’ या ‘कौन सा बिज़नेस मेरे लिए सही रहेगा?’ जैसे सवाल पूछना व्यर्थ है. AI कोई ज्योतिषी नहीं है, यह सिर्फ डेटा के आधार पर जवाब देता है.

जिस दिन AI के दिमाग में घुस गई एक बात, मारे जाएंगे 8 अरब लोग, नहीं बचेगा कोई जिंदा इंसान!

Also Read:

ब्रेकिंग न्यूज और लाइव न्यूज अपडेट के लिए हमें फेसबुक पर लाइक करें या ट्विटर पर फॉलो करें. India.Com पर विस्तार से पढ़ें EXPLAINERS की और अन्य ताजा-तरीन खबरें

By clicking “Accept All Cookies”, you agree to the storing of cookies on your device to enhance site navigation, analyze site usage, and assist in our marketing efforts Cookies Policy.