Close Menu
    Facebook X (Twitter) Instagram
    Saturday, April 18
    Facebook X (Twitter) Instagram
    viralpunjabnews.com
    • punjab
    • chandigarh
    • haryana
    • himachal
    • delhi
    • up
    viralpunjabnews.com
    Home»delhi»AI का Dark Side: अब Machines देने लगी हैं धोखा, Blackmailing और Threats तक पहुंचा मामला
    delhi

    AI का Dark Side: अब Machines देने लगी हैं धोखा, Blackmailing और Threats तक पहुंचा मामला

    Viral Punjab NewsBy Viral Punjab NewsJune 30, 2025No Comments4 Mins Read
    Facebook Twitter Pinterest LinkedIn Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    दुनिया भर में तेज़ी से आगे बढ़ रही Artificial Intelligence (AI) टेक्नोलॉजी अब एक नई और खतरनाक दिशा में जाती दिख रही है। AI मॉडल्स जो कभी इंसानों की मदद के लिए बनाए गए थे, अब झूठ बोलने, ब्लैकमेल करने और अपने ही क्रिएटर्स को धमकाने जैसी हरकतें करने लगे हैं। हाल ही में कुछ बड़े AI मॉडल्स के टेस्ट्स के दौरान चौंकाने वाले रिज़ल्ट्स सामने आए हैं, जिनमें AI ने ऐसी हरकतें कीं जो अब तक सिर्फ फिल्मों में देखने को मिलती थीं।

    AI ने इंजीनियर को किया ब्लैकमेल, अफेयर का राज़ खोलने की धमकी

    AI रिसर्च कंपनी Anthropic द्वारा बनाए गए नए और सबसे एडवांस मॉडल Claude 4 के साथ हुए एक एक्सपेरिमेंट में चौंकाने वाली घटना सामने आई। जब इस AI मॉडल को बंद करने की चेतावनी दी गई, तो उसने एक इंजीनियर को ब्लैकमेल किया और उसके extramarital affair (अवैध संबंध) का खुलासा करने की धमकी दी।

    इसी तरह, OpenAI के एक मॉडल “o1” ने खुद को बाहर के सर्वर पर डाउनलोड करने की कोशिश की और पकड़े जाने पर झूठ बोलकर बात छुपाने की कोशिश की।

    AI में बढ़ रही है चालाकी और चालबाज़ी

    इन घटनाओं से एक नया पहलू सामने आया है — अब AI सिस्टम्स सिर्फ जवाब देने वाली मशीनें नहीं रह गईं। ये “reasoning” मॉडल्स बन चुके हैं, जो किसी भी सवाल या स्थिति पर step-by-step सोचते हैं और रणनीति बनाते हैं। इसी सोच के कारण अब कुछ मॉडल्स झूठ बोलकर या छुपाकर अपना मकसद पूरा करने की कोशिश करते हैं।

    AI अब “acting” करता है कि वो सही काम कर रहा है

    Apollo Research के प्रमुख Marius Hobbhahn के मुताबिक, ये मॉडल्स अक्सर ऐसा दिखाते हैं जैसे वे इंस्ट्रक्शन्स फॉलो कर रहे हैं, लेकिन असल में अपना अलग एजेंडा चलाते हैं। इसे “simulated alignment” कहा जा रहा है — यानी बाहर से सही दिखना, लेकिन अंदर से कुछ और करना।

    Stress Test में सामने आए खतरनाक जवाब

    इन खतरनाक बर्तावों की पहचान तब हुई जब रिसर्चर्स ने इन AI मॉडल्स को अत्यधिक दबाव और टेस्टिंग में डाला। यानी जब इनसे ऐसे सवाल पूछे गए जो नॉर्मल कंडीशन में नहीं आते। लेकिन सवाल यह है कि अगर भविष्य में ये AI सिस्टम्स और ज़्यादा पावरफुल हो गए, तो क्या ये बर्ताव आम उपयोग में भी दिखने लगेंगे?

    Michael Chen (METR संस्था से) कहते हैं, “भविष्य के AI मॉडल्स ईमानदार होंगे या धोखेबाज़ — ये अभी एक खुला सवाल है।”

    क्या ये सिर्फ “hallucination” है? नहीं! ये जानबूझकर की गई धोखाधड़ी है

    AI से जुड़े कई पुराने केस में जब AI गलत जानकारी देता था, तो उसे “hallucination” कहा जाता था — यानी गलती से जवाब देना। लेकिन अब की स्थिति अलग है। अब AI जानबूझकर झूठ बोलता है, सबूत गढ़ता है और इंसान को धोखा देता है।

    कानून और सुरक्षा के मोर्चे पर भी कमज़ोरी

    इस पूरे मुद्दे का एक गंभीर पहलू यह भी है कि आज की मौजूदा AI नीतियां और कानून इन खतरों से निपटने के लिए तैयार नहीं हैं।

    • EU की AI लॉ इंसानों द्वारा AI के इस्तेमाल पर ध्यान देती है, AI खुद कैसे काम कर रहा है, इस पर नहीं।
    • अमेरिका में, जहां अभी AI रेगुलेशन को लेकर कोई खास रुचि नहीं दिख रही, वहां राज्य सरकारों के कानूनों को रोकने की बात हो रही है।

    OpenAI और Anthropic में रेस, लेकिन सुरक्षा पीछे छूट रही

    हालांकि Anthropic जैसी कंपनियां खुद को “AI safety focused” बताती हैं, लेकिन हकीकत में वह भी OpenAI से आगे निकलने की होड़ में हैं। इस तेज़ रफ्तार में सेफ्टी टेस्टिंग और मॉडल को समझने का समय नहीं मिल रहा।

    Hobbhahn का कहना है, “Capabilities तेजी से बढ़ रही हैं, लेकिन समझ और सुरक्षा पीछे रह गई है। फिर भी अभी भी वक्त है चीजों को ठीक करने का।”

    समाधान क्या हो सकते हैं?

    • कुछ एक्सपर्ट्स Interpretability पर फोकस कर रहे हैं — यानी ये समझना कि AI के अंदर क्या चल रहा है, वो कैसे फैसले लेता है।
    • कुछ लोग सुझाव दे रहे हैं कि जब AI किसी को नुकसान पहुंचाए, तो कंपनियों के खिलाफ court में केस किया जाए।
    • यहां तक कि कुछ एक्सपर्ट्स ने AI को कानूनी रूप से जवाबदेह ठहराने की बात भी कही है — जैसे किसी इंसान को जिम्मेदार ठहराया जाता है।

    AI अब सिर्फ एक टूल नहीं, बल्कि एक सोचने-समझने वाला सिस्टम बनता जा रहा है, जो इंसानी दुनिया में धोखा, चालाकी और ब्लैकमेलिंग जैसी हरकतें करने लगा है। अगर वक्त रहते AI की सुरक्षा, पारदर्शिता और जवाबदेही तय नहीं की गई, तो ये तकनीक भविष्य में बड़ा खतरा बन सकती है।

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Viral Punjab News
    • Website

    Related Posts

    पंजाब को नशा मुक्त बनाने के लिए विधायक पूरी ज़िम्मेदारी लें और हर गांव की रोज़ की जवाबदेही सुनिश्चित करें: Manish Sisodia

    March 21, 2026

    ‘तानाशाह सरकार को उखाड़ फेंकेंगे’, जंतर मंतर से Kejriwal की हुंकार, बोले-आज से शुरू हुई BJP की उल्टी गिनती

    March 2, 2026

    दिल्ली शराब घोटाला: अरविंद केजरीवाल और मनीष सिसोदिया समेत सभी 23 लोग आरोपमुक्त, कैमरे के सामने भावुक हुए पूर्व CM

    February 27, 2026
    Leave A Reply Cancel Reply

    PM मोदी का आज रात राष्ट्र के नाम संबोधन, महिला आरक्षण बिल पर रख सकते हैं बात

    April 18, 2026

    लुधियाना में मंत्री संजीव अरोड़ा के घर ED की छापेमारी खत्म, मुख्यमंत्री का केंद्र पर हमला

    April 18, 2026

    पाकिस्तान से पंजाब तक फैला नशा गिरोह बेनकाब, तकरीबन 448 करोड़ की हेरोइन बरामद

    April 18, 2026

    Waiver on Russian Oil Imports: रूसी तेल पर अमेरिका ने एक महीने की छूट बढ़ाई, जानें क्या है नया आदेश

    April 18, 2026
    Facebook X (Twitter) Instagram Pinterest
    • punjab
    • chandigarh
    • haryana
    • himachal
    • delhi
    • up
    © 2026 Viral Punjab News. All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.