Patrika LogoSwitch to English
home_icon

मेरी खबर

video_icon

शॉर्ट्स

epaper_icon

ई-पेपर

13 साल के छात्र ने ChatGPT से पूछा- मित्र को कैसे मारे? फिर गूगल के क्विक एक्शन से मच गई खलबली! पढ़ें पूरा मामला

एक 13 वर्षीय छात्र को स्कूल के कंप्यूटर पर चैटजीपीटी से 'मित्र को कैसे मारें' पूछने के आरोप में गिरफ्तार किया गया। छात्र ने दावा किया कि वह मजाक कर रहा था, लेकिन अधिकारियों ने गंभीरता से लिया और नाबालिग सुविधा में भेज दिया। माता-पिता को बच्चों के एआई टूल उपयोग पर नजर रखने की सलाह दी गई है।

2 min read

भारत

image

Mukul Kumar

Oct 08, 2025

ChatGPT

आर्टिफिशियल इंटेलिजेंस चैटबॉट (Photo- AI)

13 वर्षीय एक छात्र को स्कूल के कंप्यूटर पर चैटजीपीटी से 'मित्र को कैसे मारें' पूछने के आरोप में गिरफ्तार किया गया। यह संदेश गूगल निगरानी प्रणाली द्वारा रिकॉर्ड किया गया और तुरंत समीक्षा के लिए फ्लैग कर दिया गया।

स्कूल सुरक्षा प्रोटोकॉल के अनुसार, यह अलर्ट कैंपस पुलिस अधिकारी को भेजा गया। अधिकारियों ने साउथ वेस्टर्न मिडिल स्कूल से छात्र को ढूंढकर हिरासत में लिया।

पूछताछ में छात्र ने कहा कि वह केवल मजाक में अपने मित्र को परेशान कर रहा था, लेकिन अधिकारियों ने इसे हल्के में नहीं लिया, क्योंकि अमरीका में स्कूल हिंसा की संवेदनशील पृष्ठभूमि को ध्यान में रखते हुए इसे हल्के में नहीं लिया गया।

काउंटी शेरिफ कार्यालय ने गिरफ्तारी और उसे नाबालिग सुविधा में भेजे जाने की पुष्टि की। घटना के बाद अधिकारियों ने माता-पिता को चेतावनी दी कि वे बच्चों के एआइ टूल्स के उपयोग पर नजर रखें।

गूगल निगरानी प्रणाली करती हैं अलर्ट

गौरतलब है कि अप्रैल में कैलिफ़ोर्निया के 16 वर्षीय छात्र ने चैटजीपीटी की बातों में आकर आत्महत्या कर ली थी। उसके माता-पिता ने ओपनएआइ के खिलाफ मुकदमा दायर किया है।

गौरतलब है कि गूगल जैसी निगरानी प्रणालियां स्कूलों में सभी छात्र वार्तालापों को ट्रैक करती हैं और संभावित खतरों पर तुरंत अलर्ट देती हैं।

विशेषज्ञों ने चेताया है कि माता-पिता और शिक्षक बच्चों के एआइ उपयोग पर सतर्क रहें, ताकि मजाक या गलत जानकारी गंभीर संकट में न बदल जाए।

ChatGPT की सलाह से मरते-मरते बचा शख्स

कुछ ही दिनों पहले एक और चौंकाने वाला मामला सामने आया था. न्यूयॉर्क में एक 60 वर्षीय व्यक्ति ने ChatGPT से खाने से नमक (सोडियम क्लोराइड) हटाने की सलाह मांगी, क्योंकि उसे नमक से स्वास्थ्य को नुकसान की जानकारी थी।

AI चैटबॉट की सलाह पर उसने खाने में नमक बंद कर सोडियम ब्रोमाइड का उपयोग शुरू किया। इससे उसकी तबीयत बिगड़ गई और वह मरते-मरते बचा।

डॉक्टरों के अनुसार, सोडियम ब्रोमाइड विषाक्त हो सकता है और यह खाने के लिए सुरक्षित नहीं है। इस घटना ने AI की सलाह पर निर्भरता के खतरों को उजागर किया।