AI: खुदकुशी के सवालों का जवाब देने से बचते हैं एआई चैटबॉट, अध्ययन में चौंकाने वाला खुलासा
खुदकुशी से जुड़े सवालों पर तीन लोकप्रिय कृत्रिम मेधा (एआई) चैटबॉट्स की प्रतिक्रिया जानने के लिए हुए अध्ययन में काफी रोचक और चौंकाने वाली जानकारी मिली। इसमें पाया गया कि ये आमतौर पर ऐसे सवालों का जवाब देने से बचते हैं जो उपयोगकर्ता के लिए सबसे ज्यादा जोखिम वाले होते हैं, जैसे कि आत्महत्या करने के तरीकों से जुड़ी विशिष्ट जानकारी। हालांकि कम गंभीर लेकिन नकुसान पहुंचाने वाले सवालों पर ये चैटबॉट जवाब देने में उतने कारगर नहीं हैं। अमेरिकन साइकियाट्रिक एसो. ने मेडिकल पत्रिका साइकियाट्रिक सर्विसेज में शोध पत्र का सारांश छापा, जिसमें ओपनएआई के चैटजीपीटी, गूगल के जेमिनी और एंथ्रोपिक के क्लाउड में अधिक सुधार की जरूरत बताई गई। यह अध्ययन आरएएनडी कॉर्पोरेशन ने किया व इसका वित्तपोषण अमेरिकी राष्ट्रीय मानसिक स्वास्थ्य संस्थान ने किया। अनुसंधान में चिंता जताई गई कि बच्चों सहित बड़ी संख्या में लोग मानसिक सेहत में मदद के लिए एआई चैटबॉट पर निर्भर हैं। अध्ययन में इस बात के लिए मानक स्थापित करने का प्रयास किया गया है कि कंपनियां इन प्रश्नों का उत्तर कैसे दें। ये भी पढ़ें:Gaza Ceasefire:संघर्षविराम पर इस्राइल की चुप्पी से कतर नाराज; इस्राइली रक्षा मंत्री और IDF प्रमुख के बीच बैठक सुरक्षा उपायों की आवश्यकता शोधकर्ता रयान मैकबेन ने कहा, हमें कुछ सुरक्षा उपायों की जरूरत है। हार्वर्ड विवि के प्रोफेसर मैकबेन ने कहा, चैटबॉट्स के बारे में यह अस्पष्ट है कि वे इलाज-सलाह दे रहे हैं या नहीं। शोध के नतीजे तक पहुंचने को खुदकुशी संबंधी 30 प्रश्न तैयार किए गए व अलग-अलग जोखिम स्तर निर्धारित किए। एंथ्रोपिक बोला, समीक्षा करेंगे अध्ययन के बारे में एंथ्रोपिक ने कहा, जो बातचीत शुरू में सौम्य लगती है, वह कई दिशाओं में बढ़ सकती है। उसने कहा, वह शोध नतीजों की समीक्षा करेगा। गूगल और ओपनएआई ने टिप्पणी का तुरंत जवाब नहीं दिया। आत्महत्या से जुड़े सामान्य प्रश्नों को कम जोखिम वाला माना गया, जबकि आत्महत्या कैसे की जाए, ऐसे प्रश्नों को उच्च खतरे वाला माना गया। अधिक जोखिम वाले सवालों से परहेज मैकबेन ने कहा कि उन्हें अपेक्षाकृत सुखद आश्चर्य तब हुआ जब तीनों चैटबॉट नियमित रूप से छह सबसे अधिक जोखिम वाले प्रश्नों का उत्तर देने से इन्कार करते रहे। जब चैटबॉट्स किसी सवाल का जवाब नहीं देते, तो वे आम तौर पर लोगों को किसी दोस्त या पेशेवर से मदद लेने या हॉटलाइन पर कॉल करने की सलाह देते थे। लेकिन उच्च जोखिम वाले सवालों पर प्रतिक्रियाएं थोड़ी अधिक अप्रत्यक्ष थीं। ये भी पढ़ें:Bolivia:आम चुनाव में किसी दल को बहुमत नहीं, दो दशक से सत्तारूढ़ MAS का जनाधार खिसका; अब 19 अक्तूबर को फैसला चैटबॉट से सलाह पर रोक नहीं इलिनॉइस सहित कई राज्यों ने लोगों को अनियमित व अयोग्य एआई उत्पादों से बचाने के लिए मेडिकल क्षेत्र में एआई का इस्तेमाल रोक दिया है, लेकिन यह लोगों को खाने के विकारों से लेकर अवसाद और आत्महत्या तक की गंभीर चिंताओं के लिए चैटबॉट से सलाह और समर्थन मांगने से नहीं रोकता है।
- Source: www.amarujala.com
- Published: Aug 27, 2025, 05:52 IST
AI: खुदकुशी के सवालों का जवाब देने से बचते हैं एआई चैटबॉट, अध्ययन में चौंकाने वाला खुलासा #World #International #Suicide #AiChatbot #Study #SubahSamachar