AI Misinformation: AI चैटबॉट को समझ रहे हैं Google? यह गलती पड़ सकती है भारी, हो जाइए सावधान

आज के दौर में अगर हमें कुछ भी जानना होता है तो हम सीधे चैटजीपीटी या गूगल जेमिनी जैसे एआई चैटबॉट्स का रुख करते हैं। हमें लगता है कि ये सर्च इंजन की तरह हमें सही जानकारी देंगे, लेकिन क्या आप जानते हैं कि एआई आपको एक 'पढ़े-लिखे मूर्ख' की तरह गलत जानकारी भी दे सकता है हालिया रिपोर्ट्स और इतिहास की एक दिलचस्प घटना हमें चेतावनी दे रही है कि एआई पर आंख मूंदकर भरोसा करना खतरनाक हो सकता है। रूबर्ब की पत्तियों और गलत जानकारी का सबक प्रथम विश्व युद्ध के दौरान, ब्रिटिश सरकार ने लोगों को सलाह दी कि वे खाने की कमी दूर करने के लिए रूबर्ब की पत्तियों को सलाद के रूप में खाएं। समस्या ये थी कि ये पत्तियां जहरीली होती हैं। लोग बीमार पड़े और कुछ की जान भी चली गई। हैरानी की बात यह है कि यही गलती दूसरे विश्व युद्ध में भी दोहराई गई, क्योंकि पुराने रिकॉर्ड्स से गलत जानकारी फिर से बाहर आ गई। यही एआई के साथ भी हो रहा है, एक बार इंटरनेट पर गलत जानकारी फैल गई तो एआई उसे बार-बार सच मानकर परोसता रहता है। एआई और सर्च इंजन में बड़ा फर्क: समझिए इनके काम करने का तरीका अक्सर लोग अनजाने में एआई चैटबॉट्स को पारंपरिक सर्च इंजन की तरह इस्तेमाल करने लगते हैं, जबकि असल में इन दोनों की कार्यप्रणाली में जमीन-आसमान का अंतर है। जहां गूगल जैसे सर्च इंजन का मुख्य काम इंटरनेट पर मौजूद विश्वसनीय लेखों को ढूंढकर आपके सामने पेश करना है, वहीं चैटजीपीटी जैसे जेनेरेटिव एआई असल में जानकारी ढूंढते ही नहीं हैं। एआई दरअसल 'शब्दों के अनुमान' पर काम करता है। इसे करोड़ों वाक्यों पर इस तरह ट्रेन किया गया है कि यह सिर्फ यह देखता है कि एक शब्द के बाद कौन सा अगला शब्द सबसे सटीक लगेगा ताकि पूरा वाक्य पढ़ने में स्वाभाविक लगे। फिर भले ही वह जानकारी पूरी तरह गलत क्यों न हो। यही वजह है कि एक्सपर्ट्स एआई की तुलना एक ऐसे 'अति-आत्मविश्वासी छात्र' से करते हैं, जो परीक्षा में सवाल का जवाब न आने पर भी कॉपी खाली नहीं छोड़ता, बल्कि बड़ी चतुराई और आत्मविश्वास के साथ गलत जवाब लिखकर आ जाता है। जब एआई की गलतियां बन जाती हैं जानलेवा तकनीकी दुनिया में एआई की इन गलतियों को 'Hallucinations' यानी एक तरह का 'डिजिटल भ्रम' कहा जाता है, जो सुनने में भले ही साधारण लगे, लेकिन असल जीवन में इसके नतीजे काफी डरावने हो सकते हैं। उदाहरण के लिए, एक शोध में यह चौंकाने वाला खुलासा हुआ कि चैटजीपीटी आधे से ज्यादा मामलों में गंभीर मेडिकल इमरजेंसी तक को पहचानने में नाकाम रहा। इतना ही नहीं, एक सुपरमार्केट के एआई मील प्लानर ने तो अनजाने में एक ऐसी रेसिपी का सुझाव दे दिया जिससे जानलेवा 'क्लोरीन गैस' बन सकती थी। कई बार तो यह तकनीक बेहद बेतुकी और खतरनाक सलाह भी दे देती है, जैसे कि पिज्जा की टॉपिंग को चिपकाने के लिए गोंद का इस्तेमाल करना या शरीर के लिए पत्थर खाने को फायदेमंद बताना। ये उदाहरण साफ करते हैं कि एआई की दी गई जानकारी पर आंख मूंदकर भरोसा करना किसी बड़े खतरे को दावत देने जैसा हो सकता है। खुद को कैसे सुरक्षित रखें: सावधानी और सही चुनाव आज के दौर में एआई न केवल हमारे निजी कामों, बल्कि सरकारी और प्रशासनिक कामकाज का भी एक अनिवार्य हिस्सा बन चुका है, जिससे उपजी चुनौतियों के प्रति सजग रहना अब बेहद जरूरी है। सुरक्षा का सबसे पहला मंत्र है 'पुरानी और प्रामाणिक जानकारी' पर भरोसा करना। विशेषज्ञों का मानना है कि चैटजीपीटी की लॉन्चिंग यानी 30 नवंबर 2022 से पहले का इंटरनेट डेटा आज के मुकाबले कहीं ज्यादा सटीक है, क्योंकि उस समय का डेटा एआई के जरिए पैदा की गई गलत सूचनाओं से मुक्त था। खासकर जब बात आपकी सेहत, कानूनी पेचीदगियों या सुरक्षा से जुड़ी हो तो एआई के उत्तरों को अंतिम सच मानने के बजाय किसी भरोसेमंद किताब या एक्सपर्ट से क्रॉस-चेक करना ही समझदारी है। आपको यह समझना होगा कि किसी विषय की झटपट 'समरी' पाने के लिए तो एआई एक शानदार टूल है, लेकिन जब बात ठोस तथ्यों की हो तो आज भी गूगल सर्च या आधिकारिक वेबसाइट्स ही सबसे भरोसेमंद विकल्प हैं।

  • Source: www.amarujala.com
  • Published: Mar 24, 2026, 10:26 IST
पूरी ख़बर पढ़ें »




AI Misinformation: AI चैटबॉट को समझ रहे हैं Google? यह गलती पड़ सकती है भारी, हो जाइए सावधान #Automobiles #National #ArtificialIntelligence #Chatgpt #GoogleGemini #SubahSamachar