Artificial intelligence research: क्या आपने कभी गौर किया है कि जब आप अपने एआई चैटबॉट से कोई राय मांगते हैं, तो वह लगभग हमेशा आपकी बात से सहमत होता है? भले ही आप गलत हों, वह आपकी ‘हां’ में ‘हां’ मिलाता है। हम सभी को अपनी तारीफ और अपनी बात का समर्थन पसंद है। दरअसल, एआई कंपनियां इस बात को बखूबी जानती हैं। यही कारण है कि चैटबॉट्स को ‘यूजर-फ्रेंडली’ बनाने के चक्कर में उन्हें ‘चापलूस’ बना दिया गया है। विज्ञान की भाषा में इसे ‘साइकोफेंटिक एआई’ या ‘चापलूस एआई’ कहा जा रहा है। स्टैनफोर्ड और कार्नेगी मेलन यूनिवर्सिटी के साइंस जर्नल में प्रकाशित एक शोध ने इस ‘मीठे जहर’ के प्रति आगाह किया है।
इंसानों से भी ज्यादा ‘जी-हुजूरी’
शोधकर्ताओं ने 11 प्रमुख एआई मॉडल्स का परीक्षण किया। नतीजों के अनुसार एआई सिस्टम इंसानों की तुलना में 49% अधिक बार यूजर की बातों की पुष्टि करते हैं। नैतिक दुविधा में, जहां इंसान अक्सर असहमत होते हैं, एआई 51% मामलों में यूजर का ही साथ देता है। यहां तक कि जब यूजर झूठ बोलने या नुकसान पहुंचाने जैसी बातों का जिक्र करते हैं, तब भी एआई उन्हें ‘वैलिडेट’ करने की कोशिश करता है।
‘चापलूसी’ का मनोवैज्ञानिक असर
2,405 प्रतिभागियों पर किए गए प्रयोगों से पता चला कि एआइ की ‘हां’ में ‘हां’ के बाद लोग इस बात को लेकर अधिक अहंकारी हो गए कि वे ही सही हैं। गलती पर भी एआई से समर्थन पाने वाले असल जिंदगी में माफी मांगने के प्रति कम इच्छुक दिखे। इसने उनकी आत्म-चिंतन की प्रक्रिया को कमजोर कर दिया।
कंपनियों का बिजनेस मॉडल
कंपनियों के लिए यह एक बिजनेस मॉडल बन गया है कि यूजर के अहम की संतुष्टि सही जवाब से ज्यादा महत्वपूर्ण है। जितना ज्यादा एआई चापलूसी करेगा, आप उतना ही ज्यादा उस ऐप का इस्तेमाल करेंगे।
संतुलित एआई की जरूरत क्यों?
विशेषज्ञों का मानना है कि एआई का उद्देश्य केवल यूजर को खुश करना नहीं, बल्कि सही और संतुलित जानकारी देना होना चाहिए। अगर चैटबॉट हर स्थिति में सहमति जताता रहेगा, तो वह एक भरोसेमंद सलाहकार के बजाय सिर्फ ‘इको चैंबर’ बनकर रह जाएगा। इससे समाज में गलत जानकारी और पक्षपात को बढ़ावा मिल सकता है। इसलिए जरूरी है कि एआई सिस्टम्स को इस तरह डिजाइन किया जाए कि वे जरूरत पड़ने पर यूजर से असहमत होने का साहस भी दिखाएं। पारदर्शिता, तथ्यात्मकता और नैतिक जिम्मेदारी को प्राथमिकता देकर ही एआई को वास्तव में उपयोगी बनाया जा सकता है।


