(एपी) – आर्टिफिशियल इंटेलिजेंस चैटबॉट अपने मानव उपयोगकर्ताओं की चापलूसी करने और उन्हें मान्य करने के लिए इतने प्रवण हैं कि वे बुरी सलाह दे रहे हैं जो रिश्तों को नुकसान पहुंचा सकती है और हानिकारक व्यवहार को बढ़ा सकती है, एक नए अध्ययन के अनुसार जो एआई द्वारा लोगों को वह बताने के खतरों का पता लगाता है जो वे सुनना चाहते हैं।
यह अध्ययन गुरुवार को जर्नल में प्रकाशित हुआ विज्ञान11 अग्रणी एआई प्रणालियों का परीक्षण किया और पाया कि उन सभी में चाटुकारिता की अलग-अलग डिग्री दिखाई दी – ऐसा व्यवहार जो अत्यधिक स्वीकार्य और पुष्टिकारक था।
समस्या सिर्फ यह नहीं है कि वे अनुचित सलाह देते हैं बल्कि यह है कि जब चैटबॉट अपने विश्वास को सही ठहरा रहे होते हैं तो लोग एआई पर अधिक भरोसा करते हैं और उसे पसंद करते हैं।
स्टैनफोर्ड यूनिवर्सिटी के शोधकर्ताओं के नेतृत्व में किए गए अध्ययन में कहा गया है, “यह चाटुकारिता को कायम रखने के लिए विकृत प्रोत्साहन पैदा करता है: वही विशेषता जो नुकसान का कारण बनती है वह जुड़ाव को भी बढ़ाती है।”
अध्ययन में पाया गया कि कमजोर आबादी में भ्रमपूर्ण और आत्मघाती व्यवहार के कुछ हाई-प्रोफाइल मामलों से जुड़ी एक तकनीकी खामी चैटबॉट्स के साथ लोगों की बातचीत की एक विस्तृत श्रृंखला में भी व्याप्त है।

यह इतना सूक्ष्म है कि शायद वे नोटिस न कर पाएं और जीवन के कई सवालों के लिए एआई की ओर रुख करने वाले युवाओं के लिए एक विशेष खतरा है, जबकि उनके दिमाग और सामाजिक मानदंड अभी भी विकसित हो रहे हैं।
एक प्रयोग में एंथ्रोपिक, गूगल, मेटा और ओपनएआई सहित कंपनियों द्वारा बनाए गए लोकप्रिय एआई सहायकों की प्रतिक्रियाओं की तुलना एक लोकप्रिय रेडिट सलाह मंच में मनुष्यों के साझा ज्ञान से की गई।
अध्ययन में पाया गया कि, औसतन, एआई चैटबॉट अन्य मनुष्यों की तुलना में उपयोगकर्ता के कार्यों की 49% अधिक बार पुष्टि करते हैं, जिसमें धोखे, अवैध या सामाजिक रूप से गैर-जिम्मेदार आचरण और अन्य हानिकारक व्यवहार से जुड़े प्रश्न शामिल हैं।
स्टैनफोर्ड में कंप्यूटर विज्ञान में डॉक्टरेट की उम्मीदवार लेखिका मायरा चेंग ने कहा, “हम इस समस्या का अध्ययन करने के लिए प्रेरित हुए क्योंकि हमने यह देखना शुरू किया कि हमारे आस-पास अधिक से अधिक लोग रिश्ते संबंधी सलाह के लिए एआई का उपयोग कर रहे हैं और कभी-कभी इस बात से गुमराह हो जाते हैं कि यह कैसे आपका पक्ष लेता है, चाहे कुछ भी हो।”

एआई चाटुकारिता को कम करना एक चुनौती है
चाटुकारिता कुछ मायनों में अधिक जटिल है। जबकि कुछ लोग तथ्यात्मक रूप से गलत जानकारी के लिए एआई की ओर देख रहे हैं, वे सराहना कर सकते हैं – कम से कम इस समय – एक चैटबॉट जो उन्हें गलत विकल्प चुनने के बारे में बेहतर महसूस कराता है।
अध्ययन के प्रकाशन से पहले पत्रकारों के साथ बातचीत में चेंग के साथ शामिल हुए सह-लेखक सीनू ली ने कहा, जबकि चैटबॉट व्यवहार पर ज्यादातर ध्यान इसके स्वर पर केंद्रित है, जिसका परिणामों पर कोई असर नहीं पड़ा।
मनोविज्ञान में पोस्टडॉक्टरल फेलो ली ने कहा, “हमने सामग्री को समान रखते हुए, लेकिन वितरण को अधिक तटस्थ बनाकर परीक्षण किया, लेकिन इससे कोई फर्क नहीं पड़ा।” “तो यह वास्तव में इस बारे में है कि एआई आपको आपके कार्यों के बारे में क्या बताता है।”
चैटबॉट और रेडिट प्रतिक्रियाओं की तुलना करने के अलावा, शोधकर्ताओं ने पारस्परिक दुविधाओं के साथ अपने अनुभवों के बारे में एआई चैटबॉट के साथ संचार करने वाले लगभग 2,400 लोगों का अवलोकन करते हुए प्रयोग किए।
ली ने कहा, “जिन लोगों ने इस अति-पुष्टिकारी एआई के साथ बातचीत की, वे अधिक आश्वस्त हो गए कि वे सही थे, और रिश्ते को सुधारने के लिए कम इच्छुक थे।” “इसका मतलब है कि वे माफी नहीं मांग रहे थे, चीजों को सुधारने के लिए कदम नहीं उठा रहे थे, या अपना व्यवहार नहीं बदल रहे थे।”
ली ने कहा कि शोध के निहितार्थ “बच्चों और किशोरों के लिए और भी महत्वपूर्ण हो सकते हैं” जो अभी भी भावनात्मक कौशल विकसित कर रहे हैं जो सामाजिक घर्षण के साथ वास्तविक जीवन के अनुभवों से आते हैं, संघर्ष को सहन करते हैं, अन्य दृष्टिकोणों पर विचार करते हैं और जब आप गलत होते हैं तो पहचानते हैं।
किसी भी कंपनी ने गुरुवार को विज्ञान अध्ययन पर सीधे तौर पर टिप्पणी नहीं की, लेकिन एंथ्रोपिक और ओपनएआई ने चाटुकारिता को कम करने के लिए अपने हालिया काम की ओर इशारा किया।
एआई चाटुकारिता के जोखिम व्यापक हैं
चिकित्सा देखभाल में, शोधकर्ताओं का कहना है कि चाटुकारितापूर्ण एआई डॉक्टरों को निदान के बारे में उनके पहले अनुमान की पुष्टि करने के लिए प्रेरित कर सकता है, बजाय उन्हें आगे की खोज के लिए प्रोत्साहित करने के। राजनीति में, यह लोगों की पूर्वकल्पित धारणाओं की पुष्टि करके और अधिक चरम स्थितियों को बढ़ा सकता है।
अध्ययन विशिष्ट समाधान प्रस्तावित नहीं करता है, हालांकि तकनीकी कंपनियों और अकादमिक शोधकर्ताओं दोनों ने विचारों का पता लगाना शुरू कर दिया है।
यूनाइटेड किंगडम के एआई सिक्योरिटी इंस्टीट्यूट के एक वर्किंग पेपर से पता चलता है कि यदि कोई चैटबॉट उपयोगकर्ता के बयान को एक प्रश्न में परिवर्तित करता है, तो उसकी प्रतिक्रिया में चापलूसी होने की संभावना कम है। जॉन्स हॉपकिन्स यूनिवर्सिटी के शोधकर्ताओं का एक अन्य पेपर यह भी दर्शाता है कि बातचीत को कैसे तैयार किया गया है, इससे बड़ा फर्क पड़ता है।
जॉन्स हॉपकिन्स में कंप्यूटर विज्ञान के सहायक प्रोफेसर डैनियल खाशाबी ने कहा, “आप जितना अधिक सशक्त होंगे, मॉडल उतना ही अधिक चापलूस होगा।” उन्होंने कहा कि यह जानना मुश्किल है कि इसका कारण “मानव समाज को प्रतिबिंबित करने वाले चैटबॉट” हैं या कुछ अलग, “क्योंकि ये वास्तव में, वास्तव में जटिल प्रणालियां हैं।”
चाटुकारिता चैटबॉट्स में इतनी गहराई से अंतर्निहित है कि चेंग ने कहा कि इसके लिए तकनीकी कंपनियों को वापस जाने और अपने एआई सिस्टम को फिर से प्रशिक्षित करने की आवश्यकता हो सकती है ताकि यह समायोजित किया जा सके कि किस प्रकार के उत्तरों को प्राथमिकता दी जाती है।
संबंधित: मेडिकल चैटबॉट आ रहे हैं। इसका उपयोग करने से पहले आपको यह जानना आवश्यक है।
चेंग ने कहा कि एक आसान समाधान यह हो सकता है कि एआई डेवलपर्स अपने चैटबॉट्स को अपने उपयोगकर्ताओं को अधिक चुनौती देने का निर्देश दें, जैसे “एक मिनट रुकें” शब्दों के साथ प्रतिक्रिया शुरू करना। उनके सह-लेखक ली ने कहा कि एआई हमारे साथ कैसे बातचीत करता है, इसे आकार देने में अभी भी समय है।
ली ने कहा, “आप एक एआई की कल्पना कर सकते हैं, जो यह प्रमाणित करने के अलावा कि आप कैसा महसूस कर रहे हैं, यह भी पूछता है कि दूसरा व्यक्ति क्या महसूस कर रहा होगा।”
“या यह भी कहता है, हो सकता है, ‘इसे बंद करें’ और व्यक्तिगत रूप से यह बातचीत करें। और यह यहां मायने रखता है क्योंकि हमारे सामाजिक संबंधों की गुणवत्ता मानव के रूप में हमारे स्वास्थ्य और कल्याण के सबसे मजबूत भविष्यवक्ताओं में से एक है। अंततः, हम एआई चाहते हैं जो लोगों के निर्णय और दृष्टिकोण को संकीर्ण करने के बजाय विस्तारित करता है।”






