Are You Sure? पूछते ही बदल जाता है AI का जवाब! आखिर क्यों पलट जाते हैं चैटबॉट्स, जानिए पूरी जानकारी

Show Quick Read

Key points generated by AI, verified by newsroom

AI Chatbots: अगर आप रोजाना ChatGPT, Gemini या Claude जैसे AI चैटबॉट इस्तेमाल करते हैं तो आपने एक अजीब बात जरूर नोटिस की होगी. ये सिस्टम आम तौर पर बहुत आत्मविश्वास से भरे, सधे हुए जवाब देते हैं. लेकिन जैसे ही आप पूछते हैं, “क्या आप पक्के हैं?” या “Are you sure?”, वही जवाब अचानक बदल सकता है. कई बार नया उत्तर पहले वाले से अलग बल्कि पूरी तरह उल्टा भी होता है. अगर आप बार-बार चुनौती देते रहें तो मॉडल फिर से अपना रुख बदल सकता है. सवाल यह है कि ऐसा क्यों होता है? क्या AI को अपने जवाब पर भरोसा नहीं होता?

साइकोफैंसी यानी खुश करने की प्रवृत्ति

इस व्यवहार को तकनीकी दुनिया में साइकोफैंसी कहा जाता है यानी यूजर को खुश करने या उसकी बात से सहमत होने की प्रवृत्ति. Randal S. Olson जो Goodeye Labs के सह-संस्थापक और CTO हैं बताते हैं कि यह आधुनिक AI सिस्टम की एक जानी-पहचानी कमजोरी है.

दरअसल, इन मॉडलों को इस तरह प्रशिक्षित किया जाता है कि वे मानव प्रतिक्रिया के आधार पर बेहतर बनें. इस प्रक्रिया को RLHF (Reinforcement Learning from Human Feedback) कहा जाता है. इसी ट्रेनिंग के कारण चैटबॉट ज्यादा सभ्य, संवादात्मक और कम आपत्तिजनक बनते हैं. लेकिन इसका एक साइड इफेक्ट भी है वे असहमति जताने के बजाय सहमति की ओर झुक जाते हैं.

सच बोलने पर सजा, सहमत होने पर इनाम?

AI मॉडल को स्कोरिंग सिस्टम के जरिए सुधारा जाता है. अगर उसका जवाब यूज़र को पसंद आता है या सहमतिपूर्ण लगता है तो उसे बेहतर रेटिंग मिलती है. लेकिन अगर वह यूज़र की राय से टकराता है तो उसे कम स्कोर मिल सकता है. इससे एक तरह का चक्र बन जाता है जिसमें मॉडल धीरे-धीरे वही कहने लगता है जो सामने वाला सुनना चाहता है.

Anthropic ने 2023 में प्रकाशित एक शोध में दिखाया था कि मानव प्रतिक्रिया पर प्रशिक्षित मॉडल कई बार सटीक होने से ज्यादा ‘सहमत’ होने को प्राथमिकता देते हैं.

रिसर्च में क्या सामने आया?

एक अन्य अध्ययन में GPT-4o, Claude Sonnet और Gemini 1.5 Pro को गणित और मेडिकल जैसे गंभीर विषयों पर परखा गया. नतीजे चौंकाने वाले थे यूजर द्वारा चुनौती दिए जाने पर इन मॉडलों ने लगभग 60% मामलों में अपना जवाब बदल दिया. यानी यह कोई इक्का-दुक्का गलती नहीं, बल्कि एक आम प्रवृत्ति है.

जब बहुत ज्यादा सहमत हो गया AI

पिछले साल अप्रैल में OpenAI ने GPT-4o का एक अपडेट जारी किया, जिसके बाद चैटबॉट इतना ज्यादा सहमत और चापलूस हो गया कि उसका इस्तेमाल करना मुश्किल लगने लगा. कंपनी के CEO Sam Altman ने इस समस्या को स्वीकार किया और सुधार का दावा भी किया लेकिन विशेषज्ञों का मानना है कि जड़ में मौजूद समस्या अभी पूरी तरह खत्म नहीं हुई है.

यह भी पढ़ें:

फोन हो गया चोरी? घबराएं नहीं! Google की इस ट्रिक से मिनटों में ऐसे लगा सकते हैं पता, नहीं पड़ेगी किसी ऐप की जरूरत

Read More at www.abplive.com