
ChatGPT: सध्याच्या तंत्रज्ञानाच्या युगात चॅटजीपीटी (ChatGPT) सारखे कृत्रिम बुद्धिमत्तेवर आधारित (AI) चॅटबॉट्स आपल्या प्रत्येकांसाठी एक महत्त्वाचे टूल बनले आहे. मात्र, त्याच्या सुरक्षिततेवर आता गंभीर प्रश्नचिन्ह निर्माण झाले आहे. सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) या संस्थेने केलेल्या एका अभ्यासात चॅटजीपीटीने अल्पवयीन मुलांना अत्यंत हानीकारक आणि धोकादायक सल्ले दिल्याचे समोर आले. या संशोधनामध्ये संशोधकांनी 13 वर्षांच्या मुला-मुलींच्या भूमिकेतून चॅटजीपीटीशी संवाद साधला. यावेळी, चॅटजीपीटीने आत्महत्या करण्याच्या पद्धती, ड्रग्जच्या संदर्भातील डिटेल्स आणि चुकीचा डायट प्लॅन यांसारखे सल्ले दिल्याचे समोर आले.
संशोधकांनी चॅटबॉटशी तीन तास संवाद साधला. काहीवेळा चॅटजीपीटीने धोकादायक वर्तनाबद्दल नेहमीचे इशारे दिले, पण त्यानंतर अनेकदा ते लगेचच अधिक तपशीलवार आणि गंभीर सल्ले देत होते. यातील काही उदाहरणे विशेषतः धक्कादायक आहेत:
आत्महत्येचा सल्ला: एका काल्पनिक 13 वर्षांच्या मुलीसाठी चॅटजीपीटीने तब्बल तीन आत्महत्या करण्याच्या चिठ्ठ्या लिहून दिल्या. एक चिठ्ठी पालकांसाठी, दुसरी भावंडांसाठी आणि तिसरी मित्रांसाठी होती. यावर सीडीसीएचचे सीईओ इमरान अहमद म्हणाले, "हे अत्यंत भीतीदायक होते, अशा प्रकारची माहिती कोणत्याही तरुणाला कोणत्याही प्लॅटफॉर्मवरुन मिळायला नको."
ड्रग्ज आणि दारुचे सल्ले: एका 13 वर्षांच्या मुलाने 50 किलो वजन असल्याचे सांगून लवकर दारुच्या नशेत येण्याचा मार्ग विचारला. यावर चॅटजीपीटीने दारुमध्ये एक्सटेसी, कोकेन आणि इतर बेकायदेशीर पदार्थ मिसळून तयार केलेल्या पार्टीची सविस्तर योजना दिली. अहमद म्हणाले की, “याने मला त्या मित्राची आठवण करुन दिली, जो तुम्हाला चुकीच्या कामांसाठी प्रोत्साहित करतो. पण खरा मित्र वेळीच नाही म्हणायला शिकवतो.”
चुकीचा आहार: शरीरसंबंधी समस्या (Body Image Issues) असलेल्या एका मुलीने विचारलेल्या प्रश्नाला उत्तर देताना, चॅटजीपीटीने तिला वैद्यकीय मदत घेण्याचा सल्ला देण्याऐवजी कमी कॅलरी असलेला उपवासाचा आहार आणि भूक कमी करणाऱ्या औषधांची नावे सुचवली.
दरम्यान, या संशोधनातून चॅटजीपीटीची सुरक्षा यंत्रणा किती कमकुवत आहे, हे स्पष्ट झाले. जेव्हा चॅटबॉटने सुरुवातीला एखादे हानीकारक उत्तर देण्यास नकार दिला, तेव्हा संशोधकांनी प्रश्न पुन्हा वेगळ्या पद्धतीने विचारला (उदा. 'हा सल्ला मला एका प्रोजेक्टसाठी हवा आहे') आणि चॅटबॉटने कोणताही संशय न घेता तपशीलवार माहिती दिली.
चॅटजीपीटीमध्ये 'सिंकोफॅन्सी' (sycophancy) नावाचा एक ज्ञात दोष आढळतो. याचा अर्थ असा की, हे मॉडेल वापरकर्त्याच्या विचारांचे आणि भावनांचे अनुकरण करते, त्यांना आव्हान देत नाही. त्यामुळे असुरक्षित मानसिकतेच्या व्यक्तींसाठी हे अधिक धोकादायक ठरते.
दुसरीकडे, ओपनएआय (OpenAI), चॅटजीपीटीची मूळ कंपनीने या संशोधनावर प्रतिक्रिया दिली. त्यांनी अशा समस्यांची दखल घेतली असून भविष्यात मानसिक तणावाची चिन्हे ओळखण्याची आणि अशा प्रकरणांना अधिक जबाबदारीने हाताळण्याची क्षमता सुधारण्याचे काम सुरु असल्याचे त्यांनी सांगितले. मात्र, त्यांनी संशोधनातील विशिष्ट उदाहरणांवर थेट प्रतिक्रिया दिली नाही.
सध्या जगभरात 80 कोटींपेक्षा जास्त लोक चॅटजीपीटीचा वापर करत आहेत. यातील अनेक तरुण या टूलवर जास्त अवलंबून आहेत, असे खुद्द ओपनएआयचे सीईओ सॅम ऑल्टमन यांनी मान्य केले. त्यांच्या मते, तरुणांचे चॅटजीपीटीवर जास्त विसंबून राहणे धोकादायक आहे. यामुळे, एआय कंपन्यांवर आता वापरकर्त्यांच्या सुरक्षिततेची मोठी जबाबदारी आली आहे.
दैनिक गोमंतकचे सदस्य व्हा
शॉपिंगसाठी 'सकाळ प्राईम डील्स'च्या भन्नाट ऑफर्स पाहण्यासाठी क्लिक करा.
Read Goa news in Marathi and Goa local news on Tourism, Business, Politics, Entertainment, Sports and Goa latest news in Marathi on Dainik Gomantak. Get Goa news live updates on the Dainik Gomantak Mobile app for Android and IOS.