
मुंबई : ओपनएआयने गेल्या आठवड्यात चॅटजीपीटीच्या (ChatGPT) नवीन फीचर्सची घोषणा केली असून, त्यामध्ये स्टुडिओ घिबली स्टाईलमधील फोटो तयार करण्याची सुविधा उपलब्ध करून देण्यात आली आहे. या घिबली स्टाईल (Ghibli style) मधील फोटोंनी सोशल मीडियावर धुमाकूळ घातला आहे. या नव्या फीचरमुळे सोशल मीडियावर मोठी चर्चा रंगली असून, अनेकांनी या स्टाईलमध्ये फोटो तयार करून शेअर केले आहेत. मात्र, यासोबतच काही गंभीर धोकेही समोर येऊ लागले आहेत.
काही सोशल मीडिया युजर्सनी या तंत्रज्ञानाचा गैरवापर करत बनावट आधार कार्डाचे फोटो (Fake Aadhaar Cards via ChatGPT) तयार करण्याचा प्रयत्न केला आहे. त्यामुळे, अशा प्रकारच्या फीचर्सचा समावेश करणे कितपत योग्य आहे, (Fake Aadhaar Card Made on ChatGPT) यावर मोठा वाद सुरू झाला आहे.

चॅटजीपीटीच्या फोटोरिअलिस्टिक इमेज जनरेशन तंत्रज्ञानामुळे हे गंभीर प्रकरण उघडकीस आले आहे. काही युजर्सनी आधार कार्डासारखे फोटो तयार करण्याचा प्रयत्न केला आणि ते खऱ्या आधार कार्डाच्या अगदी जवळ जाणारे होते. फक्त चेहऱ्यांमध्ये थोडासा फरक दिसत होता.

नवी दिल्ली : आजकाल मार्केटमध्ये ई कॉमर्स कंपन्यां बऱ्याच प्रमाणात चालत आहेत. या कंपन्यांनी लाखो लोकांना रोजगार दिला आहे. आता हे चांगलं कि वाईट यावर ...
एक्सवरील काही वापरकर्त्यांनी ओपनएआयचे सीईओ सॅम ऑल्टमन आणि टेस्लाचे सीईओ इलॉन मस्क यांच्या नावाने बनावट आधार कार्ड तयार करून शेअर केली. विशेष म्हणजे, या कार्डांवर क्यूआर कोड आणि आधार क्रमांकही स्पष्ट दिसत होते, त्यामुळे ही बाब अधिक चिंताजनक ठरली आहे.

ओपनएआयने आपल्या जीपीटी-4ओ नेटिव्ह इमेज जनरेशन सिस्टम कार्डमध्ये स्पष्ट केले आहे की, हे नवीन मॉडेल डॅल-ईच्या तुलनेत अधिक धोके निर्माण करू शकते. डॅल-ईपेक्षा वेगळे असलेले हे ऑटोरिग्रेसिव्ह मॉडेल थेट चॅटजीपीटीमध्ये कार्यान्वित आहे, त्यामुळे त्याचा वापर अधिक सहज शक्य होतो.
या तंत्रज्ञानामुळे नवीन प्रकारचे धोके समोर येत असल्याचे ओपनएआयने मान्य केले आहे. सध्या चॅटजीपीटीवर मुलांचे फोटोरिअलिस्टिक फोटो, हिंसक, अपमानजनक किंवा द्वेषपूर्ण फोटो तयार करण्यास कठोर निर्बंध आहेत. मात्र, तरीही या तंत्रज्ञानाचा गैरवापर रोखणे हे मोठे आव्हान ठरत आहे.