अभिनेत्री रश्मिका मंदानाच्या ‘डीपफेक’ व्हिडिओमुळे ‘फेक’ व्हिडिओची ‘रिअल’ सायबर समस्या पुन्हा एकदा चर्चेत आली. पंतप्रधान मोदींनीही नुकतेच याबाबतीत चिंता व्यक्त केली. त्यानिमित्ताने या समस्येचे स्वरुप आणि उपाययोजना यांचा उहापोह करणारा हा लेख...
सोशल मीडियाचा वापर (आपल्याकडेच नाही, तर जगभरच) वाढू लागल्यावर, त्यामध्ये काही समाजविघातक बाबी शिरणे अपरिहार्यच होते. सायबर गुन्हेगार इथेही सक्रिय झालेच. स्वतःची खोटी प्रोफाईल ठेवून नोकरी, विवाह, प्रवास, व्यापार किंवा मैत्रीच्याही निमित्ताने लोकांना जाळ्यात ओढणे आणि पैशांना किंवा वैयक्तिक पातळीवरील इतर गोष्टींमध्ये ठकवणे, हादेखील एक मोठा व्यवसायच बनला, असे म्हणावे लागेल. याचीच पुढील आवृत्ती म्हणजे ’फेक न्यूज.’ याला ’होक्स’ (हेर) असेही नाव आहे. अशा बातम्या कोणत्याही प्रकारच्या असू शकतात. राजकारण आणि अर्थकारणापासून आज पृथ्वीवर सूर्याकडून कॉस्मिक रेज्चा मारा होणार आहे, तरी सावध राहावेपर्यंत काहीही यामध्ये असू शकते.
अशा बातम्यांना ‘मसाला व्हॅल्यू’ उर्फ ’टीआरपी’ जास्त असल्याने सोशल मीडियावर त्या अतिशय झपाट्याने पसरतात. याचीच अजून पुढची पायरी म्हणजे ’फेक व्हिडिओ.’ समाजमाध्यमांमार्फत ‘व्हायरल’ झालेल्या फोटो किंवा व्हिडिओवरून गैरसमज होऊन त्यातून भांडणे, हिंसाचार, न्यायालयीन केसेस आणि अगदी दंगली उद्भवणे आता नवीन राहिलेले नाही. आपण पाहिलेला फोटो किंवा व्हिडिओ अस्सल आहे की, ’मॉर्फिंग’ केलेला म्हणजे संगणकीय साधने वापरून सोयीस्कररित्या कट-पेस्ट केलेला आहे, याची खात्री न करताच, त्याला पाठिंबा किंवा विरोध करण्याच्या हालचाली सुरू केल्या जातात.
पण, सध्या काय सांगितलंय, यापेक्षा ते कोणी सांगितलंय, यालाच महत्त्व आलंय. हा बहुधा मानवी स्वभावच असावा. कारण, ‘फेक’ की ‘रिअल’ याची खात्री करण्याची सुविधा फुकट देणारी अनेक अॅप हाताशी असतानाही आपण तसे न करता घातक व चुकीचे कृत्य करून मोकळे होतो. वर्णनावरून चित्र काढण्याचे जे कौशल्य आपल्यातील काहींमध्ये असते, त्याचाच हा अधिक उच्च पातळीवरचा तांत्रिक आविष्कार आहे. सोशल मीडिया, विविध अॅप्स, ’ओटीटी’ फार काय टीव्ही वरदेखील दाखवले जाणारी दृश्ये किंवा प्रसंग त्यांच्या मूळ रुपात असतीलच, याची कोणतीही खात्री प्रेक्षकांना मिळू शकणार नाही आणि हे घडायला पुढची पाच ते दहा वर्षे पुरेशी आहेत!
पण, येत्या काही दशकांत हा प्रकार वाढत जाण्याचीच शक्यता आहे. कारण, असे व्हिडिओ बनवण्यातला (आर्टिफिशियल इंटेलिजन्स) उर्फ ’कृत्रिम बुद्धिमत्ते’चा सहभाग वेगाने वाढत असल्याने, दाखवली जाणारी बाब खरी की खोटी, हे ओळखणे जवळजवळ अशक्य बनणार आहे. उदा. सोबतचे फोटो पाहा-अमेरिकेचे माजी अध्यक्ष ट्रम्प यांना अटक होताना, फ्रान्सचे अध्यक्ष इमॅन्युअल मॅक्रान अश्रुधुरातून मार्ग काढताना, यात दिसत आहेत. हे प्रसंग पाहिल्याचे किंवा यांबाबत वाचल्याचे आठवत नाही ना? नाहीच आठवणार; कारण असे काही घडलेलेच नाही! हे प्रसंग संगणकावर, ’एआय’ने बनवलेले आहेत. ’एआय’वर आधारित मिडजर्नी (Midjourney) नावाच्या सॉफ्टवेअरने. त्याला पुरवलेल्या मजकुरावरून (टेक्स्ट प्रॉम्प्ट) हे सॉफ्टवेअर प्रतिमा तयार करू शकते आणि त्या प्रतिमा किती हुबेहूब आहेत, हे आपण इथे पाहतच आहोत.
सध्याच चर्चेत असलेल्या आणि अनेक क्षेत्रांत उलथापालथ घडवू शकणार्या ‘चॅट जीपीटी’चे उदाहरण घ्या. ’चॅट जीपीटी’ हे भाषेवर आधारित एक ’एआय’ सॉफ्टवेअर आहे. त्याला भाषा आणि शब्दप्रयोगांतील बारकावे व छुपे अर्थही चांगलेच समजतात. ‘चॅट जीपीटी’सारख्या कृत्रिम बुद्धिमत्तेला तितक्याच दर्जेदार आणि अचूक ऑडिओ-व्हिडिओची जोड मिळल्याने, असे व्हिडिओ किंवा फोटो मूळचेच तसे आहेत की, बनवलेले आहेत, हे सांगणे दिवसेंदिवस अवघड होत जाणार आहे. परिणामी सत्य लपवणे, ते वेगळ्या रुपात दाखवणे किंवा स्वतःला सोयीचा असेल, तेवढाच भाग सांगणेही अगदी सहजशक्य होईल. यासाठी सरकारने व स्वयंसेवी संस्थांनी खरेपणा तपासण्यासाठी काही संकेतस्थळ तयार करणे जरुरीचे आहे. तसेच सायबर कायदे बदलून त्यात फेक न्यूज, व्हिडिओचा प्रसार करणार्या व्यक्तींना व संस्थांना जबर शिक्षा व्हायला हवी. नीतिमत्तेवर आधारित तंत्रज्ञान ही बाब शालेय, महाविद्यालयीन शिक्षणात अंतर्भूत करायची, हीच वेळ आहे.
डॉ. दीपक शिकारपूर
(लेखक उद्योजक व संगणक साक्षरता प्रसारक आहेत.)