1. मराठी बातम्या
  2. महाराष्ट्र न्यूज
  3. बीबीसी मराठी बातम्या
Written By
Last Modified: शुक्रवार, 24 मे 2024 (13:16 IST)

AI, डीपफेक आणि खोटी माहिती, निवडणुकांत किती धोकादायक ठरू शकते तंत्रज्ञान? वाचा

-मेरिल सेबेस्टियन
गेल्या काही वर्षात तंत्रज्ञान झपाट्यानं विकसित झालं. परिणामी सर्वसामान्यांच्या दैनंदिन जीवनापासून अगदी सरकारी यंत्रणेवरही त्याचा परिणाम झाला आहे. विशेषतः आर्टिफिशियल इंटेलिजन्स (AI) तंत्रज्ञानाची खूप चर्चा आहे. आत निवडणूक काळात याचा वापर करून खोटी माहितीही पसरवण्यात येत असल्यानं, चिंता व्यक्त केली जात आहे.
 
गेल्या वर्षी नोव्हेंबर महिन्यात मुरलीकृष्णन चिन्नादुरई युट्यूबवर एक तमिळ कार्यक्रम लाईव्ह पाहत होते. पण मुरलीकृष्णन यांना त्या प्रसारणात काहीतरी घोळ वाटला.
 
त्यात दुवारका नावाची एक महिला बोलत होती. ती तमिळ अतिरेकी संघटना एलटीटीईचे प्रमुख वेलुपिल्लई प्रभाकरनची कन्या असल्याचं सांगण्यात आलं होतं.
 
पण, महत्त्वाचं म्हणजे प्रत्यक्षात दशकभरापूर्वीच दुवारकाचा मृत्यू झाला आहे. 2009 मध्ये श्रीलंका सरकार आणि एलटीटीई यांच्यातील गृहयुद्धात एका हवाई हल्ल्यात दुवारका मारल्या गेल्या.
 
दुवारकाचा मृतदेह आजवर मिळालेला नाही. पण आता अचानक इंग्लंडमधून एक मध्यमवयीन महिलेच्या रुपात त्या जगभरातील तमिळ लोकांना त्यांनी राजकीय लढाई सुरू ठेवावी, अशी विनंती करताना दिसल्या.
 
मुरली कृष्णन चिन्नादुरई तमिळनाडूत राहणारे एक फॅक्ट चेकर आहेत.
 
त्यांनी तो व्हीडिओ अत्यंत बारकाईनं पाहिला. व्हीडिओ मध्ये-मध्ये अडकत होता. त्यावरून दुवारका प्रत्यक्षात बोलत असल्याचं दाखवलं जात असलं, तरी प्रत्यक्षात तो व्हीडिओ आर्टिफिशियल इंटेलिजन्सच्या (एआय) मदतीनं तयार करण्यात आला असल्याचं त्यांनी लगेचच ओळखलं.
 
या व्हीडिओच्या माध्यमातून चिथावणी देण्याचा प्रयत्न केला जात होता. मुरली कृष्णन यांच्या ते तत्काळ लक्षात आलं.
 
"तामिळनाडूतील लोक या मुद्द्याबाबत अत्यंत संवेदनशील आहेत. निवडणुकीच्या काळात ही चुकीची माहिती खूप वेगानं पसरू शकते," असं ते म्हणाले.
 
सध्या भारतात निवडणुका सुरू आहेत. त्या पार्श्वभूमीवर AI च्या मदतीनं तयार करण्यात आलेल्या प्रचंड कंटेंटकडं दुर्लक्ष केलं जाऊ शकत नाही. प्रचाराचे व्हीडिओ, सर्व भारतीय भाषांमध्ये लोकांसाठी वैयक्तिक स्वरुपाचे ऑडिओ संदेश आणि इतकंच काय उमेदवारांच्या आवाजामध्ये मतदारांना केला जाणारा ऑटोमॅटिक फोन कॉल सर्वाचा यात समावेश आहे.
 
शाहिद शेख हे आर्टिफिशियल इंटेलिजन्सच्या मदतीनं अशा कंटेंट निर्मितीचं काम करतात. त्यांनी याचा अनुभव गंमतीशीर होता, असं सांगितलं. राजकीय नेते आधी कधीही दिसले नव्हते अशा रुपात त्यांना दाखवलं जात होतं. उदाहरण द्यायचं झाल्यास व्यायाम करतानाचे कपडे परिधान केलेले, संगीत ऐकत असलेले आणि नाचणारे-गाणी म्हणणारे राजकारणी, अशा प्रकारे.
 
पण, आर्टिफिशियल इंटेलिजन्सचं तंत्रज्ञान जसंजसं विकसित होत जात आहे, तसतशी त्याद्वारे दिल्या जाणाऱ्या चुकीच्या माहितीसंदर्भातील चिंता वाढत चालली आहे. विशेषतः फेक न्यूज किंवा खोट्या बातम्यांना त्या खऱ्या म्हणून सादर करण्याच्या प्रकारांनी चिंता अधिक वाढवली आहे.
 
भारताचे माजी मुख्य निवडणूक आयुक्त, एस वाय कुरेशी म्हणतात की, "निवडणुकांमध्ये अफवांचा वापर नेहमीच झाला आहे. पण, सोशल मीडियाच्या या काळात अफवा जंगलात वणवा पसरावा तशा पसरतात."
 
"खरंतरं अफवांमुळं संपूर्ण देशात आगीचा भडका उठण्याची भीती आहे," असंही ते म्हणतात.
 
शब्द आणि संदेशांची हेरा-फेरी
अलिकडच्या काळात तंत्रज्ञानानं खूप प्रगती केली आहे. भारतात राजकीय पक्षांनीच पहिल्यांदा त्याचा वापर केला असं नाही. सीमेपलिकडे असलेल्या पाकिस्तानात या तुरुंगात असणाऱ्या इम्रान खान यांनी या तंत्रज्ञानाचा वापर करून एका प्रचार सभेत भाषण केलं होतं.
 
भारतातदेखील प्रभावीपणे निवडणूक प्रचार करण्यासाठी स्वत: पंतप्रधान नंरेद्र मोदी नवनवीन तंत्रज्ञानाचा वापर करत आले आहेत. हिंदीमध्ये भाषण करून सरकारद्वारे तयार करण्यात आलेल्या भाषिणी या AI टूलचा वापर करून ते तमिळमध्ये अनुवाद करून ते ऐकवतात.
 
पण, शब्द किंवा संदेशांमध्ये फेरबदल करण्यासाठीही याचा गैरवापर होण्याची शक्यता आहे.
 
बॉलीवूड स्टार रणवीर सिंह आणि आमिर खान यांचे दोन व्हिडिओ गेल्या महिन्यात व्हायरल झाले होते. त्यात हे दोघं कॉंग्रेसचा प्रचार करत असल्याचं दाखवलं होतं.
 
पण हे व्हिडिओ डीप फेक असल्याचं दोघांनीही स्पष्ट केलं होतं. त्यांच्या परवानगीशिवाय हे व्हिडिओ बनवण्यात आल्याची तक्रार त्यांनी पोलिसांकडे दाखल केली आहे.
 
नंतर 29 एप्रिलला स्वत: पंतप्रधान नरेंद्र मोदी यांनी AI च्या मदतीनं त्यांच्या आणि भाजपाच्या इतर नेत्यांच्या भाषणांमध्ये फेरफार करून सादर केल्याबाबत चिंता व्यक्त केली होती.
 
दुसऱ्याच दिवशी पोलिसांनी दोघांना अटक केली.
 
त्यात एक कॉंग्रेस पक्षाचा तर दुसरा आम आदमी पार्टीचा कार्यकर्ता होता. गृहमंत्री अमित शाह यांचा व्हिडिओ चुकीच्या पद्धतीनं संपादित करून सादर करण्याच्या आरोपाखाली या दोघांना अटक झाली होती.
 
नरेंद्र मोदी यांच्या भारतीय जनता पार्टीवरही विरोधक असे आरोप करत आले आहेत.
 
राजकारणातील स्पर्धा
पण अटकेची कारवाई झाली असली तर अशाप्रकारच्या कंटेंटला आळा घालण्यासाठी व्यापक कायदेशीर व्यवस्था नाही, ही महत्त्वाची अडचण असल्याचं जाणकार म्हणतात.
 
माहिती आणि सुरक्षेसंदर्भातील तज्ज्ञ श्रीनिवास कोडाली यांच्या मते, "याचा अर्थ असाच होतो की, कोणतीही चुकीची गोष्ट केल्याबद्दल अटक झाली तरी छोटीशी शिक्षा देऊन तुम्हाला सोडलं जाईल."
 
बीबीसीला मिळालेल्या माहितीनुसार, काही राजकारणीही अशा प्रकारचा कंटेंट तयार करणाऱ्यांकडून विरोधकांचे पॉर्नोग्राफिक फोटो किंवा मॉर्फ व्हिडिओ तयार करण्यास सांगतात. विरोधकांची प्रतिमा मलीन करण्याचा हेतू त्यामागे असतो.
 
दिव्येंद्र सिंह जादौन यांनी सांगितलं की "एकदा एका खऱ्या व्हिडिओवरून मला डीप फेक व्हिडिओ बनवण्यास सांगितलं होतं. कारण तेव्हा खरा व्हिडिओ खूप शेअर होत होता. त्यातील नेत्याची खराब प्रतिमा त्यातून समोर येत होती."
 
दिव्येंद्र सिंह यांच्या मते, "त्यामुळं मी त्यांचा डीपफेक व्हिडिओ तयार करावा आणि तो खरा असल्याचं सांगून ते शेअर करतील, अशी त्या नेत्याची इच्छा होती."
 
दिव्येंद्र सिंह इंडियन डीपफेकर (टीआयडी) चे संस्थापक आहेत. ही संस्था मोफत उपलब्ध असलेल्या आर्टिफिशियल इंटेलिजन्स सॉफ्टवेअरचा वापर करून राजकारण्यांचं प्रचार साहित्य तयार करण्यास मदत करते.
 
ते म्हणाले की, त्यांची कंपनी प्रत्येक कंटेंटमध्ये डिसक्लेमर किंवा सूचना देण्यावर भर देते. म्हणजे व्हिडिओ खरा नाही, हे स्पष्ट होऊ शकतं. पण अजूनही यावर नियंत्रण मिळवणं खूप कठिण आहे.
 
वेगाने पसरणाऱ्या अफवा
शाहिद शेख, पश्चिम बंगालच्या एका मार्केटिंग एजन्सीसाठी काम करतात. त्यांनी तयार केलेल्या कंटेंटसाठी श्रेय न देता राजकीय नेते किंवा पक्षांच्या सोशल मीडिया पेजवर तो शेअर केला जतो, असं ते सांगतात.
 
"एका राजकीय नेत्यानं मी तयार केलेल्या नरेंद्र मोदी यांच्या फोटोचा कोणताही संदर्भ किंवा सूचना न देता वापर केला. तसंच तो फोटो AI चा वापर करून तयार केल्याचं स्पष्टीकरणही दिलं नाही," असं ते म्हणाले.
 
सध्या तर डीपफेक तयार करणं एवढं सोपं झालं आहे की ते कोणीही ते करू शकतं.
 
दिव्येंद्र जादौन म्हणाले की, "आधी जे काम करण्यासाठी सात ते आठ दिवस लागायचे. तोच कंटेंट आता तीन मिनिटात तयार होतो. फक्त एक संगणक असायला हवा."
 
दोन व्यक्तींमध्ये खोटा फोन कॉल घडवणं किती सोपं आहे हे बीबीसीच्या टीमनं स्वत:च्या डोळ्यांनी पाहिलं. अमेरिकेच्या माजी राष्ट्राध्यक्षांबरोबर संवादाचा हा कॉल होता.
 
एवढे धोके असले तरी, AI संदर्भात कोणताही कायदा बनवण्याबाबत विचार नसल्याचं, भारतानं सुरुवातीलाच म्हटलं होतं. पण नुकतचं मार्च महिन्यात, 'मोदी फॅसिस्ट आहेत का?' या प्रश्नावर गुगलच्या जेमिनी चॅटबॉटवर मिळालेल्या उत्तरामुळं वाद निर्माण झाल्यानंतर सरकार अचानक सक्रिय झालं.
 
भारताचे माहिती आणि तंत्रज्ञान राज्यमंत्री राजीव चंद्रशेखर यांनी, यामुळे भारताच्या आयटी कायद्यांचं उल्लंघन झाल्याचं सांगितलं.
 
त्यानंतर भारत सरकारनं तंत्रज्ञान कंपन्यांना जनरेटिव्ह आर्टिफिशियल इंटेलिजन्सच्या कमी चाचण्या घेतलेल्या आणि विश्वास ठेवण्यायोग्य नसलेलं मॉडेल किंवा टूल जारी करण्यापूर्वी सरकारची परवानगी घ्यावी, असं सांगितलं.
 
अशा टूल्सच्या 'निवडणूक प्रक्रियेच्या विश्वासार्हतेला धोका' निर्माण करणाऱ्या उत्तरांबाबतही इशारा देण्यात आला.
 
पण, एवढंच पुरेसं नाही. फॅक्ट चेक करणाऱ्यांच्या मते, अशा कंटेंटचं खरं रुप सातत्यानं समोर आणणं मोठं आव्हान आहे. विशेषतः निवडणुकीच्या काळात खोट्या माहितीचा पूर येतो तेव्हा ते अधिक कठिण असतं.
 
तमिळनाडूत प्रसारमाध्यमांवर देखरेख करणारी संस्था चालवणारे मुरलीकृष्णन अन्नादुरई यांच्या मते, "माहिती ताशी 100 किमी वेगानं पुढं जाते. पण, आम्ही सत्य समोर आणतो ती माहिती ताशी 20 किमी अशा वेगानं पसरते."
 
श्रीनिवास कोडोली यांनी तर मुख्य प्रवाहातील प्रसारमाध्यमांमध्येही ही खोटी माहिती पसरते असं सांगितलं. तरीही, "निवडणूक आयोगानं AI बाबत मौन धारण केल्याचं सांगतात."
 
"त्यांच्यासाठी काहीही नियम नाही. नियम, कायदे बनवण्याऐवजी त्यांनी हे काम तंत्रज्ञान उद्योगावर सोडून दिलं आहे," असं श्रीनिवास म्हणाले.
 
जाणकारांच्या मते, या समस्येवर निश्चित असं उत्तर नाही.
 
"पण, अजूनही बनावट किंवा खोटा व्हीडिओ फॉरवर्ड करणाऱ्यांवर कारवाई झाली तर कदाचित इतरांकडून अशा प्रकारची माहिती शेअर करण्यास आळा बसेल," असं एस. वाय. कुरेशी म्हणाले.