Live Classes

ARTICLE DESCRIPTION

संपादकीय

भारत में डीपफेक और एआई को विनियमित करना

11.12.23 212 Source: 8 December,The Hindu
भारत में डीपफेक और एआई को विनियमित करना

पिछले महीने अभिनेत्री रश्मिका मंदाना का एक वीडियो सोशल मीडिया पर वायरल हुआ, जिससे नेटिज़न्स के बीच सदमे और भय का मिश्रण पैदा हो गया। सेकंड-लंबी क्लिप, जिसमें मंदाना की समानता दिखाई गई थी, को डीपफेक तकनीक का उपयोग करके हेरफेर किया गया था। डीपफेक डिजिटल मीडिया, वीडियो, ऑडियो और छवियां हैं, जिन्हें आर्टिफिशियल इंटेलिजेंस (एआई) का उपयोग करके संपादित और हेरफेर किया जाता है। चूंकि उनमें अति-यथार्थवादी डिजिटल मिथ्याकरण शामिल है, इसलिए उनका उपयोग संभावित रूप से प्रतिष्ठा को नुकसान पहुंचाने और लोकतांत्रिक संस्थानों में विश्वास को कम करने के लिए किया जा सकता है। इस घटना ने राजनीतिक संदेश में भी प्रवेश कर लिया है, जो अगले साल होने वाले आम चुनावों से पहले एक चिंता का विषय है।

क्या राजनीति में डीपफेक का इस्तेमाल हुआ है?

2020 में, राजनीतिक अभियानों में एआई-जनित डीपफेक के पहले उपयोग में, भारतीय जनता पार्टी (भाजपा) नेता मनोज तिवारी के वीडियो की एक श्रृंखला कई व्हाट्सएप समूहों पर प्रसारित की गई थी। वीडियो में श्री तिवारी को दिल्ली चुनाव से पहले अपने राजनीतिक प्रतिद्वंद्वी अरविंद केजरीवाल के खिलाफ अंग्रेजी और हरियाणवी में आरोप लगाते हुए दिखाया गया है। इसी तरह की एक घटना में, मध्य प्रदेश कांग्रेस प्रमुख कमल नाथ का एक छेड़छाड़ किया गया वीडियो हाल ही में वायरल हुआ, जिससे राज्य सरकार की लाडली बहना योजना के भविष्य पर भ्रम पैदा हो गया।

अन्य देश भी तेजी से विकसित हो रही एआई तकनीक के खतरनाक परिणामों से जूझ रहे हैं। पिछले साल मई में, साइबर अपराधियों द्वारा एक यूक्रेनी टेलीविजन चैनल को हैक करने के बाद यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की द्वारा अपने देशवासियों से हथियार डालने के लिए कहने का एक डीपफेक वायरल हो गया था।

डीपफेक तकनीक कैसे उभरी?

एआई और मशीन लर्निंग जैसी तकनीकों का उपयोग करके डीपफेक बनाए जाते हैं, जो कल्पना और वास्तविकता के बीच की रेखाओं को धुंधला कर देते हैं। हालाँकि इनसे शिक्षा, फिल्म निर्माण, आपराधिक फोरेंसिक और कलात्मक अभिव्यक्ति में लाभ होता है, लेकिन इनका उपयोग लोगों का शोषण करने, चुनावों में तोड़फोड़ करने और बड़े पैमाने पर गलत सूचना फैलाने के लिए भी किया जा सकता है । जबकि फ़ोटोशॉप जैसे संपादन उपकरण दशकों से उपयोग में हैं, डीपफेक तकनीक का पहली बार उपयोग कथित तौर पर एक Reddit उपयोगकर्ता से पता लगाया जा सकता है, जिसने 2017 में अश्लील सामग्री बनाने के लिए सार्वजनिक रूप से उपलब्ध AI-संचालित सॉफ़्टवेयर का उपयोग किया था। आम लोगों के शरीर पर मशहूर हस्तियों के चेहरे।

Download pdf to Read More