Search
Close this search box.
Search
Close this search box.

प्रधानमन्त्री ओली र नेतृ रामकुमारी झाँक्रीको डिपफेक भिडिओ भाइरल

काठमाडौं । प्रधानमन्त्री केपी शर्मा ओली र नेकपा (एकीकृत समाजवादी)की नेतृ रामकुमारी झाँक्रीको डिपफेक भिडिओ तयार पारी सामाजिक सञ्जालमा भाइरल बनाइएको छ ।

फेसबुकमा ‘शक्तिमान थिङ’ नामका प्रयोगकर्ताले अपलोड गरेको उक्त भिडिओमा आपत्तिजनक दृश्य समावेश गरिएको छ । भिडिओलाई हालसम्म करिब २१ हजार लाइक, १८ सयभन्दा बढी कमेन्ट र २५ सयभन्दा बढीले शेयर गरेका छन् ।

EPIC EPIC EPIC

पछिल्लो समय डिपफेक प्रविधि प्रयोग गरी आपत्तिजनक फोटो/भिडिओ बनाउने क्रम बढेको छ । हालै मात्र गायिका समीक्षा अधिकारी पनि यस्तै डिपफेक सामग्रीको शिकार भएकी थिइन् । यसअघि गत साउनमा काठमाडौं महानगरका मेयर बालेन्द्र शाह (बालेन) र उपमेयर सुनिता डङ्गोलको डिपफेक भिडिओ भाइरल भएको थियो । 

डिपफेक भनेको आर्टिफिसियल इन्टेलिजेन्स (एआई) प्रविधि प्रयोग गरेर कुनै व्यक्तिको अनुहार वा आवाजलाई अर्कै फोटो तथा भिडिओमा मिसाएर बनाइएको नक्कली सामग्री हो । यो प्रविधिको दुरुपयोग गरी कुनै पनि व्यक्तिलाई जस्तोसुकै कुरा भनिरहेको वा गरिरहेको देखाउन सकिन्छ ।

यस्ता भ्रामक सामग्रीले व्यक्तिको चरित्रहत्या गर्ने, प्रतिष्ठामा असर पुग्ने, अफवाह फैलने तथा कानुनी व्यवस्थामै चुनौती पुग्ने भन्दै चिन्ता व्यक्त गरिएको छ ।

डिपफेक प्रविधिको इतिहास

वास्तवमा डिपफेकको सुरुवात ‘फोटो म्यानुपुलेसनबाट सुरु भएको मानिन्छ । सन् १८६० मा अमेरिकी गृह युद्ध चलिरहेको समयमा राजनीतिज्ञ जोन कलहवनको शरीरमा अब्राहम लिङ्कनको टाउको जोडेको तस्व‍िर बनाइएको थियो । राजनीतिक स्वार्थका लागि बनाइएको यो फोटोलाई नै पहिलो फोटो म्यानुपुलेट दाबी गरिएको छ ।

२० औं शताब्दीमा सोभियत युनियनका नेता जोशेफ स्टेलिनले आफ्नो प्रोपगान्डा फैलाउनका लागि फोटो म्यानुपुलेसनको सहयोग लिएका थिए । ५ मे १९२० का दिन उनका पूर्ववर्ती भ्लादिमिर लेनिनले सोभियत सेनाका लागि एउटा भाषण राखेका थिए, जसमा कम्युनिस्ट नेता लियोन ट्र्रटस्की उपस्थित थिए ।

त्यस सम्मेलनमा खिचिएको सो फोटोमा ट्रटस्की पनि देखिएका थिए । पछि प्रोपग्रान्डा फैलाउनका लागि उक्त फोटोबाट ट्रटस्कीलाई हटाइएको थियो । सन् १९४२ तिर इटालियन जासुस बेनिटो मुस्सोलिनीको तस्विरबाट घोडा सम्हाल्ने व्यक्तिको फोटो मेटाइएको थियो । ताकि बाहिर सर्वसाधारणलाई मुस्सोलिनी घोडा पनि सम्हाल्न नसक्ने रहेछन् भन्ने नपरोस् । 

यति मात्र होइन इतिहासमा फोटो म्यानुपुलेसनका कारण कैयौं ठुला विवाद पनि निम्तिएका छन् । सन् १९८२ तिर नेसनल जिओग्राफिक्स म्यागेजिनको कभरमा फिट गर्नका लागि दुई पिरामिडलाई धेरै नजिक देखाइएको थियो । त्यसरी फोटो म्यानुपुलेट गर्दा नेसनल जिओग्राफिक्सको चौतर्फी आलोचना समेत भयो । जसले गर्दा उक्त म्यागेजिनले पछि माफी नै माग्नु परेको थियो ।

फोटो तोडमोड गरेकै कारण यस्ता कयौं घटना सतहमा आएका थिए । त्यसरी एउटाको फोटोमा अर्काको फोटो जोड्ने, फोटोलाई वास्तविकभन्दा भिन्न बनाउने कार्यलाई फोटो म्यानुपुलेसन भन्न थालिएको हो । त्यतिबेला फोटोलाई तोडमोड गर्न वा एउटाको शरीरको फोटोमा अर्काकै अनुहार जोड्नका लागि विज्ञ व्यक्ति चाहिन्थ्यो । यो प्रक्रिया बढी खर्चिलो पनि हुन्थ्यो । त्यसैले ठुला ठुला राजनीतिक स्वार्थका लागि यसको प्रयोग बढी हुन्थ्यो । 

सन् २०१७ मा डिपफेक पोर्न भिडिओ रेड्डिट नामक सामाजिक सञ्जालमा भाइरल भयो । त्यस लगत्तै सामाजिक सञ्जालमा विभिन्न सेलिब्रेटी तथा चर्चित व्यक्तिहरूका अनुहार पोर्न भिडिओमा जोडेर बदनाम गर्ने गतिविधि बढ्न थाले ।

सन् २०१९ मा एआई फर्म डिप ट्रेसले इन्टरनेटमा १५ हजार बढी डिपफेक प्रविधिबाट तयार पारेका भिडिओ रहेको पत्ता लगायो । जसमा ९६ प्रतिशत पोर्न भिडिओ रहेको पत्ता लाग्यो । त्यसमा पनि ९९ प्रतिशत भिडिओमा महिला सेलिब्रेटीलाई जोडिएको थियो ।

डिपफेक प्रविधिले कसरी काम गर्छ ?

डिपफेक प्रविधिले एआई प्रयोग गरी कुनै दोस्रो व्यक्तिको फोटो, अडिओ वा भिडिओ बनाउने काम गर्छ ।  डिपफेक दुई ओटा एल्गोरिदमको सहायताले काम गर्छ । पहिलो जेनेरेटर र अर्को हो डिस्क्रिमिनेटर । जेनेरेटरले नक्कली कन्टेन्ट बनाउने र, डिस्क्रिमिनेटरले उक्त नक्कली कन्टेन्ट कत्तिको सक्कली जस्तो देखिन्छ भन्ने पहिचान गर्छ ।

अर्थात् जबसम्म फेक फोटो वा भिडिओ सक्कली जस्तो लाग्दैन, तबसम्म डिस्क्रिमिनेटरले त्यसलाई ठिक बनाउँछ । यही जेनेरेटर र डिस्क्रिमिनेटर एल्गोरिदमको संयोजनलाई जेनेरेटिभ एड्भर्सेरियल नेटवर्क (जीएएन) भनिन्छ । जीएएनले डिप लर्निङको प्रयोग गरी नक्कली कन्टेन्ट तयार पार्छ । डिफफेक भिडिओ सामान्यतः दुई तरिकाले बनाइन्छ ।

जसको फेक भिडिओ बनाउनु छ, उसको सक्कली भिडिओ लिएर त्यसको अनुहार र शरीरको हाउभाउ रेकर्ड गरिन्छ । त्यसपछि त्यो व्यक्तिको यस्तो भिडिओ भिडिओ बनाइन्छ, जहाँ व्यक्तिलाई जे बोल्न लगाउन खोजिएको हो, त्यस्तै देखाइन्छ । त्यस्तै अर्को तरिका हुन्छ ‘फेस स्वाइप’ ।  यो त्यस्तो तरिका हो, जसमा एउटाको भिडिओमा अर्कै व्यक्तिको अनुहार राखेर तयार पारिन्छ । रश्मीका मन्दनाको प्रकरणमा यसैगरी अनुहार परिवर्तन गरिएको थियो । 

फोटो मात्र नभइ भ्वाइस पनि डिप फेक प्रविधिद्वारा तयार पारिन्छ । पछिल्लो समय टिकटकमा विभिन्न राजनीतिज्ञ, कलाकार तथा अन्य व्यक्तिहरूको आवाज पनि भाइरल हुन थालेको छ । त्यही आवाजलाई लिप सिङ्क गरेर वास्तविक जस्तै देखाउने होड नै चलेको छ । डिपफेकको सहायताले जे पनि गर्न थालिएको छ । 

डिपफेक एआई कति खतरनाक ?

विकसित राष्ट्रमा डिपफेक प्रविधिको दुरुपयोग हुने घटना दिनानुदिन बढ्दै गइरहेका छन् । रुस र युक्रेनको युद्ध भइरहेको समयमा युक्रेनका राष्ट्रपति भ्लादिमिर जेलनेस्कीको एउटा डिफफेक भिडिओ टेलिग्राममा सर्कुलेट भएको थियो । 

जसमा उनले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको देख्न सकिन्थ्यो । सोच्नुहोस् कहीँ युद्ध भइरहेको छ, अनि कुनै एक देशको प्रमुख व्यक्तिले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको छ भने त्यहाँको अवस्था के होला ?

डिपफेकबाट बनाएको भिडिओ सेनाले साँच्चै मानेर विश्वास गरे भने कुनै देशको रक्षाका लागि त्यो कति खतरनाक होला ? फेसबुकका मालिक मार्क जुकरबर्गले अर्बौं मानिसहरूबाट चोरी गरेको डेटालाई नियन्त्रण गरिरहेको छु भनेको एक डिपफेक भिडिओ भाइरल भएको थियो । यस्तो हुँदा ठुला व्यवसाय रातारात अर्बौं डलर गुमाउन पुग्छन् । उनीहरू अनावश्यक रूपमा कानुनी फन्दामा पर्छन् ।

कम्पनीको स्टक मूल्य समेत प्रभावित हुन्छ । चुनावका क्रममा विरोधी दलले नेताको नक्कली भिडिओ बनाएर अफवाह फैलाइरहेका हुन्छन् । यस्तो हुँदा मतदातालाई उनीहरूको प्रतिनिधिमाथि विश्वास घट्छ र भोट दिनबाट पछि हट्छन् । यसले मत सङ्ख्यामा ठुलो प्रभाव पार्छ ।

अमेरिकी राष्ट्रपति जो बाइडेनले एक कार्यक्रममा भनेका थिए, “मैले एआईबाट तयार पारिएको मेरै एक भिडिओ हेरेको थिएँ । मैले मैले कहिल्यै यस्तो बोलेको थिएँ र ? एउटा तीन सेकेन्डको तपाईंको भ्वाइस रेकर्डिङ तपाईंको परिवारलाई मूर्ख बनाउन पर्याप्त हुन्छ । यसलाई कतिपय मानिहरूले कुनै व्यक्तिको आफन्तबाट रकम माग गर्नका लागि पनि प्रयोग गरिरहेका छन् ।”

यही प्रविधिको प्रयोग गरेर मानिसको संवेदनशील जानकारी चोर्ने काम भइरहेको विभिन्न सञ्चार माध्यमले उल्लेख गरेका छन् । डिपफेककै दुरुपयोग गरेर कुनै देशको विदेश नीतिलाई पनि प्रभावित पार्न सकिन्छ । उदाहरणका लागि हालै भ्लादिमिर पुटिनको डिपफेक भिडिओ इन्टरनेटमा सर्कुलेट भएको थियो । 

जहाँ उनले अमेरिकी प्रजातन्त्रमाथि हमला गरिरहेका थिए । यसरी डिफफेक प्रविधिको दुरुपयोग हुँदा दुई देशबिचको सम्बन्ध पनि बिग्रिने खतरा हुन्छ । डिफफेक भिडिओकै दुरुपयोग गरी आतङ्ककारी समूहले जनतालाई भड्काउन सक्छन् ।

यसरी अधिकांश प्रकरणमा डिफफेक भिडिओ सतहमा आइरहँदा पछि कसैले साँच्चिकै गलत गरे पनि डिपफेक प्रविधिलाई नै दोष दिने जोखिम पनि बढेको छ । दिनानुदिन प्रविधि यति अत्याधुनिक हुँदै छ कि कुनै दिन जतिसुकै तरिका अपनाए पनि भिडिओ सक्कली वा नक्कली के हो पत्ता लगाउनै सकस पर्न सक्छ ।

त्यस्तै केही वर्षअघि डिपफेक भिडिओका लागि विज्ञता हासिल गरेका व्यक्तिले मात्र भिडिओ बनाउन सक्थे भने अहिले सामान्य वेबसाइट प्रयोग गर्न जानेको अवस्थामा जो कसैले डिफफेक भिडिओ तयार पार्न सक्छन् । 

डिजिटल साक्षरताका हिसाबले पछाडि परेको नेपाल जस्तो मुलुकमा डिफफेक प्रविधिको उच्च हुने जोखिम देखिन्छ । त्यसैले कुनै पनि भिडिओ वा फोटोमा जे देख्यो, त्यो नै साँचो हुन्छ भन्ने कुरा पहिलो नजरमै विश्वास गर्न नसकिने अवस्था निम्तिएको छ ।

यो समाचार तपाईलाई कस्तो लाग्यो??
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
EPIC EPIC EPIC

लेखकको बारेमा

palika-sandesh

पालिका सन्देश

Leave a Reply

Your email address will not be published. Required fields are marked *