के हो डिपफेक प्रविधि ?

Yangle News
Yangle News
२०८० कार्तिक २३ गते
के हो डिपफेक प्रविधि ?

 

आर्टिफिसियल इन्टेलिजेन्स (एआई) प्रयोग गरेर एक व्यक्तिको अनुहारमा अर्काको अनुहार राखी नक्कली भिडियो बनाउनुलाई ‘डिपफेक’ भनिन्छ जुन वास्तविकजस्तै देखिन्छ, तर नक्कली हुन्छ ।

केहि दिन अघि भारतीय अभिनेत्री रश्मिका मन्डन्नाको एउटा भिडियो निर्माण गरियो जसमा ‘डिपफेक’ प्रविधि प्रयोग भएको थियो । सो भिडियो भाइरल भएपछि रश्मिका अहिले चर्चामा छिन् । उक्त भिडियोमा देखिएकी महिलालाई डिपफेक भिडियोमार्फत तयार गरिएकी रश्मिकाको रूपमा देखाउने प्रयास गरिएको छ । रश्मिकाले उक्त भाइरल भिडियोप्रति दुःख व्यक्त गर्दै प्रविधिको दुरूपयोगबाट कसैलाई दुःख हुन नदिन जतिसक्दो चाँडो समाधान खोज्नुपर्ने बताएकी छन् ।

उनले एक्समा लेखेकी छन्, “आज जसरी प्रविधिको दुरूपयोग भइरहेको छ, त्यसले मलाई मात्र नभई अन्य धेरैलाई पनि ठूलो नोक्सानी पुर्‍याउन सक्छ ।”

यो भिडियो भाइरल भएपछि अभिनेता अमिताभ बच्चनले रश्मिकालाई कानूनी कारबाहीको बाटो अपनाउन सल्लाह दिएका छन् ।

यस्तै अर्कि अभिनेत्री केट्रिना केफको कुनै एक चलचित्रको सिनलाई लिएर डिपफेक प्रविधिबाट तोडमोड गरिएकाे छ ।

डिपफेक एउटा प्रविधि हो जसले कृत्रिम बौद्धिकता (एआई) को प्रयोग गर्दै भिडियो, तस्वीर र अडियोहरू हेरफेर गर्छ । अर्थात् भिडियो वा तस्वीरको वास्तविक अनुहारमाथि अर्काको अनुहार लगाइदिन्छ ।

यस प्रविधिको सहायताले एक व्यक्तिको तस्वीर वा भिडियोमा अरूको अनुहार ‘सुपरइम्पोज’ गरेर परिवर्तन गर्न सकिन्छ जुन हुबहु देखिन्छ र सामान्य आँखाले फरक छुट्ट्याउन सकिँदैन । सजिलो तरिकाले बुझ्नुपर्दा आर्टिफिसियल इन्टेलिजेन्स प्रयोग गरेर एक व्यक्तिको अनुहारमा अर्काको अनुहार राखी नक्कली भिडियो बनाउनुलाई ‘डिपफेक’ भनिन्छ, जुन वास्तविकजस्तै देखिन्छ, तर नक्कली हुन्छ ।

‘डिपफेक’ शब्दको प्रयोग सन् २०१७ मा एक ‘रेडिट’ प्रयोगकर्ताले पोर्न भिडियोहरूमा अनुहार परिवर्तन गर्न यो प्रविधि प्रयोग गरेका थिए । डिपफेक एक निकै जटिल प्रविधि मानिन्छ । यसका लागि ‘मेसिन लर्निङ’ प्रविधिको आवश्यकता पर्छ। २०१७ मै डिपफेक गर्नका लागि कम्प्युटर एल्गोरिदम तयार गरिएको थियो । यस्तो सामग्री दुई प्रकारका एल्गोरिदमहरू प्रयोग गरेर सिर्जना गरिएको हुन्छ । एउटालाई डिकोडर र अर्कोलाई इन्कोडर भनिन्छ ।

यसमा फेकरले डिजिटल सामग्री सिर्जना गर्दछ र डिकोडरलाई सामग्री वास्तविक वा नक्कली के हो भनेर सोध्छ । प्रत्येक पटक डिकोडरले सामग्रीको वास्तविकता पहिचान गर्छ । यसरी गल्तीहरू सुधार गरेर अर्को डिपफेक सुधारका लागि  प्राप्त जानकारीलाई इन्कोडरमा पठाउँछ । दुवै प्रक्रियाहरू मिलाएर ‘जीएन’ भनिने विरोधी नेटवर्क बनाउँछ ।

छोटो समयमै यो प्रविधि झन् सहज बन्दै गएको छ । मोबाइल एप्लिकेसनबाटै डिपफेक भिडियो बनाउन मिल्ने गरी यसको तीव्र विकास भइरहेको छ जुन मानिसको लागि ठूलो समस्या र चुनौती बनेको छ ।

यो प्रविधि पोर्नोग्राफीमा धेरै प्रयोग गरिन्छ । अभिनेता र अभिनेत्री तथा सेलिब्रेटीको अनुहार परिवर्तन गरी अश्लील सामग्री पोर्न साइटहरूमा पोस्ट गरिन्छ । सफ्टवेयर कम्पनी ‘डिपट्रेस’को रिपोर्टअनुसार २०१९ मा अनलाइनमा फेला परेका ९६ प्रतिशत डिपफेक भिडियोहरूमा अश्लील सामग्री समावेश थियो । अहिले राजनीतिमा पनि डिपफेकको प्रयोग हुन थालेको छ । कुनै राजनीतिक पार्टी तथा नेताप्रति नागरिकको धारणा परिवर्तन गर्न अनेक तरिकाले डिपफेक हतियार प्रयोग गर्न थालिएको छ ।

 

यस्तै, युद्धका क्रममा यस्ता भिडियो प्रयोग गरेर विरोधीको ध्यान तान्ने, सहानुभूति बटुल्ने तथा आफ्ना रणनीति बनाउने गरेको पनि पाइन्छ । अघिल्लो वर्ष मात्रै रुस–युक्रेन युद्धका दौरान युक्रेनी राष्ट्रपति भोलोदिमिर जेलेन्स्कीको यस्तै डिपफेक भिडियो भाइरल भएको थियो । उक्त भिडियोमा उनले रुससमक्ष आत्मसमर्पण गर्ने कुरा गरेका थिए । पछि त्यो भिडियोलाई युट्युब तथा मेटाले आफ्ना प्लेटफर्मबाट हटाए ।

यीबाहेक मनोरञ्जनका लागि पनि यस प्रविधिको प्रयोग गरिन्छ । धेरै युट्युब च्यानलहरूमा विभिन्न फिल्मका दृश्यका डिपफेक भिडियोहरू पोस्ट हुन्छन् ।

पछिल्लो समय टिकटक तथा युट्युब र फेसबुक रिल्समा रुसका राष्ट्रपति भ्लादमिर पुटिनलाई कतै ‘डान्स’ त कतै ‘कमेडी’ गरेको देखाइएका भिडियोहरू भाइरल हुने गरेका छन्, जुन डिपफेक प्रविधिबाट बनाइएका हुन् ।

पछिल्ला केही वर्षदेखि आफ्ना मृतक आफन्तलाई भर्चुअल रूपमा ‘जीवन्त’ तुल्याउन पनि यसको प्रयोग बढ्दो छ । यसमा मृतकका आफन्तका तस्वीरहरूको अनुहार एनिमेसन गरिन्छ ।