चीन में ‘डीप सिंथेसिस तकनीक (डीपफेक)’ के विनियमन की तैयारी

चीन का साइबरस्पेस एडमिनिस्ट्रेशन डीप सिंथेसिस तकनीक (Deep synthesis technology) के उपयोग को प्रतिबंधित करने और गलत सूचना पर अंकुश लगाने के लिए 10 जनवरी से प्रभावी नए नियमों को लागू कर रहा है।

चीन के नए नियमों के दिशानिर्देशों के तहत, डीप सिंथेसिस तकनीक का उपयोग करने वाली कंपनियों और प्लेटफार्मों को अपनी वॉइस या इमेज को एडिट करने से पहले पहले व्यक्तियों से सहमति प्राप्त करनी होगी।

डीप सिंथेसिस तकनीक: मुख्य तथ्य

डीप सिंथेसिस तकनीक को आमतौर पर “डीपफेक” (deepfake) के रूप में जाना जाता है, जो “डीप लर्निंग” और “फेक यानि फर्जी” का संयोजन है।

डीप सिंथेसिस को वर्चुअल दृश्य बनाने के लिए टेक्स्ट, इमेज, ऑडियो और वीडियो उत्पन्न करने के लिए डीप लर्निंग और ऑग्मेंटेड रियलिटी सहित प्रौद्योगिकियों के उपयोग के रूप में परिभाषित किया गया है।

इस प्रौद्योगिकी के सबसे कुख्यात दुरुपयोगों में से एक डीपफेक (deepfake) है, जहां सिंथेटिक मीडिया का उपयोग एक व्यक्ति के चेहरे या आवाज को दूसरे से बदलने के लिए किया जाता है।

प्रौद्योगिकी की प्रगति के साथ डीपफेक का पता लगाना कठिन होता जा रहा है। इसका उपयोग किसी सेलिब्रिटी की अश्लील वीडियो बनाने, फर्जी समाचार बनाने और अन्य गलत कामों के बीच वित्तीय धोखाधड़ी करने के लिए किया जाता है।

डीपफेक आर्टिफिसियल इमेज और ऑडियो का एक संकलन है जो मशीन लर्निंग एल्गोरिदम के साथ मिलकर गलत सूचना फैलाता है और एक वास्तविक व्यक्ति की प्रेजेंटेशन, आवाज या दोनों को समान कृत्रिम समानता या आवाज से बदल देता है।

इसके माध्यम से ऐसे लोगों को भी पैदा की जा सकती है जो अस्तित्व में नहीं हैं और यह वास्तविक लोगों को कोई ऐसी बात कहते हुए दिखा सकता है जो हकीकत में उन्होंने न तो कहा था न किया था।

डीपफेक शब्द की शुरुआत 2017 में हुई थी, जब एक अनाम Reddit उपयोगकर्ता ने खुद को “डीपफेक” कहा था।

error: Content is protected !!