डीपफेक जनरेटिव à¤à¤†à¤ˆ से जà¥à¤¡à¤¼à¥€ तकनीक है, जिसका सबसे जà¥à¤¯à¤¾à¤¦à¤¾ गलत इसà¥à¤¤à¥‡à¤®à¤¾à¤² किया जा रहा है। इस समय कई तरह के टूलà¥à¤¸ वीडियो, इमेज और आवाज बदलकर वà¥à¤¯à¤•à¥à¤¤à¤¿ की गरिमा और निजता को चोट पहà¥à¤‚चा रहे हैं। अमेरिकी उपराषà¥à¤Ÿà¥à¤°à¤ªà¤¤à¤¿ कमला हैरिस का à¤à¤• डीप फेक वीडियो सोशल मीडिया पà¥à¤²à¥‡à¤Ÿà¤«à¥‰à¤°à¥à¤® पर वायरल है। डीपफेक, हैरिस के हॉवरà¥à¤¡ यूनिवरà¥à¤¸à¤¿à¤Ÿà¥€ में दिठगठà¤à¤¾à¤·à¤£ के साथ टिकटॉक पर पà¥à¤°à¤¸à¤¾à¤°à¤¿à¤¤ हो रहे ऑडियो का à¤à¤• मिशà¥à¤°à¤£ है, जिसका उपयोग हैरिस का मजाक उड़ाने के लिठकिया गया है। फà¥à¤² फैकà¥à¤Ÿ ( Full Fact ) ने धà¥à¤¯à¤¾à¤¨ दिलाया कि इस वीडियो को बनाने के लिठआरà¥à¤Ÿà¤¿à¤«à¤¿à¤¶à¤¿à¤¯à¤² इंटेलिजेंस (à¤à¤†à¤ˆ) का इसà¥à¤¤à¥‡à¤®à¤¾à¤² किया गया है।
à¤à¤¥à¤¨à¤¿à¤• मीडिया सरà¥à¤µà¤¿à¤¸à¥‡à¤œ की बà¥à¤°à¥€à¤«à¤¿à¤‚ग में पैनलिसà¥à¤Ÿà¥‹à¤‚ ने कहा कि 2024 के राषà¥à¤Ÿà¥à¤°à¤ªà¤¤à¤¿ चà¥à¤¨à¤¾à¤µ से पहले फेसबà¥à¤• और अनà¥à¤¯ सोशल मीडिया पà¥à¤²à¥‡à¤Ÿà¤«à¥‰à¤°à¥à¤® पर AI-जनरेटेड कंटेंट की बाॠआ गई है। उदाहरण के लिठजनवरी 2024 में नà¥à¤¯à¥‚ हैमà¥à¤ªà¤¶à¤¾à¤¯à¤° के मतदाताओं को 'रोबोकॉल' मिले, जिसमें राषà¥à¤Ÿà¥à¤°à¤ªà¤¤à¤¿ बाइडेन की AI-जनरेटेड आवाज का कà¥à¤²à¥‹à¤¨ था, जो उनà¥à¤¹à¥‡à¤‚ मतदान केंदà¥à¤° जाने से रोक रहा था।
फेसबà¥à¤• के पूरà¥à¤µ कारà¥à¤¯à¤•ारी और कà¥à¤°à¤¾à¤‰à¤¡à¤Ÿà¥ˆà¤‚गल के सह-संसà¥à¤¥à¤¾à¤ªà¤• पैनलिसà¥à¤Ÿ बà¥à¤°à¥ˆà¤‚डन सिलà¥à¤µà¤°à¤®à¥ˆà¤¨ ने कहा कि वासà¥à¤¤à¤µà¤¿à¤• और नकली समाचार के बीच अंतर करना पहले से कहीं जà¥à¤¯à¤¾à¤¦à¤¾ मà¥à¤¶à¥à¤•िल होता जा रहा है। सिलà¥à¤µà¤°à¤®à¥ˆà¤¨, जिनà¥à¤¹à¥‹à¤‚ने अतीत में यह खà¥à¤²à¤¾à¤¸à¤¾ किया था कि फेसबà¥à¤• उपयोगकरà¥à¤¤à¤¾ सोशल मीडिया पà¥à¤²à¥‡à¤Ÿà¤«à¥‰à¤°à¥à¤® पर अति-पकà¥à¤·à¤ªà¤¾à¤¤à¥€ दकà¥à¤·à¤¿à¤£à¤ªà¤‚थी राजनीति और à¤à¥à¤°à¤¾à¤®à¤• सà¥à¤µà¤¾à¤¸à¥à¤¥à¥à¤¯ जानकारी के साथ कितना जà¥à¥œà¥‡ हैं, उनà¥à¤¹à¥‡à¤‚ डर है कि कई सोशल मीडिया पà¥à¤²à¥‡à¤Ÿà¤«à¥‰à¤°à¥à¤® ने चà¥à¤¨à¤¾à¤µ की अखंडता के काम में अपने निवेश को कम कर दिया है। आरà¥à¤Ÿà¤¿à¤«à¤¿à¤¶à¤¿à¤¯à¤² इंटेलिजेंस के साथ गलत सूचना उतà¥à¤ªà¤¨à¥à¤¨ करने की आसानी को देखते हà¥à¤ इसके बड़े खतरे हैं।
बà¥à¤°à¥ˆà¤‚डन सिलà¥à¤µà¤°à¤®à¥ˆà¤¨ ने कहा कि गलत सूचना अà¤à¤¿à¤¯à¤¾à¤¨à¥‹à¤‚ का लकà¥à¤·à¥à¤¯ यह है कि वह इतनी अधिक अविशà¥à¤µà¤¸à¤¨à¥€à¤¯ सामगà¥à¤°à¥€ बनाता है कि समà¥à¤¦à¤¾à¤¯ और मतदाता बिलà¥à¤•à¥à¤² नहीं जानते कि किस पर à¤à¤°à¥‹à¤¸à¤¾ करें। सेंटर फॉर काउंटरिंग डिजिटल हेट की हालिया रिपोरà¥à¤Ÿ में खà¥à¤²à¤¾à¤¸à¤¾ हà¥à¤† है कि जनरेटिव AI अराजक ततà¥à¤µà¥‹à¤‚ को à¤à¤¸à¥‡ चितà¥à¤°, ऑडियो और वीडियो बनाने में सकà¥à¤·à¤® बना रहा है जो लगà¤à¤— मà¥à¤«à¥à¤¤ में अà¤à¥‚तपूरà¥à¤µ पैमाने और पà¥à¤°à¤²à¥‹à¤à¤¨ के साथ उनके à¤à¥‚ठबताते हैं। यह रिपोरà¥à¤Ÿ दरà¥à¤¶à¤¾à¤¤à¥€ है कि AI-वॉयस कà¥à¤²à¥‹à¤¨à¤¿à¤‚ग टूल...चà¥à¤¨à¤¾à¤µà¥‹à¤‚ में दà¥à¤°à¥à¤ªà¤¯à¥‹à¤— के लिठपूरी तरह से खà¥à¤²à¥‡ हैं।
सीसीडीà¤à¤š के सीईओ इमरान अहमद ने कहा, 'कà¥à¤› सबसे लोकपà¥à¤°à¤¿à¤¯ AI-संचालित वॉयस कà¥à¤²à¥‹à¤¨à¤¿à¤‚ग टूल उपयोगकरà¥à¤¤à¤¾à¤“ं को राजनीतिक नेताओं का आसानी से कॉपी करने की अनà¥à¤®à¤¤à¤¿ देते हैं। इन उपकरणों के लिठसà¥à¤°à¤•à¥à¤·à¤¾ उपाय इतने गंà¤à¥€à¤° रूप से कम हैं कि इन पà¥à¤²à¥‡à¤Ÿà¤«à¥‰à¤°à¥à¤® को लगà¤à¤— किसी à¤à¥€ वà¥à¤¯à¤•à¥à¤¤à¤¿ दà¥à¤µà¤¾à¤°à¤¾ खतरनाक राजनीतिक गलत सूचना बनाने के लिठआसानी से हेरफेर किया जा सकता है।' बà¥à¤°à¥€à¤«à¤¿à¤‚ग में सिलà¥à¤µà¤°à¤®à¥ˆà¤¨ ने कहा, 'बहà¥à¤¤ बार मीडिया सूचना इकोसिसà¥à¤Ÿà¤® में विशà¥à¤µà¤¸à¤¨à¥€à¤¯ सà¥à¤°à¥‹à¤¤ गलत सूचना के सबसे महतà¥à¤µà¤ªà¥‚रà¥à¤£ पà¥à¤°à¤¸à¤¾à¤°à¤• होते हैं।'
सिलà¥à¤µà¤°à¤®à¥ˆà¤¨ ने कहा कि फेसबà¥à¤• में उनके अनà¥à¤à¤µ ने उनà¥à¤¹à¥‡à¤‚ दिखाया कि कà¥à¤› राजनीतिक वातावरणों की सà¥à¤¥à¤¾à¤¨à¥€à¤¯ बारीकियों और संदरà¥à¤ को समà¤à¤¨à¥‡ के लिठबहà¥à¤¤ कम करà¥à¤®à¤šà¤¾à¤°à¥€ समरà¥à¤ªà¤¿à¤¤ थे। 2016 में रूस के गलत सूचना कारà¥à¤¯à¤•à¥à¤°à¤®à¥‹à¤‚ ने अशà¥à¤µà¥‡à¤¤ अमेरिकियों पर फोकस किया, इंसà¥à¤Ÿà¤¾à¤—à¥à¤°à¤¾à¤® और टà¥à¤µà¤¿à¤Ÿà¤° खाते बनाठजो अशà¥à¤µà¥‡à¤¤ आवाजों के रूप में पà¥à¤°à¤¸à¥à¤¤à¥à¤¤ किठगठऔर blacktivist.info, blacktolive.org और blacksoul.us जैसी नकली समाचार वेबसाइटों का निरà¥à¤®à¤¾à¤£ किया।
बà¥à¤°à¥€à¤«à¤¿à¤‚ग के दौरान चीनी डिजिटल जà¥à¤¡à¤¼à¤¾à¤µ के कारà¥à¤¯à¤•à¥à¤°à¤® पà¥à¤°à¤¬à¤‚धक जिनकà¥à¤¸à¤¿à¤¯à¤¾ निउ ने कहा कि पिछले 12 महीनों में हमने सà¤à¥€ पà¥à¤°à¤®à¥à¤– चीनी à¤à¤¾à¤·à¤¾ के सोशल मीडिया में गलत सूचना के 600 से अधिक टà¥à¤•ड़ों का दसà¥à¤¤à¤¾à¤µà¥‡à¤œà¥€à¤•रण किया है। निउ ने कहा, 'गलत सामगà¥à¤°à¥€ को अंगà¥à¤°à¥‡à¤œà¥€ मà¥à¤–à¥à¤¯à¤§à¤¾à¤°à¤¾ के मीडिया में तथà¥à¤¯à¤¾à¤¤à¥à¤®à¤• रूप से जांचा और खारिज किया जा सकता है। लेकिन चीनी में उनके अनà¥à¤µà¤¾à¤¦à¤¿à¤¤ संसà¥à¤•रण, अनियंतà¥à¤°à¤¿à¤¤ रहते हैं। हमारे पास हर सामगà¥à¤°à¥€ के टà¥à¤•ड़े की जांच करने की कà¥à¤·à¤®à¤¤à¤¾ नहीं है, खासकर AI-जनरेटेड सामगà¥à¤°à¥€ की मातà¥à¤°à¤¾ के साथ।
यह गलत सूचना à¤à¤¾à¤°à¤¤à¥€à¤¯ अमेरिकियों के लिठवà¥à¤¹à¤¾à¤Ÿà¥à¤¸à¤à¤ª और यूरोपीय, अफà¥à¤°à¥€à¤•ी और à¤à¤¶à¤¿à¤¯à¤¾à¤ˆ लोगों के लिठटेलीगà¥à¤°à¤¾à¤® जैसे à¤à¤¨à¥à¤•à¥à¤°à¤¿à¤ªà¥à¤Ÿà¥‡à¤¡ मैसेजिंग à¤à¤ª पर पà¥à¤°à¤à¤¾à¤µà¤¶à¤¾à¤²à¥€ लोगों, दोसà¥à¤¤à¥‹à¤‚ और परिवार दà¥à¤µà¤¾à¤°à¤¾ साà¤à¤¾ किठगठपोसà¥à¤Ÿ के माधà¥à¤¯à¤® से फैलती है। चीनी अमेरिकियों के लिठवीचैट और कोरियाई और जापानी अमेरिकियों के लिठसिगà¥à¤¨à¤² जैसे अनà¥à¤¯ à¤à¤ª हैं जहां उनà¥à¤¹à¥‹à¤‚ने गलत सूचना फैलते हà¥à¤ देखा है।
निउ ने कहा कि ये निजी चैट अनियंतà¥à¤°à¤¿à¤¤, बिना सेंसर के सारà¥à¤µà¤œà¤¨à¤¿à¤• पà¥à¤°à¤¸à¤¾à¤°à¤£ की तरह हो जाते हैं जिनà¥à¤¹à¥‡à¤‚ आप अचà¥à¤›à¥€ तरह से इरादे से डेटा और गोपनीयता सà¥à¤°à¤•à¥à¤·à¤¾ के कारण मॉनिटर या दसà¥à¤¤à¤¾à¤µà¥‡à¤œ नहीं कर सकते। यह à¤à¤• à¤à¤¸à¥€ सà¥à¤¥à¤¿à¤¤à¤¿ है जहां नकली और खतरनाक जानकारी के साथ हसà¥à¤¤à¤•à¥à¤·à¥‡à¤ª करना मà¥à¤¶à¥à¤•िल है। कैलिफोरà¥à¤¨à¤¿à¤¯à¤¾ कॉमन कॉज के कारà¥à¤¯à¤•ारी निदेशक जोनाथन मेहता सà¥à¤Ÿà¤¾à¤‡à¤¨ ने कहा कि 'नागरिक बहस à¤à¤•à¥à¤¸ और फेसबà¥à¤• पर चल रही है।'
ADVERTISEMENT
ADVERTISEMENT
Comments
Start the conversation
Become a member of New India Abroad to start commenting.
Sign Up Now
Already have an account? Login