दिल्ली

आर्टिफिशियल इंटेलिजेंस(AI) से जुड़ी डीप फेक तकनीक से लोगो को चूना लगा रहे है साइबर लुटेरे –

तकनीक के बढ़ते कदम से आप भी कदमताल जरूर करें, जानकारी और सावधानी ही बचाव है –

दिल्ली:-  डीपफेक टेक्नोलॉजी से साइबर अपराध की दुनिया में एक बड़ा जाल फैलता जा रहा है। आज के दौर में ऑनलाइन फ्रॉड से बचने के लिए सतर्क रहने और तकनीक में रोज हो रहे अपग्रेड की जानकारी रखना और हमेशा जागरूक और सतर्क रहना बेहद जरूरी है, आप की छोटी सी चूक आपको लाखो करोड़ो का चूना लगवा सकती है

हाल ही में बॉलीवुड की मशहूर एक्ट्रेस रश्मिका मंदाना और कैटरीना कैफ के बाद आलिया भट्ट की फेक वीडियो हुई वायरल थी, डीपफेक टेक्नोलॉजी से सभी परेशान हैं। यहां तक की डीपफेक टेक्नोलॉजी से देश के प्रधानमंत्री नरेंद्र मोदी भी नहीं बच सकें, उनकी भी फेक वीडियो हुई वायरल थी। 

साइबर क्राइम के क्षेत्र में फेक यानी नकली वीडियो के बढ़ते खतरे को देखते हुए न सिर्फ नेशनल बल्कि ग्लोबल लेवल पर चिंता व्यक्त की जा रही है। डीपफेक टेक्नोलॉजी में ऐसे- ऐसे टूल्स का इस्तेमाल किया जा रहा है कि यूजर बिना सोचे-समझे पैसे या अपनी जरूरी जानकारी आदि शेयर करने के लिए विवश हो जाए और साइबर लुटेरो का काम बन जाये । डीप फेक वीडियो में चिंताजनक तरीके से वृद्धि हो रही है और जानकारी और सतर्कता बेहद जरूरी है

डीप फेक क्राइम से बचाव ज्यादातर जागरूकता पर निर्भर करता है। जरूरी है कि लोग साइबर क्राइम के डीप फेक संबंधी चालफरेब को समझें और उनकी जानकारी रखें। 

डीपफेक टेक्नोलॉजी की कैपेसिटी के बारे में कम जानकारी रखने वाले लोगों के इसका शिकार होने की ज्यादा संभावना रहती है। जैसे आवाज की क्लोनिंग टेक्निक की ही बात करें, किसी के इमेज को एडिट करना या फिर क्लोनिंग से किसी की वीडियो तैयार करना।

डीपफेक एक किस्म की Artificial Intelligence (एआई) टेक्नोलॉजी है, जिसका इस्तेमाल मौजूदा वीडियो या इमेज में चेहरे या किसी दूसरी चीजों को बदलने के लिए किया जाता है। यह टेक्नोलॉजी इतनी उन्नत हो गई है कि इसे अक्सर असली वीडियो या इमेज से अलग करना मुश्किल होता है।

डीपफेक वीडियो के माध्यम से साइबर क्राइम विश्वसनीय फिशिंग अटैक तैयार कर सकते हैं। हालांकि, डीपफेक की घातक पहुंच को विफल बनाने के नए नए तरीके भी निकाले जा रहे हैं, लेकिन आपको भी डीपफेक टेक्नोलॉजी से होने वाले नुकसान से सतर्क रहने की जरूरत पड़ सकती है।

किसी भी ऐसे वीडियो या ऑडियो पर संदेह जरूर करें, जो कुछ ज्यादा ही लुभावना, आकर्षक, लालच देने वाला, आसान या तनिक भी संदेह उपजाने वाला हो। या कुछ ऐसा हो, जो ऑनलाइन आपके साथ आज तक नहीं हुआ। कोई चीज बहुत चौंकाने वाली या अविश्वसनीय है, तो यह संभवत: एक डीपफेक है।

अनजान या अविश्वसनीय स्रोतों से वीडियो या ऑडियो का इस्तेमाल करते समय जरूर सावधानी बरते। संभावित जोखिमों से बचने के लिए ध्यान दे कि ये आया कहां से है। 

वीडियो या ऑडियो में विसंगतियों को पहचानें। उदाहरण के लिए, अगर किसी के होंठ उसकी आवाज के साथ मेल नहीं खाते हैं, तो यह डीपफेक हो सकता है।

किसी तरह की जानकारी शेयर करने से पहले उसे जरूर वेरीफाई करें। ऑनलाइन आपके सामने आने वाली हर चीज को निर्विवाद तौर पर स्वीकार न करें।

ईमेल या टेक्स्ट संदेशों में लिंक पर क्लिक करते समय सावधानी बरतें, भले ही वे किसी ऐसे व्यक्ति से आए हो, जिन्हें आप जानते हों। डीपफेक का प्रचार करने वाले लोग इन लिंक का इस्तेमाल अपने मनगढ़ंत वीडियो या ऑडियो को प्रसारित करने के लिए भी कर सकते हैं।

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button

You cannot copy content of this page