दिल्ली : आर्टिफिशियल इंटेलिजेंस (AI) की मदद से किसी भी व्यक्ति की आवाज या वीडियो को पूरी तरह से नकली बनाया जा सकता है। इस तकनीक का इस्तेमाल करके साइबर अपराधी लोगों से ठगी कर रहे हैं। इसे डीपफेक एआई स्कैम कहा जाता है।
साइबर एक्सपर्ट अंकुर चंद्रकांत ने बताया कि डीपफेक एआई स्कैम में कोई भी व्यक्ति किसी दूसरे व्यक्ति की आवाज या वीडियो को नकली बनाकर उसे किसी अन्य व्यक्ति के नाम से इस्तेमाल कर सकता है। इसके लिए वह उस व्यक्ति के फोटो, वीडियो और अन्य जानकारी का इस्तेमाल करता है।
डीपफेक एआई स्कैम से बचने के लिए उन्होंने कुछ टिप्स दिए हैं। उन्होंने कहा कि किसी भी अनजान व्यक्ति के साथ वीडियो कॉल या ऑडियो कॉल करने से बचें। अगर किसी के साथ वीडियो कॉल या ऑडियो कॉल करना जरूरी है तो पहले उस व्यक्ति का नाम और नंबर अच्छी तरह से जांच लें।
उन्होंने कहा कि किसी भी अनजान व्यक्ति से पैसे या कोई भी व्यक्तिगत जानकारी शेयर न करें। अगर कोई व्यक्ति आपसे आपातकालीन स्थिति का हवाला देते हुए पैसे मांग रहा है तो उससे बात करने से पहले उस व्यक्ति से सीधे संपर्क करें।
उन्होंने कहा कि सोशल मीडिया पर किसी भी जानकारी या पोस्ट को शेयर करने से पहले उसकी सत्यता जांच लें। अगर आपको लगता है कि कोई पोस्ट या जानकारी नकली है तो उस पर ध्यान न दें।
साइबर एक्सपर्ट ने कहा कि डीपफेक एआई स्कैम एक गंभीर समस्या है। इस स्कैम से बचने के लिए लोगों को जागरूक होना जरूरी है।
यहां कुछ अतिरिक्त टिप्स दी गई हैं जिनका पालन करके आप डीपफेक एआई स्कैम से खुद को बचा सकते हैं:
अपने सोशल मीडिया अकाउंट को प्राइवेट रखें।
अपने फोटो और वीडियो को सार्वजनिक रूप से शेयर न करें।
किसी भी वेबसाइट या ऐप पर अपनी व्यक्तिगत जानकारी शेयर करने से पहले उसकी सुरक्षा जांच लें।
अपने डिवाइस को अपडेट रखें।
अगर आप डीपफेक एआई स्कैम का शिकार हो जाते हैं तो तुरंत साइबर क्राइम सेल में शिकायत दर्ज कराएं।