Oyo होटल में भी नहीं गई लेकिन फिर भी हो गई जिंदगी बर्बाद, बना लिया अश्लील वीडियो, एक तस्वीर ने उजाड़ दिया सबकुछ
जोधपुर पुलिस में अभी तक कई लोगों ने अश्लील वीडियो और तस्वीर के आधार पर हो रही ब्लैकमेलिंग की शिकायत की है. ये तस्वीरें और वीडियो आर्टिफिशियल इंटेलिजेंस से तैयार की जा रही हैं.
तकनीक का इस्तेमाल लोगों की लाइफ आसान बनाने के लिए की जाती है. अब ऐसे-ऐसे तकनीक सामने आ गए हैं कि लोगों को जिन कामों के लिए पहले काफी समय खर्च करना पड़ता था, वो अब चंद मिनट में हो जाता है. लेकिन जैसा कि सभी जानते हैं कि तकनीक का इस्तेमाल अच्छी चीजों के साथ ही साथ गलत चेजिन में भी जमकर किया जा रहा है. इसी में से एक है डीप फेक.
जोधपुर में अभी तक आर्टिफिशियल इंटेलिजेंस की मदद से कई युवाओं को ब्लैकमेल करने के मामले सामने आए हैं. डीप फेक के शिकार जहां कई सेलेब्स हुए हैं वहीं आम जनता के लिए भी ये जी का जंजाल बन गया है. लोगों की तस्वीर की मदद से उनके अश्लील वीडियो बनाकर ब्लैकमेल किया जा रहा है. अभी तक जोधपुर पुलिस को ऐसी कई शिकायतें मिल चुकी है.
जोधपुर के प्राइवेट कॉलेज में पढ़ने वाली एक लड़की को एक युवक लंबे समय से परेशान कर रहा था. लड़की उससे कोई रिश्ता नहीं रखना चाहती थी लेकिन युवक लगातार उसका पीछे कर रहा था. जब युवती ने उसे ब्लॉक किया तो लड़के ने डीप फेक की मदद से उसके अश्लील वीडियो बनाए और वायरल कर दिया. ऐसा ही एक अन्य महिला एक साथ हुआ जहां शादी हो जाने के बाद उसके एक्स ने भी उसकी अश्लील वीडियो और तस्वीर आर्टिफिशियल इंटेलिजेंस से बनाकर वायरल कर दी थी.
अगर आप इस तरह की घटनाओं से बचना चाहते हैं तो सावधानी काफी जरुरी है. अपने सोशल मीडिया को बेहद सुरक्षित रखें. किसी अंजाम को उसमें ना जोड़ें. साथ ही सोशल मीडिया अकाउंट लॉक रखें. अगर आपके साथ डीप फेक की कोई घटना घटती है तो साइबर सेल में तुरंत इसकी जानकारी दें. साइबर एक्सपर्ट्स के मुताबिक़, छह महीने के अंदर उन्हें ऐसे तीस से अधिक ऐप का पता चला है जो इस तरह की तस्वीरें बनाने में मदद करती है. इन्हें गूगल ने भी बैन कर दिया है.