RBI गवर्नर के नाम पर हो रहा बड़ा फर्जीवाड़ा, केंद्रीय बैंक ने दी चेतावनी

RBI के नाम पर बड़ा फर्जीवाड़ी हो रहा है. RBI के गवर्नर शक्तिकांत दास के डीपफेक वीडियो में यह दावा किया जा रहा है कि RBI ने कुछ इंवेस्टमेंट स्कीम शुरू की हैं, लेकिन असल में RBI ने ऐसा कुछ नहीं किया है.

आरबीआई गवर्नर शक्तिकांत दास Image Credit: PTI

गूगल के अनुसार Deepfake वीडियो के जरिए ठगी के मामले तेजी से बढ़ रहे हैं. किसी बड़े और फेमस आदमी के नाम पर फर्जी का निवेश करवाया जाने लगा है. ऐसे ही भारतीय रिजर्व बैंक यानी RBI के नाम पर भी ठगी हो रही है. 19 नवंबर, मंगलवार को एक RBI ने एक सर्कुलर जारी किया, जिसमें जनता को सोशल मीडिया पर फैल रहे गवर्नर शक्तिकांत दास के डीपफेक वीडियो को लेकर सतर्क रहने को कहा. चलिए आपको बताते हैं सब कुछ.

RBI के गवर्नर शक्तिकांत दास के डीपफेक वीडियो में यह दावा किया जा रहा है कि RBI ने कुछ इंवेस्टमेंट स्कीम शुरू की हैं, लेकिन असल में RBI ने ऐसा कुछ नहीं किया है. इन डीपफेक वीडियो का उद्देश्य लोगों को इन फर्जी इंवेस्टमेंट स्कीम में पैसा लगाने के लिए प्रेरित करना है.

RBI ने किया सतर्क

रिजर्व बैंक ने कहा कि, “भारतीय रिजर्व बैंक के संज्ञान में आया है कि सोशल मीडिया पर गवर्नर के नकली वीडियो प्रसारित किए जा रहे हैं, जो यह दावा कर रहे हैं कि आरबीआई ने कुछ निवेश योजनाएं शुरू की हैं या उनका समर्थन किया है. इन वीडियो का मकसद लोगों को ऐसी फर्जी योजनाओं में पैसा लगाने की सलाह देना है. यह टेक्नोलॉजी का गलत इस्तेमाल करके किया जा रहा है.”

RBI ने स्पष्ट किया कि RBI या उसके कोई भी अधिकारी इन गतिविधियों में शामिल नहीं हैं. सोशल मीडिया पर प्रसारित हो रहे ये वीडियो पूरी तरह से फर्जी हैं. RBI या उसके अधिकारी किसी भी ऐसी गतिविधियों में शामिल नहीं हैं ना ही कोई वित्तीय निवेश की सलाह देता है.

  • RBI ने जनता को सतर्क रहने और ऐसे पोस्ट या वीडियो के झांसे में न आने की सलाह दी है.
  • यह कदम निवेशकों को इन डीपफेक वीडियो के जाल में फंसने से बचाने के लिए उठाया गया है.
  • RBI ने जनता को सोशल मीडिया पर ऐसे फर्जी दावों से सावधान रहने और उनसे बचने का अनुरोध किया है.

यह भी पढ़ें: इन पांच तरीकों से हो रही सबसे ज्यादा धोखाधड़ी, Google ने बताया बचने का तरीका

क्या होता है डीपफेक वीडियो?

डीपफेक वीडियो दरअसल फोटो और ऑडियो को मिला कर बनाया जाता है. इन्हें आर्टिफिशियल इंटेलिजेंस (AI) की मदद से एडिट किया जाता है. इनका उद्देश्य असली या काल्पनिक लोगों की नकली तस्वीरें, वीडियो या ऑडियो बनाकर सोशल मीडिया पर फैलाना होता है.

डीपफेक शब्द “डीप लर्निंग” से आया है, जिसका मतलब AI टेक्नोलॉजी का इस्तेमाल करके फर्जी कंटेंट बनाना है. इसमें किसी व्यक्ति के चेहरे को बदलकर, किसी अन्य व्यक्ति के चेहरे पर मैपिंग करना या ऑडियो में बदलाव करना शामिल होता है. AI के मॉडर्न होने के साथ, डीपफेक और असली वीडियो के बीच का अंतर समझ पाना मुश्किल हो गया है.