क्या है (AI)आर्टिफिशियल इंटेलिजेंस ? इससे किस तरीके का खतरा है जानिए संक्षेप में !!

आर्टिफिशियल इंटेलिजेंस की शुरुआत 1950 के अमेरिका में हुई थी, इसका अर्थ है बनावटी तरीके से बनाई गई बौद्धिक क्षमता, इसका कार्य रोबोटिक सिस्टम को मानव मस्तिष्क जैसा कार्य करना है ChatGPT ने आर्टिफिशियल इंटेलिजेंस की काबिलियत को स्पष्ट कर दिया है यह बेसिक कमांड समझने से काफी आगे बाद गया है, यह इनफॉर्मेशन जनरेट करने से लेकर समस्याएं भी सुलझा सकता है आने बाले समय में AI सिक्योरिटी को लेकर बहुत बड़ा खतरा बन सकता है इस बीच AI के एक्सपर्ट ने खतरे की चिंता जताई है,एक्सपर्ट्स का मानना है कि इसका गलत इस्तेमाल भी किया जा सकता है। एप्पल के को फाउंडर स्टीव वोजनियाक व विश्व प्रसिद्ध एलन मस्क एवं कई दिग्गजो समेत एडवांस आर्टिफिशियल इंटेलिजेंस पर रोक लगाने की मांग की है इनका मानना है की AI को लेकर बड़े प्रोटोकॉल बनाने चाहिए वहीं Joe Biden ने भी AI को ले कर चिंता जताई।

DeepFake से कई रिश्तों में आई दरार :–

 बच्चो को बचपन से अभद्र भाषा व चलचित्र प्रचलन करना बहुत ही आसान भाषा में कहें तो डीपफेक एक एडिटेड वीडियो होता है जिसमें किसी अन्य के चेहरे को किसी अन्य के चेहरे से बदल दिया जाता है। डीपफेक वीडियोज इतने सटीक होते हैं कि आप इन्हें आसानी से पहचान नहीं सकते। आप रश्मिका मंदाना के वीडियो को देख सकते हैं। यदि जारा पटेल का असली वीडियो सामने नहीं आता तो कोई भी यकीन कर लेता कि यह वीडियो रश्मिका का ही है। किसी भी इंसान का डीपफेक वीडियो बनाया जा सकता है।

हाल ही में भारत के प्रधान मंत्री ने DeepFake AI को लेकर चिंता जताई और जानिए क्या कहा –

“ये AI और Deep Fake एक गंभीर मसला होने बाला है। मैंने एक वीडियो देखा, जिसमे में घर में बैठकर गरबा गा रहा था। मैंने सोचा कि क्या बढ़िया गा रहा है।लेकिन में सच में नहीं गा रहा था, मैंने स्कूल की पढ़ाई खत्म करने के बाद कभी गया ही नहीं।”

Deepfake से बचने के लिए सोशल मीडिया नेटवर्क से अपनी DP हटा लें या अपनी प्रोफाइल प्राइवेट करले यह एक अच्छा तरीका इस AI से बचने का।

AI Chatbot यह किसी टॉपिक की जानकारी इंसानों से कम समय में एक लम्बी–चौड़ी लिस्ट बनाकर आपको देगा हैकर इसका गलत प्रयोग कर सकते हैं जिसका प्रभाव सोशल मीडिया प्लेटफॉर्म पर पड़ेगा जो की हमे गलत जानकारी या सूचना दे सकता है।

Leave a Reply

Your email address will not be published. Required fields are marked *