Dangerous Technology: विज्ञान फिल्में देखे बिना भी यह समझा जा सकता है कि तकनीक का विकास जितना फायदेमंद है, उतना ही खतरनाक भी हो सकता है. 20वीं सदी से अब तक तकनीक ने मानव जीवन को आसान बनाया है और यही वजह है कि दुनियाभर में तकनीकी निवेश लगातार बढ़ रहा है. लेकिन इसका दूसरा पहलू ये भी है कि अगर इसका गलत इस्तेमाल हुआ तो ये हमारी प्राइवेसी, स्वतंत्रता और नागरिक अधिकारों के लिए खतरा बन सकती है. आइए जानते हैं ऐसी 5 तकनीकों के बारे में जो भविष्य में चिंता का कारण बन सकती हैं.
फेसियल रिकग्निशन (चेहरे की पहचान तकनीक)
चेहरे की पहचान करने वाली यह तकनीक कई जगहों पर सुरक्षा के लिहाज से बेहद उपयोगी है लेकिन इसका दुरुपयोग भी आसानी से किया जा सकता है. उदाहरण के लिए, चीन में इस तकनीक का इस्तेमाल मुस्लिम समुदाय पर नजर रखने और उन्हें नियंत्रित करने के लिए किया जाता है. रूस जैसे देशों में भी सड़कों पर लगे कैमरे “खास लोगों” की पहचान करने में लगे हैं. यह तकनीक हमारी बायोमैट्रिक जानकारी जैसे चेहरा, उंगलियों के निशान और हावभाव को एकत्र करती है. लेकिन चिंता तब बढ़ जाती है जब इन आंकड़ों का इस्तेमाल गैर-कानूनी या अनुचित उद्देश्यों के लिए किया जाए.
स्मार्ट ड्रोन
ड्रोन पहले शौकिया तौर पर मनोरंजन और फोटोग्राफी के लिए इस्तेमाल होते थे. लेकिन अब युद्धक्षेत्र में स्मार्ट ड्रोन का उपयोग हो रहा है, जो अपने आप निर्णय लेकर मिशन को अंजाम दे सकते हैं. हालांकि ये ड्रोन सैन्य कार्यों में तेजी और कुशलता लाते हैं, लेकिन यदि तकनीकी गड़बड़ी हो जाए तो ये निर्दोष लोगों को भी निशाना बना सकते हैं. ऐसे में युद्ध के समय यह तकनीक एक गंभीर खतरा बन सकती है.
एआई क्लोनिंग और डीपफेक
AI की मदद से अब किसी व्यक्ति की आवाज की नकल करना बेहद आसान हो गया है. केवल कुछ सेकंड की आवाज या कुछ तस्वीरें लेकर एआई ऐसा वीडियो बना सकता है जो असली लगे. डीपफेक तकनीक में मशीन लर्निंग और फेस मैपिंग का इस्तेमाल करके ऐसे वीडियो तैयार किए जाते हैं जिनमें व्यक्ति वो बातें करता दिखाई देता है जो उसने कभी कही ही नहीं. यह तकनीक धोखाधड़ी, ब्लैकमेलिंग और अफवाह फैलाने में बेहद खतरनाक साबित हो सकती है.
फेक न्यूज बॉट्स
GROVER जैसे एआई सिस्टम केवल एक हेडलाइन पढ़कर पूरी झूठी खबर बना सकते हैं. OpenAI जैसी संस्थाएं इस तरह के बॉट्स बना चुकी हैं जो दिखने में असली जैसी खबरें तैयार कर सकते हैं. हालांकि इनका कोड सार्वजनिक नहीं किया गया ताकि इसका दुरुपयोग न हो. लेकिन अगर यह तकनीक गलत हाथों में चली गई तो यह लोकतंत्र और सामाजिक स्थिरता के लिए खतरा बन सकती है.
“स्मार्ट डस्ट”
स्मार्ट डस्ट यानी माइक्रोइलेक्ट्रोमैकेनिकल सिस्टम्स (MEMS) इतने छोटे होते हैं कि नमक के कण जितने दिखते हैं. इनमें सेंसर और कैमरे लगे होते हैं जो डेटा रिकॉर्ड कर सकते हैं. स्वास्थ्य और सुरक्षा जैसे क्षेत्रों में इसका उपयोग बेहद लाभकारी हो सकता है लेकिन अगर इसका प्रयोग निगरानी, जासूसी या गैर-कानूनी गतिविधियों में किया गया तो यह व्यक्तिगत गोपनीयता के लिए एक बड़ा खतरा होगा.
यह भी पढ़ें:
अब इंसानों से कम ‘गलतियां’ करता है AI, Anthropic के CEO का बड़ा दावा
Read More at www.abplive.com