प्रतीकात्मक फोटो

Loading

पेनसिल्वेनिया: मेटा ने नौ जनवरी, 2024 को घोषणा की कि वह टीनएजर यूजर्स को इंस्टाग्राम और फेसबुक पर कंपनी द्वारा हानिकारक मानी जाने वाली सामग्री को देखने से रोककर उनकी सुरक्षा करेगा। इनमें आत्महत्या और खाने के विकारों से संबंधित सामग्री भी शामिल है। यह कदम ऐसे समय में आया है जब संघीय और राज्य सरकारों ने किशोरों के लिए सुरक्षा उपाय प्रदान करने के लिए सोशल मीडिया कंपनियों पर दबाव बढ़ा दिया है। हम जानते हैं कि कि किशोर समर्थन के लिए सोशल मीडिया पर अपने साथियों की ओर रुख करते हैं, जो उन्हें कहीं और नहीं मिल सकता है।

टीनएजर्स की सुरक्षा के प्रयास अनजाने में उनके लिए सहायता प्राप्त करना कठिन बना सकते हैं। कांग्रेस ने हाल के वर्षों में सोशल मीडिया और युवा लोगों के लिए जोखिमों के बारे में कई बार विचार किया है। मेटा, एक्स – जिसे पहले ट्विटर के नाम से जाना जाता था – टिकटॉक, स्नैप और डिस्कोर्ड के सीईओ नाबालिगों को यौन शोषण से बचाने के अपने प्रयासों के बारे में 31 जनवरी, 2024 को सीनेट न्यायपालिका समिति के समक्ष गवाही देने वाले हैं। समिति के अध्यक्ष और रैंकिंग सदस्य, क्रमशः सीनेटर डिक डर्बिन (डी-इल) और लिंडसे ग्राहम (आर-एस.सी.) ने इस सुनवाई से पहले एक बयान में कहा है कि टेक कंपनियों को ‘‘अंतत: खास तौर से बच्चों को सुरक्षा देने के मामले में अपनी विफलताओं को स्वीकार करने पर मजबूर किया जा रहा है।”

यह भी पढ़ें

मैं एक शोधकर्ता हूं जो ऑनलाइन सुरक्षा का अध्ययन करता हूं। मैं और मेरे सहकर्मी किशोर सोशल मीडिया इंटरैक्शन और उपयोगकर्ताओं की सुरक्षा के लिए प्लेटफ़ॉर्म के प्रयासों की प्रभावशीलता का अध्ययन कर रहे हैं। शोध से पता चलता है कि जहां किशोरों को सोशल मीडिया पर खतरे का सामना करना पड़ता है, वहीं उन्हें साथियों का समर्थन भी मिलता है, खासकर सीधे संदेश के माध्यम से। हमने ऐसे कदमों की पहचान की है जो सोशल मीडिया प्लेटफॉर्म उपयोगकर्ताओं की सुरक्षा के साथ-साथ उनकी ऑनलाइन गोपनीयता और स्वायत्तता की सुरक्षा के लिए भी उठा सकते हैं। बच्चों को क्या झेलना पड़ रहा है

सोशल मीडिया पर टीनएजर्स  के लिए जोखिमों की व्यापकता अच्छी तरह से स्थापित है। ये जोखिम उत्पीड़न और धमकाने से लेकर खराब मानसिक स्वास्थ्य और यौन शोषण तक हैं। जांच से पता चला है कि मेटा जैसी कंपनियों को पता है कि उनके प्लेटफ़ॉर्म मानसिक स्वास्थ्य के मुद्दों को बढ़ाते हैं, जिससे युवाओं के मानसिक स्वास्थ्य को अमेरिकी सर्जन जनरल की प्राथमिकताओं में से एक बनाने में मदद मिलती है। अधिकांश किशोर ऑनलाइन सुरक्षा अनुसंधान सर्वेक्षण जैसे स्व-रिपोर्ट किए गए डेटा से होते हैं। युवाओं की वास्तविक दुनिया की निजी बातचीत और ऑनलाइन जोखिमों पर उनके दृष्टिकोण की अधिक जांच की आवश्यकता है। इस आवश्यकता को पूरा करने के लिए, मैंने और मेरे सहकर्मियों ने युवाओं की इंस्टाग्राम गतिविधि का एक बड़ा डेटासेट एकत्र किया, जिसमें 70 लाख से अधिक प्रत्यक्ष संदेश शामिल थे।

हमने युवाओं से अपनी बातचीत की व्याख्या करने और उन संदेशों की पहचान करने के लिए कहा जो उन्हें असहज या असुरक्षित महसूस कराते हैं। इस डेटासेट का उपयोग करते हुए, हमने पाया कि दैनिक जीवन से लेकर मानसिक स्वास्थ्य संबंधी चिंताओं तक के मुद्दों पर समर्थन चाहने वाले युवाओं के लिए सीधी बातचीत महत्वपूर्ण हो सकती है। हमारी खोज से पता चलता है कि इन चैनलों का उपयोग युवा लोगों द्वारा अपनी सार्वजनिक बातचीत पर अधिक गहराई से चर्चा करने के लिए किया जाता था। सेटिंग्स में आपसी विश्वास के आधार पर, किशोरों ने मदद माँगना सुरक्षित महसूस किया।

शोध से पता चलता है कि ऑनलाइन बातचीत की गोपनीयता युवाओं की ऑनलाइन सुरक्षा में महत्वपूर्ण भूमिका निभाती है और साथ ही इन प्लेटफार्मों पर काफी मात्रा में हानिकारक बातचीत निजी संदेशों के रूप में आती है। हमारे डेटासेट में उपयोगकर्ताओं द्वारा चिह्नित असुरक्षित संदेशों में उत्पीड़न, यौन संदेश, यौन आग्रह, नग्नता, अश्लील साहित्य, घृणास्पद भाषण और अवैध गतिविधियों की बिक्री या प्रचार शामिल है। हालाँकि, किशोरों के लिए ऑनलाइन जोखिमों का पता लगाने और उन्हें रोकने के लिए स्वचालित तकनीक का उपयोग करना अधिक कठिन हो गया है क्योंकि प्लेटफ़ॉर्म पर उपयोगकर्ता की गोपनीयता की रक्षा करने का दबाव डाला गया है।

उदाहरण के लिए, मेटा ने अपने प्लेटफ़ॉर्म पर सभी संदेशों के लिए एंड-टू-एंड एन्क्रिप्शन लागू किया है ताकि यह सुनिश्चित किया जा सके कि संदेश सामग्री सुरक्षित है और केवल बातचीत में भाग लेने वाले ही उस तक पहुंच सकते हैं। इसके अलावा, मेटा ने आत्महत्या और खाने के विकार से संबंधित सामग्री को रोकने के लिए जो कदम उठाए हैं, वह उस सामग्री को सार्वजनिक पोस्ट से दूर रखता है, भले ही किसी किशोर के दोस्त ने उसे पोस्ट किया हो। इसके अलावा, मेटा की सामग्री रणनीति किशोरों द्वारा ऑनलाइन की जाने वाली निजी बातचीत में असुरक्षित बातचीत को संबोधित नहीं करती है। संतुलन बनाना

ऐसे में मुख्य चुनौती युवा उपयोगकर्ताओं की गोपनीयता पर हमला किए बिना उनकी सुरक्षा करना है। इस उद्देश्य से, हमने यह पता लगाने के लिए एक अध्ययन किया कि हम असुरक्षित संदेशों का पता लगाने के लिए न्यूनतम डेटा का उपयोग कैसे कर सकते हैं। हम यह समझना चाहते थे कि जोखिम भरी बातचीत की विभिन्न विशेषताएं या मेटाडेटा जैसे बातचीत की लंबाई, औसत प्रतिक्रिया समय और बातचीत में भाग लेने वालों के रिश्ते इन जोखिमों का पता लगाने वाले मशीन लर्निंग कार्यक्रमों में कैसे योगदान दे सकते हैं। उदाहरण के लिए, पिछले शोध से पता चला है कि जोखिम भरी बातचीत छोटी और एकतरफा होती है, जैसे कि जब अजनबी बातचीत में अवांछित रूप से आगे बढ़ते हैं।

हमने पाया कि हमारा मशीन लर्निंग प्रोग्राम 87% मामलों में बातचीत के लिए केवल मेटाडेटा का उपयोग करके असुरक्षित बातचीत की पहचान करने में सक्षम था। हालाँकि, जोखिम के प्रकार और गंभीरता की पहचान करने के लिए बातचीत के पाठ, छवियों और वीडियो का विश्लेषण करना सबसे प्रभावी तरीका है। ये परिणाम असुरक्षित वार्तालापों को अलग करने के लिए मेटाडेटा के महत्व पर प्रकाश डालते हैं और कृत्रिम बुद्धिमत्ता जोखिम पहचान को डिजाइन करने के लिए प्लेटफार्मों के लिए दिशानिर्देश के रूप में उपयोग किया जा सकता है। प्लेटफ़ॉर्म उस सामग्री को स्कैन किए बिना हानिकारक सामग्री को ब्लॉक करने के लिए मेटाडेटा जैसी उच्च-स्तरीय सुविधाओं का उपयोग कर सकते हैं।

उदाहरण के लिए, एक लगातार उत्पीड़क जिससे एक युवा बचना चाहता है, मेटाडेटा बनाएगा – असंबद्ध उपयोगकर्ताओं के बीच बार-बार, संक्षिप्त, एकतरफा संचार – जिसका उपयोग एआई सिस्टम उत्पीड़क को रोकने के लिए कर सकता है। आदर्श रूप से, युवा लोगों और उनकी देखभाल करने वालों को एन्क्रिप्शन, जोखिम का पता लगाने या दोनों को चालू करने में सक्षम होने का विकल्प दिया जाएगा ताकि वे अपने लिए गोपनीयता और सुरक्षा को लेकर सही विकल्प का चयन कर सकें।





Supply hyperlink

Leave a Reply

Your email address will not be published. Required fields are marked *