मेटा र टिकटकद्वारा जानाजानी हानिकारक सामग्री प्रवर्द्धन गरिएको खुलासा

सूचनादाताहरूको दाबी: प्रयोगकर्ताको आक्रोशबाट नाफा हुने देखेपछि लुकाइयो तथ्य

सामाजिक सञ्जालका ठुला कम्पनीहरूले प्रयोगकर्ताको फिडमा जानीजानी हानिकारक सामग्री देखाउने निर्णय गरेको खुलासा भएको छ। कम्पनीहरूको आन्तरिक अनुसन्धानले ‘आक्रोश र नकारात्मकता’ ले प्रयोगकर्ताको संलग्नता बढाउने देखाएपछि यस्तो कदम चालिएको सूचनादाताहरूले बिबिसीलाई बताएका छन्।

एक दर्जनभन्दा बढी सूचनादाता (Whistleblower) र भित्री स्रोतहरूका अनुसार प्रयोगकर्ताको ध्यान तान्ने होडबाजीमा कम्पनीहरूले हिंसा, यौन ब्ल्याकमेल र आतङ्कवाद जस्ता गम्भीर सुरक्षा जोखिमहरूलाई समेत उपेक्षा गरेका छन्।

मेटाका एक इन्जिनियरका अनुसार, टिकटकसँगको तीव्र प्रतिस्पर्धाका बिच कम्पनीको सेयर बजारमा घट्दो मूल्यलाई जोगाउन उच्च व्यवस्थापनले ‘बोर्डरलाइन’ हानिकारक सामग्रीहरूलाई प्रयोगकर्ताको फिडमा बढी स्थान दिन निर्देशन दिएका थिए, जसमा महिला-विरोधी सामग्री र षड्यन्त्रका सिद्धान्तहरू समेत समावेश थिए।

अर्कोतर्फ, टिकटकका एक कर्मचारीले बिबिसीलाई कम्पनीको आन्तरिक प्रमाणहरू देखाउँदै गम्भीर आरोप लगाएका छन् कि त्यहाँ बालबालिकासँग सम्बन्धित हानिकारक पोस्टहरूका रिपोर्टहरूलाई प्राथमिकता दिनुको साटो राजनीतिज्ञहरूसँग सम्बन्धित मुद्दाहरूलाई बढी महत्त्व दिइएको थियो। यस्ता निर्णयहरू प्रयोगकर्ताको सुरक्षालाई ध्यानमा राखेर नभई, राजनीतिक व्यक्तिहरूसँग बलियो सम्बन्ध कायम राख्न र सम्भावित सरकारी नियमन वा प्रतिबन्धबाट बच्ने स्वार्थका साथ गरिएको ती कर्मचारीले दाबी गरेका छन्।

बिबिसीको डकुमेन्ट्री ‘इनसाइड द रेज मेसिन’ मा बोल्ने यी सूचनादाताहरूले टिकटकको तीव्र वृद्धिपछि सामाजिक सञ्जाल उद्योगमा आएको डरलाग्दो परिवर्तनबारे विस्तृत जानकारी दिएका छन्। टिकटकको ‘सर्ट भिडियो’ र उच्च संलग्नता गराउने एल्गोरिदमका कारण अन्य प्रतिद्वन्द्वी कम्पनीहरू पनि प्रयोगकर्तालाई अल्झाइराख्न जस्तोसुकै जोखिम मोल्न बाध्य भएको देखिन्छ।

मेटाका वरिष्ठ अनुसन्धानकर्ता म्याट मोटिलको अनुसार सन् २०२० मा कम्पनीको टिकटक प्रतिस्पर्धी ‘इन्स्टाग्राम रील्स’ मा अपर्याप्त सुरक्षाका साथ लन्च गरिएको थियो। बिबिसीसँग साझा गरिएको आन्तरिक अनुसन्धानले रील्सका कमेन्टहरूमा बुलिङ, उत्पीडन, घृणास्पद भाषण र हिंसा वा उक्साहटको दर इन्स्टाग्रामका अन्य भागहरूभन्दा बढी देखाएको थियो। मोटिलका अनुसार, मेटाले रील्सको वृद्धिका लागि सात सय कर्मचारीमा लगानी गर्‍यो, तर बाल संरक्षणका लागि दुई विशेषज्ञ र चुनावको अखण्डताका लागि दस थप कर्मचारीको मागलाई अस्वीकार गरियो। मोटिलले बिबिसीलाई दर्जनौँ “उच्च-स्तरीय अनुसन्धान दस्ताबेज” उपलब्ध गराए जसले यी प्लेटफर्महरूमा प्रयोगकर्ताहरूमा हुने विभिन्न हानिहरू दर्साउँछन्।

मेटाले आवश्यक सुरक्षा मापदण्डहरू पूरा नगरी इन्स्टाग्राम रील्स सार्वजनिक गरेको म्याट मोटिलको दाबी छ।

मेटाले आवश्यक सुरक्षा मापदण्डहरू पूरा नगरी इन्स्टाग्राम रील्स सार्वजनिक गरेको म्याट मोटिलको दाबी छ।

तीमध्ये फेसबुकको एल्गोरिदमले निम्त्याएका समस्याबारे प्रमाण थियो। एल्गोरिदमले सामग्री निर्माताहरूलाई “दर्शकको हितलाई दाउमा राखेर नाफा बढाउने बाटो” दिन्थ्यो र “हाम्रा एल्गोरिदमले सिर्जना गर्ने आर्थिक प्रोत्साहनहरू विश्वलाई नजिक ल्याउने हाम्रो मिसनसँग मेल खाँदैनन्,” एक आन्तरिक अध्ययनले भनेको थियो। यसले चेतावनी दिएको थियो कि फेसबुक “निष्क्रिय रहेर प्रयोगकर्तालाई फास्ट-फुड खुवाइरहन सक्छ, तर यो दीर्घकालीन हुँदैन।” यी दाबीहरूको जवाफमा मेटाले भन्यो: “हामी जानाजानी नाफाका लागि हानिकारक सामग्री बढवा दिन्छौँ भन्नु गलत हो।” टिकटकले पनि यसलाई “बनावटी दाबी” भन्दै हानिकारक सामग्री रोक्न प्रविधिमा लगानी गरेको बताएको छ।

एल्गोरिदमहरू “ब्ल्याक बक्स” हुन् जसको आन्तरिक कार्य जाँच्न गाह्रो छ, रुओफान डिङले भने, जसले सन् २०२० देखि सन् २०२४ सम्म टिकटकमा मेसिन-लर्निङ इन्जिनियरको रूपमा काम गरे। यस्ता प्रणाली पूर्ण रूपमा सुरक्षित बनाउन कठिन रहेको उनले बताए। “हाम्रो डीप-लर्निङ एल्गोरिदममा पूर्ण नियन्त्रण छैन। हामीलाई सामग्री केवल एउटा आइडी वा नम्बर मात्र हो,” उनले थपे। उनीहरूले सुरक्षा टोलीले हानिकारक पोस्ट हटाउने आशा गर्थे, जसलाई उनले कारको इन्जिन बनाउने र ब्रेक बनाउने टोलीको भिन्नतासँग तुलना गरे।

श्रोत: मेटा आन्तरिक रिपोर्ट

डिङका अनुसार, टिकटकले बजार हिस्सा बढाउन साप्ताहिक रूपमा एल्गोरिदम सुधार्दा उनले बढी “बोर्डरलाइन” वा समस्याग्रस्त सामग्री देख्न थाले। बोर्डरलाइन सामग्री भन्नाले महिला-विरोधी, जातिवादी, यौन विकृति र विसङ्गति र षड्यन्त्रका सिद्धान्त जस्ता हानिकारक तर कानुनी पोस्ट बुझिन्छ। किशोर-किशोरीहरूले बिबिसीलाई बताए कि उनीहरूले यस्ता सामग्री नचाहे पनि एल्गोरिदमले अझै हिंसा र घृणा सिफारिस गरिरहेकै छ।

एक गम्भीर मामिलामा, उन्नाईस वर्षीय कालुमले आफू चौध वर्षको उमेरदेखि “एल्गोरिदमद्वारा कट्टरपन्थी” बनाइएको बताए। एल्गोरिदमले उनलाई आक्रोशित पार्ने सामग्री देखाएर जातिवादी र महिला-विरोधी दृष्टिकोणतर्फ धकेल्यो। “ती भिडियोले मलाई ऊर्जा त दिए, तर गलत तरिकाले। त्यसले मलाई वरपरका मानिसप्रति थप रिसाहा बनायो,” उनले भने। बेलायतका काउन्टर-टेरर प्रहरी विशेषज्ञहरूले हालका महिनाहरूमा यहुदी-विरोधी, जातिवादी र हिंसात्मक पोस्टहरूको “सामान्यीकरण” भएको देखेका छन्। “मानिसहरू वास्तविक संसारको हिंसाप्रति असंवेदनशील बन्दै गएका छन् र आफ्ना उग्र विचार राख्न डराउँदैनन्,” एक अधिकृतले भने।

१४ वर्षको उमेरदेखि नै आफूलाई एल्गोरिदमले कट्टरपन्थतर्फ धकेलेको क्यालमको दाबी छ।

टिकटक डिलिट गर (Delete TikTok)

सन्  २०२५ को केही महिनाको अवधिमा, बिबिसीले टिकटकको ‘ट्रस्ट एन्ड सेफ्टी’ टोलीका एक सदस्यसँग नियमित कुराकानी गर्‍यो, जसलाई हामी निक भन्छौँ। हामीले उनको ल्यापटपमा कम्पनीको आन्तरिक ड्यासबोर्ड हेर्न पायौँ, जसले उनको विशेष टोलीले ह्यान्डल गरिरहेका केसहरू र त्यसमा गरिएको प्रतिक्रियाको विवरण दिएको थियो। “यदि तपाईँलाई जे गर्न निर्देशन दिइएको छ, त्यसका कारण दैनिक रूपमा दोषी महसुस गर्नुहुन्छ भने, कुनै न कुनै बिन्दुमा तपाईँले सत्य बोल्ने निर्णय गर्न सक्नुहुन्छ,” निकले भने।

उनले थपे कि केसहरूको अत्यधिक चापका कारण प्रयोगकर्तालाई सुरक्षित राख्न गाह्रो थियो, जसले किशोर-किशोरी र बालबालिकालाई विशेष जोखिममा पारेको थियो। कर्मचारी कटौती र मडरेशन टोलीहरूको पुनर्गठन—जहाँ केही भूमिकाहरू एआई प्रविधिले प्रतिस्थापन गरिँदै छन्—ले हानिकारक सामग्री प्रभावकारी रूपमा हटाउने कम्पनीको क्षमता सीमित गरेको उनको विचार छ। ह्विसलब्लोअरका अनुसार “आतङ्कवाद, यौन हिंसा, शारीरिक हिंसा, दुरुपयोग र मानव बेचबिखन” सँग जोडिएका सामग्रीहरू बढिरहेका छन्। एपले सिफारिस गर्ने वास्तविकता र हानिकारक सामग्रीविरुद्ध लिइएको कारबाही “कम्पनीले सार्वजनिक रूपमा दाबी गर्ने कुराभन्दा धेरै फरक छ।”

निकले बिबिसीलाई प्रमाण देखाए कि टिकटकले राजनीतिज्ञहरूसँग सम्बन्धित केही सामान्य केसहरूलाई सुरक्षा टोलीबाट समीक्षाका लागि उच्च प्राथमिकता दिएको थियो, जुन बालबालिकासँग सम्बन्धित गम्भीर केसहरूभन्दा बढी थियो। एक उदाहरणमा, कुखुरासँग तुलना गरेर मजाक उडाइएका राजनीतिक व्यक्तिलाई फ्रान्समा साइबर बुलिङको सिकार भएकी सत्र वर्षीय बालिका र इराकमा यौन ब्ल्याकमेलमा परेकी १६ वर्षीय बालिकाको रिपोर्टभन्दा बढी प्राथमिकता दिइयो। इराकको मामिलाबारे उनले भने: “यो नाबालिग र यौन ब्ल्याकमेलसँग सम्बन्धित उच्च जोखिमको केस हो, तर यहाँ प्राथमिकता र तत्परता उच्च छैन।”

निकले आतङ्ककारी समूहमा सामेल हुन प्रोत्साहन गर्ने पोस्टहरूलाई पनि शीर्ष प्राथमिकता नदिइएको उदाहरण देखाए। जब सेफ्टी टोलीले युवाका केसहरूलाई राजनीतिक केसभन्दा प्राथमिकता दिन माग गर्‍यो, उनीहरूलाई दिइएको क्रमबद्ध (Ranking) अनुसार नै काम गर्न भनियो। निकको विचारमा प्राथमिकताको कारण यो हो कि कम्पनी बालबालिकाको सुरक्षाभन्दा राजनीतिज्ञहरूसँग “बलियो सम्बन्ध” राख्न चाहन्छ, ताकि व्यवसायलाई हानि पुर्‍याउने प्रतिबन्धबाट बच्न सकियोस्। जब कर्मचारीले यी चिन्ता व्यवस्थापनसँग उठाए, उनीहरूले यसलाई स्वीकार गरेनन् किनकि उनीहरू दैनिक रूपमा यस्ता सामग्रीको सम्पर्कमा हुँदैनन्।

बालबालिकासँग जोडिएका कतिपय संवेदनशील घटनाहरूलाई टिकटकको आन्तरिक ड्यासबोर्डमा कम प्राथमिकता (P2) दिइएको बीबीसीको प्रस्तुतिले खुलासा गरेको छ।

ती कर्मचारीको अभिभावकहरूलाई स्पष्ट सल्लाह छ: “टिकटक डिलिट गर्नुहोस् र बालबालिकालाई सकेसम्म लामो समयसम्म यसबाट टाढा राख्नुहोस्।” टिकटकले राजनीतिक सामग्रीलाई युवाको सुरक्षाभन्दा प्राथमिकता दिइन्छ भन्ने कुरालाई अस्वीकार गर्दै यो दाबीले “मडरेशन प्रणालीलाई गलत रूपमा चित्रण गरेको” बताएको छ। टिकटकका अनुसार निकको टोली व्यापक सुरक्षा प्रणालीको एक भाग मात्र हो र विशेष वर्कफ्लोले बाल सुरक्षाका केसहरूलाई कम प्राथमिकता दिँदैन, किनकि ती समर्पित टोलीहरूले समानान्तर रूपमा ह्यान्डल गर्छन्।

टिकटकका प्रवक्ताले आलोचनाहरूले “लाखौँलाई नयाँ रुचि र समुदाय खोज्न मद्दत गर्ने वास्तविकतालाई बेवास्ता गरेको” बताए। कम्पनीका अनुसार किशोर खाताहरूमा पचास भन्दा बढी पूर्व-निर्धारित सुरक्षा सुविधाहरू छन् जुन स्वचालित रूपमा चल्छन्। यसले हानिकारक सामग्री रोक्ने प्रविधिमा लगानी गरेको, कडा सिफारिस नीति कायम राखेको र प्रयोगकर्तालाई आफ्नो अनुभव अनुकूलित गर्ने सुविधा दिएको दाबी गरेको छ।

पछाडि नपर्नका लागि जे पनि गर्नु (Do whatever we can to catch up)

सन् २०२० मा कोभिड महामारीका बेला टिकटकले विश्वभर तहसनहस मच्चाइरहेका बेला इन्स्टाग्राममा ‘रील्स’ लन्च गरियो। यससँगै सामाजिक सञ्जालको एल्गोरिदम हतियार दौड थप तीव्र बन्यो। सन् २०२१ देखि फेसबुक र यसको उत्तराधिकारी मेटामा वरिष्ठ अनुसन्धानकर्ताको रूपमा कार्यरत म्याट मोटिलका अनुसार, यो टिकटकको “अद्वितीय उत्पादन” लाई “नक्कल” गर्ने कम्पनीको एउटा ठुलो प्रयास थियो। मोटिलको काम २०१९ देखि २०२३ को बिचमा फिडमा सामग्री कसरी  गरिन्छ भन्ने परीक्षण गर्नका लागि “सयौँ मिलियन मानिसहरूमा ठुला-स्तरीय प्रयोगहरू चलाउनु” थियो, जसका बारेमा प्रायः प्रयोगकर्ताहरूलाई कुनै जानकारी हुँदैनथ्यो।

श्रोत: मेटा आन्तरिक रिपोर्ट

उनले भने, “मेटाका उत्पादनहरू तीन अर्बभन्दा बढी मानिसले प्रयोग गर्छन् र उनीहरूलाई त्यहाँ जति लामो समय राख्न सकिन्छ, त्यति नै बढी विज्ञापन बेचिन्छ र पैसा कमाइन्छ। तर यो कुरा सही ढङ्गले गर्नु अत्यन्तै महत्त्वपूर्ण हुन्छ, किनकि जब सन्तुलन बिग्रिन्छ, धेरै नराम्रा परिणामहरू आउँछन्।” विशेष गरी रील्सको हकमा, प्रयोगकर्तामा पर्ने प्रभावको वास्ता नगरी सकेसम्म छिटो अघि बढ्ने नीति लिइएको मोटिलले बताए। उनले “मानिसहरूलाई हानिकारक सामग्रीबाट जोगाउने प्रयास र प्रयोगकर्ताको संलग्नता (Engagement) बढाउने होडबाजीबिच सधैँ एउटा ट्रेड-अफ वा सम्झौता हुने गरेको” खुलासा गरे।

मोटिलले साझा गरेको एउटा आन्तरिक अनुसन्धान पत्रअनुसार, रील्स लन्च भएपछि मेटाले सम्भावित हानि रोक्न निकै सङ्घर्ष गर्नु परेको थियो। उक्त प्रतिवेदनले मुख्य इन्स्टाग्राम फिडको तुलनामा रील्समा हानिकारक कमेन्टहरूको दर निकै उच्च रहेको देखाएको थियो: बुलिङ र उत्पीडनमा पचहत्तर प्रतिशत, घृणास्पद भाषण (Hate Speech) मा उन्नाईस प्रतिशत, र हिंसा तथा उक्साहटमा सात प्रतिशत बढी दर देखिएको थियो। उनले त्यहाँ “शक्ति सन्तुलनको अभाव” रहेको बताए, किनकि सुरक्षा टोलीले कुनै पनि सुरक्षा सुधार लागू गर्न रील्स जिम्मेवार टोलीको अनुमति लिनुपर्थ्यो। रील्स कर्मचारीहरूलाई “विषाक्त सामग्रीले गैर-विषाक्तभन्दा बढी संलग्नता दिन्छ” भन्ने कुराले प्रोत्साहन गरिरहेको मोटिलको दाबी छ।

मार्क जुकरबर्ग प्रतिस्पर्धालाई लिएर निकै त्रसित र शंकालु स्वभावका रहेको ब्रान्डन सिल्भरम्यानको दाबी छ।

सन् २०१६ मा फेसबुकले खरिद गरेको ‘क्राउडट्याङ्गल’ का संस्थापक ब्रान्डन सिल्भरम्यानले मार्क जुकरबर्ग “प्रतिस्पर्धाप्रति निकै प्यारानोइड (शङ्कालु)” भएको बताए। “जब उनले प्रतिस्पर्धी शक्ति महसुस गर्छन्, तब कुनै पनि रकम वा साधन पर्याप्त हुँदैन,” सिल्भरम्यानले भने। उनले देखे कि सुरक्षा टोलीले थोरै नयाँ कर्मचारी भर्नाका लागि स्वीकृति पाउन सङ्घर्ष गरिरहँदा रील्स विस्तारका लागि भने सात सय कर्मचारीहरू तत्कालै उपलब्ध गराइएको थियो।

मेटाका अर्का पूर्व इन्जिनियर, जसलाई हामी ‘टिम’ भन्छौँ, ले भने कि टिकटकसँग प्रतिस्पर्धा गर्नकै लागि साइटमा बढी ‘बोर्डरलाइन’ हानिकारक सामग्री अनुमति दिइयो। “तपाईँ टिकटकसँग हारिरहनुभएको छ र त्यसले स्टक मूल्यमा असर पार्छ। मानिसहरू प्रतिक्रियाशील बने र क्याच-अप गर्नका लागि जे पनि गर्न तयार भए,” टिमले थपे। उनले दाबी गरे कि सम्भावित हानिकारक तर कानुनी सामग्रीलाई सीमित गर्न रोक्ने निर्णय मेटाका वरिष्ठ उपाध्यक्षले गरेका थिए, जो सिधै जुकरबर्गलाई रिपोर्ट गर्थे।

फेसबुकले “हामी समाजको ऐना मात्र हौँ” भन्दै पन्छिन खोजे पनि मोटिलले साझा गरेका दस्ताबेजहरूले कम्पनीलाई थाहा थियो कि उसले आक्रोश र हानि उक्साउने सामग्रीलाई बढाइरहेको छ। दस्ताबेज अनुसार नैतिक विश्वास वा हिंसासँग जोडिएका संवेदनशील सामग्रीले बढी प्रतिक्रिया र संलग्नता निम्त्याउँछन्। सिल्भरम्यानका अनुसार, मेटाको नेतृत्व सुरुमा यस्ता विषाक्त सामग्रीप्रति कसरी प्रतिक्रिया दिने भन्नेमा अन्योलमा थियो, तर पछि उनीहरू “हामी समाजको ध्रुवीकरणका लागि जिम्मेवार छैनौँ” भन्दै प्रतिरक्षात्मक बने।

श्रोत: मेटा आन्तरिक रिपोर्ट

मेटाका प्रवक्ताले भने यी सबै दाबीहरूलाई अस्वीकार गरेका छन्। प्रवक्ताले भने, “हामीसँग हाम्रा प्लेटफर्महरूमा प्रयोगकर्तालाई जोगाउन कडा नीतिहरू छन् र विगत दशकमा सुरक्षाका क्षेत्रमा ठुलो लगानी गरेका छौँ।” कम्पनीले किशोरहरूको सुरक्षाका लागि ‘टिन एकाउन्ट्स’ जस्ता नयाँ सुविधाहरू ल्याएको र अभिभावकहरूलाई नियन्त्रणका उपकरणहरू प्रदान गरेको दाबी गरेको छ।

लेखक – सामाजिक सञ्जाल अनुसन्धान संवाददाता मारियाना स्प्रिङ  र माइक रेडफोर्ड  (रोबर्ट फारक्वाहर, डेजी बाटा र एज रोबर्ट्सको थप रिपोर्टिङ सहित)

श्रोत: बिबिसी

श्रोत: आइएनएस-स्वतन्त्र समाचार

Independent News Service (INS)

सम्पर्क
आदर्श मार्ग, थापाथली, काठमाडौ
इमेल : freedomnews2022@gmail.com

सोसल मिडिया

© 2021 Freedom News Service Pvt Ltd. All rights reserved

Copy link