Meta i TikTok: Wyścig algorytmów kosztem bezpieczeństwa
Najnowsze dochodzenie BBC pt. „Inside the Rage Machine” ujawnia mroczne kulisy mediów społecznościowych. Ponad tuzin sygnalistów i pracowników gigantów technologicznych opisało szokujące praktyki, jakie rzekomo stosują Meta oraz TikTok. Z ich relacji wynika, że firmy te celowo akceptują szkodliwe treści. Robią to, aby zwiększyć zaangażowanie i walczyć o udziały w rynku.
Reels: Wzrost za wszelką cenę
W 2020 roku firma Meta uruchomiła Instagram Reels. Była to bezpośrednia odpowiedź na sukces TikToka podczas pandemii. Jednakże, według byłego badacza korporacji, Matta Motyla, produkt ten wprowadzono rzekomo bez żadnych wystarczających zabezpieczeń. Motyl udostępnił dziesiątki dokumentów badawczych wykazujących szkodliwość platform. Wewnętrzne dane ujawniły, że komentarze pod Reels miały o 75% wyższy wskaźnik nękania i nienawiści niż w innych sekcjach Instagrama.
Dodatkowo, rzekome podżeganie do agresji było tam o 7% częstsze. Warto dodać, że gigant zainwestował w zespół 700 osób wyłącznie do rozwoju formatu Reels. Jednocześnie zarząd rzekomo odmówił zatrudnienia zaledwie dwóch specjalistów do ochrony dzieci oraz dziesięciu do spraw integralności wyborów. Brandon Silverman, którego narzędzie Crowdtangle zostało przejęte przez Facebooka, twierdzi, że Mark Zuckerberg był „paranoidalny” na punkcie konkurencji. Z tego powodu priorytetem stały się rzekomo zyski, a nie dobrostan użytkowników.
TikTok: Polityka ponad bezpieczeństwem dzieci
Równie niepokojące informacje płyną z wnętrza TikToka od sygnalisty o imieniu Nick. Ujawnił on wewnętrzne pulpity nawigacyjne firmy. Okazuje się, że systemy TikToka rzekomo przyznawały wyższy priorytet sprawom dotyczącym wizerunku polityków niż zgłoszeniom o krzywdzie nieletnich. Przykładowo, incydent z politykiem wyśmiewanym za pomocą mema z kurczakiem otrzymał wyższy priorytet niż zgłoszenia dotyczące szantażu seksualnego wobec 16-latki z Iraku.
Zatem dlaczego dochodziło do takich absurdów? Według doniesień firma dąży do utrzymania „silnych relacji” z rządami. Chce w ten sposób uniknąć zakazów działalności, które uderzyłyby w jej biznes. W rezultacie bezpieczeństwo nieletnich schodzi rzekomo na dalszy plan. Ponadto inżynier Ruofan Ding, budujący silnik rekomendacji TikToka, przyznał, że algorytmy to „czarne skrzynki”. Twierdzi on, że inżynierowie skupiają się na „przyspieszaniu silnika”, zakładając, że inne zespoły dbają o „system hamowania”, czyli bezpieczeństwo.
Mechanizm radykalizacji i desensytyzacji
Szkodliwe działanie platform potwierdzają historie młodych ludzi. 19-letni Calum opisuje, jak od 14. roku życia był rzekomo „radykalizowany przez algorytm”. System podsuwał mu treści budzące gniew i nienawiść. Według dokumentów udostępnionych przez Motyla, Meta rzekomo wiedziała, że jej algorytmy promują „cyfrowy fast-food”. Kontrowersyjne treści budzą silniejsze emocje, co algorytm interpretuje jako sygnał, że użytkownik chce ich więcej.
W związku z tym brytyjska policja antyterrorystyczna ostrzega przed „normalizacją” przemocy i antysemityzmu w sieci. Funkcjonariusze zauważają, że użytkownicy są coraz bardziej desensytyzowani na drastyczne obrazy. Meta oraz TikTok odrzucają te zarzuty. Mimo to, sygnalista z TikToka daje rodzicom brutalną radę: „Usuńcie tę aplikację i trzymajcie dzieci jak najdalej od niej”.
Przeczytaj także: Gawkowski: w ostatnich dniach doszło do nieudanego cyberataku na NCBJ
Opracowanie na podstawie: bbc.com
Last Updated on 16 marca, 2026 by Karolina Bandulet