Walka z dezinformacją zależy od platform cyfrowych. Potrzebna modyfikacja algorytmów

Walka z dezinformacją zależy od platform cyfrowych. Potrzebna modyfikacja algorytmów

66 proc. użytkowników mediów społecznościowych w Unii Europejskiej przyznaje, że aktywnie szuka w nich informacji o bieżących wydarzeniach społecznych i politycznych – wynika z badania Eurobarometru „Social Media Survey” przeprowadzonego w czerwcu 2025 roku. Jednocześnie podobny odsetek obywateli UE zetknął się z dezinformacją i fałszywymi wiadomościami w ciągu siedmiu dni przed badaniem. Eksperci alarmują, że do walki z dezinformacją trzeba w większym stopniu włączyć działalność platform cyfrowych. Powinno się to wiązać z modyfikacją algorytmów.

 Musimy rozmontować mechanizmy po stronie technologii, które sprzyjają dezinformacji. Nie możemy traktować jej jak wypadku przy pracy, tylko spójrzmy na fakty. Dezinformacja jest świetnym biznesem dla wielkich platform cyfrowych i jej popularność wynika z zasady działania algorytmów, jak również z tego, jak działa system reklamowy. Oba te systemy – rekomendacji algorytmicznych i reklam – musimy zmodyfikować, naprawić w taki sposób, żeby treści rzetelne, jakościowe były dla ludzi widoczne, a nie te dezinformujące – mówi agencji Newseria Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.

Jak wynika z badania „Postawy Polaków wobec cyberbezpieczeństwa 2025”, przeprowadzonego przez SW Research na zlecenie Warszawskiego Instytutu Bankowości (WIB), 32 proc. ankietowanych wskazało dezinformację i fake newsy jako największe zagrożenie w przestrzeni cyfrowej. Badani deklarują, że wiedzą, jak się bronić przed tymi zjawiskami. 38 proc. twierdzi, że nie traktuje informacji prezentowanych w mediach społecznościowych jako głównego źródła wiedzy. 31 proc. weryfikuje je w różnych źródłach, ale tylko 17 proc. zgłasza lub blokuje treści o wątpliwym pochodzeniu.

Raport WIB wskazuje, że 43 proc. Polaków twierdzi, że sprawdza wiarygodność informacji w przestrzeni cyfrowej. Przy czym 17 proc. z nich weryfikuje je kilkoma różnymi metodami, a 26 proc. tylko w jeden sposób. 45 proc. badanych przyznaje, że robi to nieregularnie i w zależności od źródła.

Dotychczasowe rozwiązania niewystarczające

Platformy cyfrowe argumentują, że już wprowadzają mechanizmy ograniczania dezinformacji, jednak zdaniem ekspertów są one niewystarczające.

 Mamy już od dwóch lat obowiązujący akt o usługach cyfrowych. W tych ramach Unia Europejska ma wiele mechanizmów i może naciskać platformy, żeby korygowały swoje algorytmy. Ma art. 34 i 35 DSA, który pozwala na określanie środków zaradczych, które powinny być wdrażane przez platformy – przypomina Katarzyna Szymielewicz.

Przepisy w ramach aktu o usługach cyfrowych obowiązują od 17 lutego 2024 i muszą przestrzegać ich wszyscy dostawcy usług pośrednich. W tym serwisy społecznościowe, platformy handlu elektronicznego czy hostingodawcy. Celami ich wprowadzenia są m.in.: walka z nielegalnymi treściami w internecie, przeciwdziałanie zagrożeniom społecznym. Ale również zapewnienie większej przejrzystości korzystania z platform społecznościowych.

 Nie chodzi tylko o kary. Chodzi o to, żeby współdziałać z platformami albo zmuszać je, kiedy trzeba, do zmiany logiki działania algorytmów na taką, która służy ludziom, demokracji i społeczeństwu. Nie ma to nic wspólnego z moderacją treści, której słusznie można się obawiać, że jeżeli pojawia się ktoś, kto decyduje o tym, co jest prawdą, a co jest fałszem i moderuje treści, to zaczynamy mówić o cenzurze. Ja takiego podejścia nie proponuję. Proponuję modyfikację algorytmu dla wszystkich w taki sposób, żebyśmy zaczęli ze sobą rozmawiać jako społeczeństwo i jako politycy, a nie oglądać biernie podbijane treści niskiej jakości, które czynią szkodę debacie publicznej – podkreśla prezeska Fundacji Panoptykon.

Treści AI wciąż bez odpowiednich regulacji

Podobne zmiany, jak ocenia ekspertka, powinny dotyczyć treści generowanych przez sztuczną inteligencję.

– Coraz taniej jest produkować treści syntetyczne, sztuczne, które udają coś, czym nie są. Jest to potężny problem dla mediów, ale też jest pokusa, żeby tworzyć taki content, a nie treści dziennikarskie – mówi Katarzyna Szymielewicz. – Takie treści powinny być, zgodnie z regulacją o sztucznej inteligencji, oznaczane przez twórców jako syntetyczne, sztuczne, wykreowane. Platformy mogłyby na podstawie takich oznaczeń traktować je jako gorsze. Nie powinny być wtedy podbijane na równi z treściami wysokiej jakości, z treściami autentycznymi. Jest to kolejne rozwiązanie technologiczne, na które czekam i które wspiera Unię Europejską w Europejskiej Tarczy Demokracji.

Polacy nie ufają AI w mediach

Z badania „Sztuczna inteligencja w mediach” zrealizowanego na zlecenie Krajowej Rady Radiofonii i Telewizji wynika, że ponad 92 proc. ankietowanych wie, że dziennikarze w telewizji, radiu czy internetowych portalach informacyjnych wykorzystują AI. Chociaż odbiorcy dostrzegają jej liczne zalety, to podchodzą z dużą dozą ostrożności do tej technologii w mediach. Dwie trzecie obawia się manipulacji opinią publiczną za pomocą treści tworzonych przez algorytmy. Prawie 45 proc. uważa, że może to wpłynąć na wzrost ryzyka dezinformacji. Blisko 80 proc. respondentów jest zdania, że wykorzystywanie AI może się przyczynić do zmniejszenia rzetelności i prawdziwości przekazu w mediach. Jednocześnie prawie 96 proc. odbiorców oczekuje, żeby materiały tworzone z wykorzystaniem sztucznej inteligencji były wyraźnie oznaczone.

 Musimy wystąpić razem przeciwko traktowaniu nas jak ludzi, którzy nie zasługują na autentyczne, jakościowe treści. Sprzeciwiamy się temu. Im więcej ludzi taki głos wydaje nie klikając w takie treści, tym szybciej osiągniemy cel – ocenia ekspertka. – To, jak dzisiaj działają platformy społecznościowe, jest bardzo niszczące dla społeczności, dialogu i pośrednio również dla procesów demokratycznych, ponieważ one nas polaryzują, wciągają w bańki informacyjne, sprawiają, że coraz bardziej pasywnie przeglądamy treści, nie angażując się w dyskusję. Jeżeli angażujemy się w dyskusję, to jest ona pełna hejtu, sensacji, silnych emocji. W ten sposób nie zbudujemy konsensusu, a konsensus w demokracji jest podstawą jakiejkolwiek decyzji i wyjścia z impasu.

Przeczytaj także: Polskie miasta coraz bardziej inteligentne. Cyfryzacja i technologie ułatwiają życie mieszkańcom i przyciągają inwestorów


Źródło: biznes.newseria.pl

Last Updated on 14 stycznia, 2026 by Krzysztof Kotlarski

Udostępnij
TAGS