Sztuczna inteligencja potęguje zagrożenia informacyjne. Coraz częściej bywa jednak wykorzystywana w walce z takimi zjawiskami

Sztuczna inteligencja potęguje zagrożenia informacyjne. Coraz częściej bywa jednak wykorzystywana w walce z takimi zjawiskami

Od lipca 2024 roku do grudnia 2025 roku doszło do co najmniej 15 poważnych kryzysów na świecie, w których wystąpiły zagrożenia informacyjne związane ze sztuczną inteligencją. Chodzi m.in. o deepfejki, sieci botów czy ataki zatruwające dane, które wykorzystywano do szkolenia modeli AI. Tak wynika z raportu „Adding Fuel to the Fire: AI Information Threats and Crisis Events” brytyjskiego Instytutu Alana Turinga. Takie narzędzia mają potencjał do zakłócania procesów wyborczych, choć do tej pory głównie dezorientowały wyborców. Paradoksalnie w przeciwdziałaniu takim zjawiskom także sprawdzają się narzędzia AI.

O wykorzystaniu sztucznej inteligencji zarówno do operacji wpływu, dezinformacji i zakłócania procesów wyborczych, jak i do walki z tymi zjawiskami przedstawiciele rządu, organizacji pozarządowych i środowiska akademickiego rozmawiali w ubiegłym tygodniu podczas okrągłego stołu w Ambasadzie Brytyjskiej w Warszawie.

– Sztuczna inteligencja jest często wykorzystywana do manipulowania opinią publiczną za pomocą tzw. deepfejków. Są to bardzo realistyczne, ale w całości wygenerowane przez AI filmy, obrazy, a nawet nagrania audio. Ich celem jest przedstawienie ludzi robiących coś, czego w rzeczywistości nie zrobili, a co często jest kompromitujące lub szkodzi ich reputacji – mówi agencji Newseria Sam Stockwell, badacz Centre for Emerging Technology and Security (CETaS) w Instytucie Alana Turinga, jeden z uczestników debaty.

AI szczególnie niebezpieczna w czasach kryzysu

Raport opublikowany przez CETaS rzuca nowe światło na to, w jaki sposób rosnąca popularność chatbotów opartych na AI w infrastrukturze cyfrowej, jak również łatwość dostępu do generatorów treści opartych na sztucznej inteligencji stwarzają poważne zagrożenia w następstwie wydarzeń kryzysowych. Badacze podkreślili, że między lipcem 2024 roku a grudniem 2025 roku doszło do co najmniej 15 poważnych kryzysów na świecie, w których wystąpiły zagrożenia informacyjne związane ze sztuczną inteligencją. Do działań dezinformacyjnych wykorzystywano deepfejki, które miały na celu rozpowszechnianie fałszywych narracji i szkodliwych teorii spiskowych, a także promowanie przemocy.

– Przykładowo widzieliśmy wiele przypadków, w których deepfejki były wymierzone w polityków w czasie kampanii wyborczej. Próbowały pokazać ich w sytuacjach, które się naprawdę nie wydarzyły. Oczywiście ma to na celu przekonanie ludzi, że są to osoby niegodne zaufania i naszego głosu – podkreśla Sam Stockwell.

Brytyjscy naukowcy w swoim raporcie podkreślają, że narzędzia AI mogą również stanowić systemowe zagrożenie dla działania systemu demokratycznego. Poprzednie badania CETaS dotyczące wyborów w Wielkiej Brytanii, Unii Europejskiej i Francji w czerwcu i lipcu 2024 roku wykazały, że wykorzystanie AI w kampaniach wyborczych miało niepokojący wpływ na zanieczyszczanie przestrzeni informacyjnej online, zacieranie granic między prawdą a fikcją oraz podżeganie do nękania kandydatów politycznych.

– Jak dotąd nie mamy dowodów, że AI wpływała na wyniki wyborów bezpośrednio. Nie obserwowaliśmy jeszcze aż tak dużych ilości treści generowanych przez AI, których celem byłoby wpływanie na postawy społeczne. Na przykład w wyborach europejskich tylko około 4–5 proc. całej dezinformacji pochodziło z narzędzi AI. Jednocześnie widać, że AI powoduje rosnącą dezorientację co do tego, czemu można ufać w internecie – tłumaczy badacz z CETaS.

Wystarczy pojedynczy deepfake

Już w 2023 roku AI wykorzystywano do tworzenia podziałów, w tym w związku z obchodami Dnia Pamięci w Wielkiej Brytanii. W obliczu narastających napięć wokół dużego protestu propalestyńskiego zaplanowanego na ten sam okres burmistrz Londynu Sadiq Khan padł ofiarą deepfejka. Fałszywie sugerował on, że krytykuje on wydarzenie i opowiada się za propalestyńskimi marszami.

– Dezinformacja jest dużym problemem w Europie. Oddziałuje na ludzi zarówno w Polsce, jak i w Wielkiej Brytanii. Wspólnie pracujemy nad przygotowaniem przepisów, które mogłyby wypełnić tę lukę i podnieść poziom bezpieczeństwa obywateli. Potrzebujemy lepszych regulacji, ale musimy także współpracować z branżą w ich opracowaniu. Należy przemyśleć, jak najlepiej zastosować te przepisy, aby ludzie mieli dostęp do informacji, których potrzebują. Bez konieczności stykania się z informacjami, które nie są im potrzebne, a wręcz są niebezpieczne albo mają na celu tworzenie podziałów w naszych społeczeństwach – podkreśla Craig Mills, radca-minister w Ambasadzie Brytyjskiej w Warszawie.

– Równolegle do wojny, która toczy się za naszą wschodnią granicą, Polska jest poddawana wielu działaniom, które wykorzystują technologię do tego, żeby wpływać na to, jak rozumiemy świat i jakie informacje są dla nas ważne. To, co przychodzi ze Wschodu, często przyjmuje formę automatycznych komentarzy, farm botów albo generowania treści z wykorzystaniem sztucznej inteligencji. Treści, które nie zawsze są prawdziwe, a czasami celowo mają dezinformować – mówi Jakub Szymik, założyciel Fundacji Obserwatorium Demokracji Cyfrowej.

Prosta droga do społecznej polaryzacji

Cyberprzestępcy manipulują sposobami, w jakie boty AI i platformy mediów społecznościowych przekazują użytkownikom spersonalizowane informacje w czasie rzeczywistym. Sieci botów oparte na sztucznej inteligencji naśladujące ludzkie zachowania i udostępniające treści wchodzą jednocześnie w interakcję z nieświadomymi tego użytkownikami. Wszystko po to, aby wpłynąć na ich postawy po poważnym kryzysie.

– Zagrożenia, jakie to niesie dla Polaków, to jest na pewno polaryzacja społeczna. Jako naród nie dzielimy już wspólnie jednego pola informacyjnego. Każdy z nas może wierzyć w zupełnie inne narracje i informacje, które widzi w swoim telefonie. One są w pełni personalizowane, w związku z tym bardzo trudno ustalić, kto ma dostęp do jakich informacji i jak to wpływa na życie codzienne i relacje z rodziną, a także na wybory społeczne i polityczne – podkreśla Jakub Szymik.

Z unijnego badania mediów społecznościowych przeprowadzonego w czerwcu 2025 roku wynika, że 37 proc. Polaków było zdania, że w ciągu ostatnich siedmiu dni było bardzo często lub często narażonych na dezinformację bądź fałszywe wiadomości. 32 proc. respondentów odpowiedziało, że miało z nimi do czynienia czasami. Tylko 4 proc. było zdania, że nigdy się z nimi nie zetknęło.

Dezinformacja godzi w fundamenty demokracji

Jak potwierdza NASK – Państwowy Instytut Badawczy, dezinformacja stała się narzędziem wykorzystywanym do manipulacji opinią publiczną. Prowadzi do tworzenia się grup, którym coraz trudniej znaleźć wspólny język. Zjawisko to wpływa na nastroje społeczne i służy do osłabiania rywali. Ponadto może zwiększać nieufność obywateli wobec instytucji publicznych i podważać fundamenty demokracji. W dobie rozwoju sztucznej inteligencji narzędzia dezinformacji stają się coraz groźniejsze.

– Zjawisko flooding the zone polega na tym, że dzisiaj można bardzo łatwo i tanio wygenerować dużo informacji, które są nieprawdziwe. Albo pochodzą tylko z jednego źródła. Przykładem tego są sytuacje, gdzie tysiące komentarzy są generowane przez jeden podmiot, który ma na celu zmienić postrzeganie danej kwestii – tłumaczy założyciel Fundacji Obserwatorium Demokracji Cyfrowej. – Zalewanie przestrzeni informacyjnej konkretnymi treściami może mieć formę sfałszowanych zdjęć albo materiałów wideo, które mogą być masowo udostępniane i przekazywane dalej na platformach społecznościowych.

– Ludzie powinni mieć możliwość tworzenia i publikowania treści przy użyciu AI. Ale szczególnie osoby publiczne, politycy i kandydaci, powinny zadbać o to, aby wyraźnie oznaczać takie materiały. W niektórych przypadkach takie treści mają charakter zniesławiający, na przykład polityczny deepfejk atakujący kandydata w trakcie wyborów. Stanowi on bardzo duże zagrożenie dla jego bezpieczeństwa. W takich przypadkach przekraczamy granicę wolności wypowiedzi i kluczowe jest istnienie odpowiednich regulacji umożliwiających szybkie usuwanie szkodliwych treści, zanim wyrządzą realne szkody – uważa Sam Stockwell.

AI jest mieczem obosiecznym

Ekspert zwraca uwagę, że jednocześnie doskonalimy narzędzia AI, które skutecznie walczą z zagrożeniami informacyjnymi. Przykładowo mogą wykrywać konta botów, czyli fałszywe profile udające prawdziwych użytkowników – zautomatyzowane i służące do rozpowszechniania dezinformacji.

– Narzędzia AI okazały się całkiem skuteczne w wykrywaniu takich botów, które następnie mogą być usuwane przez platformy społecznościowe, aby ograniczyć wpływ danej operacji. Takie metody stosowane były m.in. w kontekście wyborów europejskich – tłumaczy ekspert CETaS. – Na przykład w Wielkiej Brytanii, gdzie kilka lat temu doszło do serii gwałtownych zamieszek, badacze byli w stanie wykorzystać AI do ustalenia, gdzie w kraju znajdowały się powiązane z nimi konta. Dzięki temu można było kierować strategiczne kontrnarracje, aby zminimalizować ryzyko dalszej eskalacji przemocy.

Mowa o zamieszkach z lipca 2024 roku w Southport, do których doszło w związku z tragicznymi morderstwami. Wówczas zaczęły się pojawiać niepotwierdzone plotki, według których ich domniemanym sprawcą był muzułmański imigrant. Według badaczy algorytmy mediów społecznościowych i konta wpływowych polityków przyczyniły się do wzmocnienia tych twierdzeń, które ostatecznie okazały się fałszywe.

 Jednym z bardzo ważnych obszarów jest zdolność AI do obalania teorii spiskowych. W jednym przypadku trafiliśmy na narzędzie, które zostało wytrenowane na różnych teoriach spiskowych oraz na skutecznych metodach ich podważania, opartych na eksperymentach i badaniach oraz rozmowach z osobami wierzącymi w te teorie – wyjaśnia Sam Stockwell.

We wrześniu 2024 roku na łamach czasopisma „Science” opublikowano badanie, w którym udział wzięło 2 tys. osób. Dowiodło ono, że niektórzy ludzie zmieniają zdanie, gdy argumenty oparte na faktach są przedstawiane przez chatbota sztucznej inteligencji zamiast przez innego człowieka. Rozmowy te zmniejszyły wiarę w teorie spiskowe średnio o 20 proc.

Przeczytaj także: Rośnie wykorzystanie AI w dezinformacji


Źródło: biznes.newseria.pl

Last Updated on 5 marca, 2026 by Krzysztof Kotlarski

Udostępnij
TAGS