AI zwiększa zagrożenia informacyjne, z drugiej strony pomaga też je zwalczać

AI zwiększa zagrożenia informacyjne, z drugiej strony pomaga też je zwalczać

  • Data publikacji: 05.03.2026, 11:14

Sztuczna inteligencja coraz częściej wpływa na przestrzeń informacyjną. Może służyć zarówno do dezinformacji, jak i do jej zwalczania.

 

Raport Alan Turing Institute „Adding Fuel to the Fire: AI Information Threats and Crisis Events” wskazuje, że od lipca 2024 do grudnia 2025 roku odnotowano co najmniej 15 poważnych kryzysów na świecie, w których pojawiły się zagrożenia informacyjne związane z AI.

 

Najczęściej wykorzystywano deepfejki, sieci botów i manipulowanie danymi używanymi do trenowania modeli.

Deepfejki i manipulacja opinią publiczną

Deepfejki to realistyczne materiały wideo, obrazy lub nagrania audio tworzone przez AI. Pokazują osoby robiące lub mówiące coś, czego w rzeczywistości nie zrobiły.

 

Często są wykorzystywane przeciw politykom w czasie kampanii wyborczych. Mają podważyć ich wiarygodność i zaufanie wyborców.

 

Badacze podkreślają jednak, że jak dotąd nie ma dowodów, że AI bezpośrednio zmieniła wynik wyborów. W wyborach europejskich w 2024 roku tylko około 4–5 proc. treści dezinformacyjnych powstało z użyciem AI.

Boty i zalewanie informacji

Jedną z popularnych metod jest tzw. „flooding the zone”. Polega na zalewaniu internetu ogromną liczbą treści.

 

Może to być tysiące komentarzy lub postów generowanych przez jeden podmiot. Często robią to automatyczne konta, czyli boty. Celem jest zmiana percepcji danej sprawy i wywołanie chaosu informacyjnego.

 

Według badań UE z 2025 roku aż 37 proc. Polaków uważa, że bardzo często lub często spotyka się z dezinformacją w internecie.

AI w walce z dezinformacją

Paradoksalnie te same technologie pomagają też w zwalczaniu manipulacji.

 

Algorytmy AI potrafią wykrywać sieci botów w mediach społecznościowych. Platformy mogą wtedy usuwać fałszywe konta i ograniczać zasięg operacji wpływu.

 

AI jest też używana do analizy rozprzestrzeniania się fałszywych informacji i tworzenia tzw. kontrnarracji.

AI może zmniejszać wiarę w teorie spiskowe

Badanie opublikowane w czasopiśmie Science pokazało ciekawy efekt.

 

W eksperymencie z udziałem około 2 tys. osób chatbot AI prowadził rozmowy z ludźmi wierzącymi w teorie spiskowe. Po przedstawieniu faktów ich wiara w takie teorie spadła średnio o 20 proc.

 

To pokazuje, że sztuczna inteligencja może być narzędziem zarówno manipulacji, jak i ochrony przestrzeni informacyjnej. Kluczowe jest to, kto i w jaki sposób jej używa.