Farmy botów, fake newsy, deep fake – to tylko kilka z całej palety narzędzi stosowanych na polu wojny informacyjnej. Jak temu przeciwdziałać, jak zwiększyć świadomość i odporność społeczną na dezinformację? Między innymi o tym debatowali eksperci podczas I Ogólnopolskiej Konferencji Naukowej z cyklu „Cyberbezpieczeństwo i dezinformacja w XXI wieku”.
Na dezinformację oraz manipulowanie nastrojami i świadomością społeczeństwa przeciwnika idą potężne pieniądze, a w zajmujących się tym komórkach pracują tysiące ludzi wykorzystujących najnowocześniejsze technologie. Polska jest szczególnie narażona na działania dezinformacyjne ze Wschodu. Tej tematyce była poświęcona konferencja naukowa pt. „Dezinformacja jako wyzwanie cywilizacyjne i zagrożenie bezpieczeństwa. Przeszłość, teraźniejszość, przyszłość”, która odbyła się w Wyższej Szkole Kształcenia Zawodowego we Wrocławiu.
Prof. dr hab. Włodzimierz Fehler z Uniwersytetu w Siedlcach i Collegium Bobolanum AKW w Warszawie, który wygłosił pierwszy wykład w sesji plenarnej, skupił się na zdefiniowaniu zjawiska i mechanizmach psychospołecznych, które za nim stoją. – Wbrew stereotypom dezinformacja nie polega na produkowaniu wyłącznie fałszywych wiadomości. Często są one prawdziwe, ale tak podawane, by wpasowywać się w sposób myślenia adresatów tych przekazów poprzez odwoływanie się do stereotypów, uprzedzeń i emocji – w sposób na tyle przekonujący, by zmieniać percepcję odbiorców, kształtować ich emocje i postawy – mówił naukowiec.
Dyskretny urok dezinformacji
Ekspert podkreślił, że mechanizmy współczesnej dezinformacji są znacznie bardziej subtelne, a przez to o wiele skuteczniejsze od tradycyjnej propagandy. Dezinformacja w świecie mediów społecznościowych doskonale wpasowuje się w sposób posługiwania się nimi na co dzień. Autorzy treści dezinformujących precyzyjnie adresują je do odbiorców – ludzi, których łączą podobne poglądy i przynależność grupowa. Przekazy te są oparte na mechanizmach psychologicznych, takich jak m.in.: lojalność wobec grupy, poczucie przynależności czy też lęk. Jednym z najskuteczniejszych modeli operacji dezinformacyjnych jest zaś zastraszanie.
– Jeśli ludzie są stale poddani presji różnych katastroficznych, negatywnych przekazów, zaczynają wykazywać większą uległość, zmęczenie i podatność na dezinformację – zaznaczył prof. Fehler i dodał, że siła zmanipulowanego komunikatu tkwi też w jego prostocie. Poprzez nieskomplikowane diagnozy daje on wrażenie wyjaśnienia złożonych procesów społecznych czy politycznych. – Sugeruje, że aby coś zrozumieć, wystarczy krótka notka w serwisie X czy film na YouTube – mówił naukowiec.
Skala strat spowodowanych działaniami dezinformacyjnymi może być potężna. Przy użyciu takich treści można zagrażać wdrażaniu polityk publicznych, podważać fakty, twarde dane naukowe, liczbowe, można także osłabiać morale i poczucie wspólnoty. Za pomocą dezinformacji uderza się też w kwestie bezpieczeństwa, animuje zjawiska geopolityczne. Naukowiec wymienił takie procesy „wspierane” przez dezinformację, jak: brexit, podważanie statusu Ukrainy jako niezależnego państwa czy ruchy separatystyczne w Hiszpanii.
Rosyjski „Sobowtór”
Uczestnicy konferencji szczególny nacisk położyli na mechanizmy i sposób funkcjonowania dezinformacji oraz prowadzenia wojny informacyjnej przez Rosję i sojuszniczą wobec niej Białoruś.
Wykład płk. Pawła Durki, szefa szkolenia z Komendy Głównej Żandarmerii Wojskowej, przedstawiła w jego imieniu Adriana Dróżdż. Na wstępie oficer zaznaczył, że współcześnie dezinformacja jest przede wszystkim tania i szybka. W erze druku wymagała dużych nakładów finansowych, logistyki i czasu. Dziś wystarczy wyprodukowanie np. fałszywego filmiku i nieomal darmowe jego rozpowszechnianie w sieci, co sprawia, że błyskawicznie dociera on do milionów odbiorców. Naukowiec odróżnił także dezinformację od misinformacji. Ten drugi termin oznacza powielanie nieświadomie fałszywych narracji przez ich odbiorców. W takim ujęciu internauta, który nie ma świadomości dezinformacji, może niecelowo stać się jej narzędziem.
Płk Durka w swoim wykładzie wskazał, że głównym kanałem dotarcia z dezinformacją do szerokich mas są media społecznościowe, które pozwalają na tanie rozpowszechnianie fałszywych i zmanipulowanych treści. Niezwykle silnymi obecnie narzędziami dezinformacji są natomiast deep fake i generatywna sztuczna inteligencja, czyli treści audio-wideo bardzo trudno odróżnialne od rzeczywistości. Jest to domena, po którą również szeroko sięga rosyjska propaganda. Jako przykład ekspert podał nagranie wygenerowane w 2022 roku przez AI, przedstawiające prezydenta Zełenskiego, który wzywał do poddania się.
Rosjanie powszechnie wykorzystują też podszywanie się pod rzeczywiście istniejące media – portale internetowe i strony. Chodzi o prowadzoną od 2022 roku w całej Unii Europejskiej, w tym w Polsce, operację „Sobowtór”. Polega ona na rozpowszechnianiu zmanipulowanych treści w szacie graficznej i pod tytułami sugerującymi, że pochodzą one z popularnych tytułów medialnych, portali internetowych itp. – Główny cel tych działań to dyskredytacja wsparcia dla Ukrainy, podważanie wiarygodności NATO i artykułu 5 Sojuszu, rozpowszechnianie przekonania, że Unia Europejska działa przeciw interesom Polski – podkreślał płk Durka.
Swój wykład oficer zakończył kluczowym wnioskiem, że dezinformacja jest dziś zagrożeniem strategicznym na równi z tradycyjną wojną militarną. To element wojny XXI wieku, a Polska jako kraj położony na wschodniej flance NATO jest jej szczególnym celem. Konieczna jest zatem wielopoziomowa obrona informacyjna z zaangażowaniem służb, mediów i świadomych obywateli, którą trzeba budować już teraz.
Kolejny prelegent, ppłk dr Marcin Deja z Akademii Wojsk Lądowych, zwrócił uwagę, że zarówno Rosja, jak i Białoruś, wychodząc od tradycyjnej, sowieckiej propagandy, prowadzą obecnie zaawansowane, długoterminowe i globalne kampanie dezinformacyjne, obliczone na efekt nawet za wiele lat. Wykorzystują do tego praktycznie wszystkie dostępne kanały informacyjne – od oficjalnych komunikatów i wystąpień publicznych, przez media, aż po skoordynowane kampanie z użyciem botów i trolli, natomiast katalog stosowanych narzędzi obejmuje choćby takie elementy, jak pozornie niegroźne, rozrywkowe memy. – Kampania dezinformacyjna, która zaczęła się zaraz po naruszeniu przestrzeni powietrznej Polski przez rosyjskie drony, jak szacujemy, dotarła aż do 8 mln użytkowników Internetu w Polsce. To pokazuje skalę i sprawność rosyjskich mechanizmów rozpowszechniania dezinformacji – mówił ppłk Deja.
Uderzenie w infrastrukturę i w umysły
Dezinformacja, wojna informacyjna i sabotaż idą w parze. Gen. bryg. dr Marcin Żal z Uniwersytetu Rzeszowskiego przedstawił mechanizm powiązania akcji sabotażowych z operacjami dezinformującymi. Jest to popularna metoda działań rosyjskich służb i grup hakerskich. Przykładem może być atak z 2023 roku na Polskie Koleje Państwowe, polegający na zakłócaniu ruchu pociągów przez emitowanie sygnału „stop”. Zaraz za tym do akcji ruszyły rosyjskie boty i trolle, rozpowszechniając treści podważające zaufanie do państwa.
– Atak techniczny, czy też cyberatak, to tylko zapalnik. Prawdziwym celem i efektem strategicznym jest reakcja społeczeństwa oraz utrata zaufania do państwa i jego służb – podkreślał naukowiec. Wskazał również, że od 2022 roku, czyli od początku wojny na Ukrainie, w Europie odnotowano ponad 100 aktów sabotażu – podpaleń i wybuchów, likwidowano też siatki szpiegowskie, odpowiedzialne za takie operacje. Jak zaznaczył, najnowsze badania wskazują, że Rosja wydaje na tego typu działania około 2 mld dolarów rocznie, wspierając destrukcyjne kampanie społeczne, dezinformujące i sieci botów. – W 2024 roku Rosjanie włączyli do zachodnich systemów sztucznej inteligencji 3 mln 600 tys. słabej jakości artykułów, zarażając systemy AI fałszywymi twierdzeniami i propagandą – wyliczał naukowiec.
Deep fake, czyli rewolucja w dezinformacji
O zjawisku deep fake, które wraz z rozwojem sztucznej inteligencji wprowadziło akcje dezinformacyjne na zupełnie nowy poziom, mówiła mgr Gabriela Derehajło z Akademii Sztuki Wojennej. – Tradycyjnie zakładaliśmy do tej pory, że nagranie wideo to dowód prawdy. Dziś to założenie upada. Przez deep fake rozumiemy treści audiowizualne zmanipulowane bądź wykreowane przez sztuczną inteligencję. Przeciętny odbiorca nie jest w stanie zweryfikować ich realności – podkreślała ekspertka.
Mgr Derehajło wskazała, że szczególnie niebezpieczne są procesy takie jak klonowanie głosu, włącznie z barwą i sposobem mówienia, a nawet z typowo popełnianymi pomyłkami. Pozwalają one m.in. omijać zabezpieczenia biometryczne, dominującym kierunkiem tej technologii zaś jest uderzenie w jednostkę poprzez sfałszowanie jej działań, dyfamację itp. Zjawisko deep fake jest groźne również dlatego, że pozwala kwestionować prawdziwe, rzetelne przekazy, przypisując im manipulację za pomocą AI czy nawet całkowite wygenerowanie. Ekspertka również podkreśliła, że obecnie funkcjonujące regulacje prawne są niewystarczające do skutecznego ścigania i karania autorów takich treści.
Jak walczyć z dezinformacją?
Naukowcy byli zgodni co do tego, że kluczem do odporności społeczeństwa na dezinformację jest edukacja. Dr hab. Ilona Urych z Akademii Sztuki Wojennej skupiła się w swoim wystąpieniu na nowej podstawie programowej w szkołach, która zacznie obowiązywać od września 2026 roku. Zakłada ona wprowadzenie zagadnienia dezinformacji w ramach zajęć z przedmiotu edukacja dla bezpieczeństwa. – Chcemy, by w ramach zajęć na tym przedmiocie nauczyciel pracował na realnych przykładach dezinformacji. Ma więc rozpoznawać takie przykłady i umieć je przeanalizować – mówiła ekspertka.
I Ogólnopolską Konferencję Naukową z cyklu „Cyberbezpieczeństwo i dezinformacja w XXI wieku” pt. „Dezinformacja jako wyzwanie cywilizacyjne i zagrożenie bezpieczeństwa. Przeszłość, teraźniejszość, przyszłość” zorganizowała Wyższa Szkoła Kształcenia Zawodowego we Wrocławiu. Patronat honorowy nad wydarzeniem objął wicepremier, minister obrony narodowej Władysław Kosiniak-Kamysz.
autor zdjęć: AdobeStock

komentarze