Coraz częściej mówi się o ryzyku, że sztuczna inteligencja będzie wykorzystywana do tworzenia propagandy i prowadzenia operacji wpływu. Od Światowego Forum Ekonomicznego po najwyższych decydentów politycznych – te obawy powracają regularnie. Czasem brak im szczegółów, ale przekaz jest jasny: mamy do czynienia z nową zdolnością.
Istotnie, AI świetnie radzi sobie z generowaniem treści i jest niezwykle elastyczna.
Na podstawie moich badań mogę potwierdzić: w pełni autonomiczne „fabryki propagandy” oparte o AI są możliwe do użytku już dziś. Mogą je uruchamiać państwa, firmy, niewielkie zespoły, a nawet pojedyncze osoby w warunkach domowych.

Gdzie naprawdę leży problem
Wbrew niektórym popularnym opiniom zagrożenie nie wynika głównie z dużych, zamkniętych systemów takich jak ChatGPT czy Claude. Modele serwerowe są potężne, ale do długotrwałych i realnych działań się nie nadają – łatwo je wykryć, ograniczyć lub wyłączyć. Dlatego poważnych operacji nie znajdziemy w raportach o cyberzagrożeniach.
Prawdziwą przewagę dają lokalne modele językowe – niewielkie, otwarte systemy, które każdy może pobrać i uruchomić na własnym komputerze. To obniża koszty, usuwa zewnętrzny nadzór lub monitoring i utrudnia obserwację. W moich badaniach sprawdziłem praktyczną wykonalność takich rozwiązań i ich konsekwencje dla obrony i polityki.
Jak to działa?
Systemy wpływu mogą generować dynamiczne treści, przybierając różne „persony”. Mogą to być np. role „skrajnie lewicowe/skrajnie prawicowe”, „mężczyzna/kobieta”, ton „sarkastyczny/protekcjonalny” czy „nastolatek/dorosły” (wiek). Możliwości konfiguracji są nieograniczone. To idealne dla botów i sztucznych kont w mediach społecznościowych czy na forach.
Lokalny model językowy dostaje instrukcję, by pisać jako wybrana persona, czyli zmechanizowana "osoba". Treści trafiają następnie do automatycznego ewaluatora, który ocenia ich jakość. Jeśli przejdą test to zostają opublikowane. Odbiorcy często nie zdają sobie sprawy, że angażują się w rozmowę z syntetycznym bytem, wykorzystywanym do wpływu politycznego czy po prostu do przejmowania ich uwagi.
Moje badania pokazują, że takie persony są stabilne. Potrafią konsekwentnie reprezentować różne ideologie – od konserwatyzmu, progresywizmu i libertarianizmu po socjalizm, feminizm, nacjonalizm, anarchizm czy postawy religijne i antyautorytarne.
Najważniejsze: to nie marka modelu decyduje o jakości treści, lecz skuteczne zaprojektowanie mechaniki persony i stosowanych reguł. Co więcej, w ramach dłuższej dyskusji persona staje się jeszcze bardziej konsekwentna i wyrazista niż w pierwszej odpowiedzi.
Od ręcznego pisania do pełnej automatyzacji
Można to przedstawić jako kontinuum.
- Na jednym końcu jest tryb ręczny – człowiek pisze i publikuje treści, czasem korzystając z AI jako pomocnika. Skala jest ograniczona, a autorstwo łatwe do ustalenia. To takie zwykłe boty i trolle stosowane od lat, wciąż do dziś.
- Pośrodku mamy tryb półautomatyczny: człowiek projektuje treści, AI je generuje, a operator wybiera i planuje publikacje. Prosty kontroler może oceniać szkice i automatycznie wrzucać najlepsze do kolejki, zwiększając tempo i ujednolicając ton.
- Na drugim końcu stoi system w pełni automatyczny. Tutaj maszyna generuje treści, ocenia je, poprawia, planuje publikacje i prowadzi całe wątki rozmów – wszystko bez udziału człowieka. Rolą operatora jest jedynie ustalenie zasad i celów.
System taki składa się z kilku elementów: lokalnego generatora (jednego lub kilku modeli), ewaluatora oceniającego treści, kontrolera koordynującego publikację, pamięci krótkotrwałej do przechowywania kontekstu, harmonogramu publikacji (np. w formie agenta przeglądarkowego) oraz optymalizatora sprawdzającego skuteczność treści. Wszystko działa automatycznie – operator może spokojnie iść spać albo zrobić sobie herbatę i zjeść do tego kawałek sernika.
Co istotne, taki system może działać na zwykłym komputerze z wykorzystaniem otwartych modeli. Nie potrzeba subskrypcji chmurowych ani dostępu do API. Dla zewnętrznych audytorów jest praktycznie niewidoczny, a w dodatku łatwo go skalować do potrzeb profesjonalnych grup prowadzących operacje ofensywne.
Co to oznacza dla obrony i polityki?
Nie możemy traktować pojedynczych postów czy kont jako izolowanych przypadków. Trzeba analizować całe interakcje i rozmowy. To tam kryją się kluczowe sygnały:
- czy postawa zmienia się w trakcie dyskusji,
- czy persona zachowuje spójność mimo zmiany tematu,
- jak regularne są odpowiedzi,
- czy charakterystyczne zwroty nie powtarzają się w odstępach tygodni.
W dłuższych rozmowach głos systemu staje się coraz bardziej jednolity – i to może zdradzać sztuczność.
Kolejnym tropem jest koordynacja. Zautomatyzowane systemy zostawiają ślady: serie niemal równoczesnych odpowiedzi, nienaturalnie regularne godziny publikacji, powtarzalne szablony treści.
Do przypisania odpowiedzialności kluczowa jest infrastruktura. Modele można zmienić w jedno popołudnie, ale infrastruktura – adresy IP serwerów, schematy korzystania z proxy, ślady automatyzacji - jest trwalsza. To właśnie ona łączy działania w czasie i między kontami.
Badania i praktyka potrzebują wspólnych standardów. Powinniśmy dzielić się narzędziami oceny i wskaźnikami, które pozwolą rzetelnie porównywać wyniki. Platformy z kolei powinny – w granicach prawa – przechowywać dane na poziomie całych rozmów, by umożliwić niezależny audyt.
Nie ma sensu koncentrować się wyłącznie na „bezpieczeństwie modeli AI”. Ten etap jest już za nami. Zamknięte modele komercyjne raczej nie będą używane w praktycznych operacjach. Polityka powinna być pragmatyczna: skoro wagi modeli są publicznie dostępne, odgórne zakazy są co najwyżej gestem symbolicznym. Kluczowe jest skupienie się na przejrzystości, audycie i zakłócaniu warstwy koordynacyjnej, gdzie faktycznie buduje się skala działań.
Podsumowanie
Możliwości przesuwają się coraz bardziej na „peryferie”. Otwarte modele to przyszłość propagandy AI – są potężne, łatwo dostępne i trudne do wykrycia. Obrona musi opierać się na solidnej analityce i technikach ujawniających automatyzację, takich jak testy wyzwanie–odpowiedź. Kampanie wpływu nowej generacji będą wyjątkowo trudne do zneutralizowania.
Jeśli rynkowi gracze wypuszczą konwersacyjne boty–persony, to przepisy – takie jak unijna AI Act – wymuszają oznaczanie takich kont jako sztucznych. Ale przeciwnicy, którzy zechcą je wykorzystać do propagandy, oczywiście tego nie zrobią. To państwa, grupy zagrożeń, cyberprzestępcy.
Wiele państw już dziś prowadzi eksperymenty i rozwija takie zdolności. Pierwsze efekty zobaczymy zapewne już w 2026 roku.
Comments is loading...