Łukasz Olejnik

Bezpieczeństwo, cyberbezpieczeństwo, prywatność, ochrona danych

Analiza wytycznych Unii Europejskiej o ingerencjach w wybory. Czy w 2024 grozi nam ofensywa propagandy cyfrowej?


Nie ma wątpliwości, że dezinformacja, propaganda i manipulacja informacyjna zagrażają procesowi wyborczemu. Coraz większe przenoszenie interakcji społecznych do internetu tworzy pewne punkty słabości. Rozwój techniczny, taki jak generatywna sztuczna inteligencja i możliwość dotarcia do szerokiego grona odbiorców, tylko pomaga w tworzeniu cyfrowej propagandy. Poświęciłem temu książkę “PROPAGANDA”. Na szczęście nie jesteśmy skazani na zagładę. Podstawowa higiena konsumpcji informacji medialnych może być pomocna. Pomaga zwłaszcza zmiana konsumpcji informacji medialnych slow-news, np. unikanieśledzenia rozwoju wydarzeń w cyklach minuta-po-minucie lub godzina-po-godzinie. Większość wiadomości nie jest tak naprawdę pilna ani ważna. Ograniczenie impulsywnego konsumowania mediów społecznościowych może zmniejszyć ryzyko podatności na propagandę. No dobra, a teraz bądźmy poważni, bo i tak mało kto, albo nikt by tego nie zrobił.

UE na ratunek?

Komisja Europejska opublikowała nowe wytyczne dotyczące ochrony wyborów online. W przeciwieństwie do w dużej mierze zapobiegawczych i nieadekwatnych zaleceń z nieproporcjonalnymi obawami przed deepfake'ami w 2018 r., tym razem wytyczne są w pewnym stopniu nawet prawnie wiążące: oparte na akcie o usługach cyfrowych. Tym razem wymogi prawne są skierowane do bardzo dużych platform internetowych (VLOP) i bardzo dużych wyszukiwarek internetowych. To znaczy - do dużych dostawców usług technologicznych/informatycznych, takich jak komunikacja w mediach społecznościowych. Google, Facebook, Instagram, TikTok itp. "Zgodnie z art. 35 ust. 3 rozporządzenia (UE) 2022/2065 Komisja może wydać wytyczne w sprawie środków ograniczających ryzyko...". I tak się stało. Są one prawnie wiążące. Naruszenia mogą oznaczać wysokie grzywny (6% obrotu, czyli miliardy euro). Dlaczego wytyczne zostały wydane właśnie teraz? Ze względu na "dużą liczbę wyborów odbywających się w UE w 2024 r.", w tym czerwcowe wybory do Parlamentu Europejskiego. Mimo że instytucje Unii Europejskiej w Brukseli w 2024 roku stanęły przed wieloma wyzwaniami off-line, takimi jak obornik i gnojówka przed siedzibą Komisji Europejskiej:

https://twitter.com/clashreport/status/1772694812388413587

Czy operacje propagandowe lub dezinformacyjne są prawdopodobne podczas wyborów w 2014 roku?

W 2018 roku argumentowałem, że skoordynowane ryzyko kampanii wpływu na wybory europejskie były bardzo ograniczone. I zgadnijcie co – miałem rację. Nawet komisarz europejski przyznał później, być może ku swemu kiepsko skrywanemu rozczarowaniu, że w tamtych wyborach nie było żadnej znaczącej dezinformacji.  Wybory takie były naturalnie chronione przez samą ich konstrukcję: odbywają się w 27 państwach w tym samym czasie, często w różnych językach i z uwzględnieniem lokalnych różnic (takich jak kultura, język i wydarzenia wewnętrzne, sytuacja krajowa). Tym razem jest inaczej. Różnice są technologiczne i polityczne.

Kąt ryzyka technologicznego

Technologiczny wymiar tej jakościowej zmiany zawdzięczamy sztucznej inteligencji, a dokładniej - dużym modelom językowym. Duże modele językowe mogą szybko tworzyć mnóstwo treści propagandowych i bez wysiłku tłumaczyć je na wiele języków w locie. Zademonstrowałem to w książce “PROPAGANDA”, oraz opisałem jak stworzyć cały strumień do mechanizacji tworzenia propagandy. Problemem jest dostarczenie treści, dlatego ta ostatnia linia obrony jest teraz tak ważna i dlatego VLOPy muszą zająć się tą kwestią - utrzymują potencjalną arenę walki propagandowej, informacyjnej. Podoba im się to, czy też nie.

Kąt ryzyka politycznego

Wymiar polityczny jest również zupełnie inny niż w 2018 roku. Istnieją dziś bowiem sposoby na zjednoczenie wspólnych obaw, znalezienie związków i tematów dotykające każdego obywatela każdego państwa UE, to pomimo różnic kulturowych lub językowych. Wynika to z dwóch wydarzeń i faktów. Jednym z nich jest wojna na Ukrainie i kontrowersje wyrażane przez coraz większą liczbę (wciąż niewielkich!) środowisk. Drugim punktem ryzyka jest Zielony Ład, a konkretnie rosnąca wrogość wobec reklamowanych przez Komisję Europejską zmian stylu życia i wiążących się ze zmianami wzrostu jego kosztów, wyrażona w masowych ogólnoeuropejskich protestach rolników w 2024 r., Popieranych przez zdecydowaną większość społeczeństw w wielu państwach członkowskich UE (więc nie chodzi tylko o rolników), ponad 70% w Polsce.

Oznacza to, że dwie z tych kwestii, geopolityczna (Rosja-Ukraina) i zmiany stylu życia (Zielony Ład), są dwoma konkretnymi słabościami Unii Europejskiej. Ich wykorzystanie informacyjne jest możliwe, a do pewnego stopnia nawet prawdopodobne. Co więcej, tematy te zostaną na pewno podjęte przez legalnie działające partie polityczne w Polsce i w Europie, co zwiększy trudności w zwalczaniu tak zwanych "nielegalnych wpływów". Ponieważ, z definicji, gdy wypowiedzi polityczne są wyrażane przez legalne ruchy polityczne w UE, to nie są one nielegalne. W dodatku Europejski Trybunał Praw Człowieka gwarantuje niezwykle wysoki poziom wolności wypowiedzi jeśli chodzi o treści polityczne. Innymi słowy, będą to zagrożenia związane z identyfikacją faktycznych nadużyć lub nadużyć w kampaniach, z koniecznością dostosowania ich do tego, co jest zgodne z prawem, aby uniknąć postrzegania dużych platform technologicznych jako sprzymierzających się z niektórymi konkretnymi siłami politycznymi i na przykład cenzurujących wypowiedzi polityczne innych, co może być nawet postrzegane jako powód do kwestionowania ważności wyniku wyborów, w tym pod względem prawnym. Poruszanie się w tej sytuacji będzie niezwykle trudne i wykracza znacznie poza sferę technologiczną. Nie mogłem jednak nie zwrócić uwagi na te kwestie. Jeśli masz wątpliwości - wróć tutaj przeczytać tę analizę w maju 2024.

Czy nowe wytyczne Komisji Europejskiej uwzględniają te dwa obiektywne i najbardziej prawdopodobne punkty ryzyka w wyborach w 2024 roku?

Nie.

Ale zamiast tego skupiają się na innych kwestiach, również istotnych. Przejdźmy więc teraz do nich.

Platformy jako przestrzeń debaty polityczno-społecznej

Po pierwsze, wytyczne słusznie przyznają, że "platformy internetowe i wyszukiwarki stały się ważnymi miejscami debaty publicznej oraz kształtowania opinii publicznej i zachowań wyborców". Uwzględniają one kwestie "podwyższonego ryzyka dla integralności wyborów". Podkreśla się jednak, że wszelkie środki "wolność wypowiedzi i informacji". Jak już zaznaczyłem, ma to kluczowe znaczenie dla legalności procesu wyborczego.

Wytyczne uwzględniają specyfikę krajową, taką jak język, kultura czy debaty: "Należy wzmocnić wewnętrzne procesy, aby zapewnić, że projektowanie i kalibracja środków łagodzących jest odpowiednie dla konkretnego kontekstu regionalnego, lokalnego i językowego". To dobre i przemyślane podejście. Oznacza to, że wszelkie decyzje muszą również uwzględniać kontekst lokalny. Oznacza to, że VLOPy, które chcą należycie przestrzegać wytycznych, powinny prawdopodobnie zatrudnić kilku ludzi w dziedzinie stosunków międzynarodowych, a także nauk politycznych w poszczególnych państwach członkowskich. Powiedzmy, 2-3 osoby (czyli około 50 w każdym VLOP); oczywiście nie muszą to być eksperci - tak będzie taniej.

Nie wspominając o potrzebie posiadania przez dostawców "odpowiednich zasobów do moderowania treści z możliwością posługiwania się językiem lokalnym i znajomością kontekstów i specyfiki krajowej i/lub regionalnej". Jest mało prawdopodobne, aby kilku takich moderatorów przypadających na państwo członkowskie wystarczyło do zarządzania milionami przychodzących wiadomości.

Omówienie najistotniejszych punktów zaleceń

  • Dostarczanie oficjalnych informacji o wyborach lub procesie wyborczym, na przykład w wyskakujących okienkach (popupach) lub banerach. Innymi słowy, Komisja Europejska być może interpretuje ustawę o usługach cyfrowych jako przepisy uzasadniające wymóg zwiększenia frekwencji wyborczej. Czy tak jest i czy jest to rzeczywiście uzasadnione prawnie tekstem DSA, pozostawiam do przeanalizowania innym.
  • Ułatwienie sprawdzania faktów (fact-checking); pomijam tę kwestię ze względu na coraz więcej dowodów naukowych i politycznych wskazujących na ryzyko niewłaściwego użycia i brak faktycznej pomocy w sprawdzaniu faktów i niejasnego wpływu na zapobieganiu problemowi dezinformacji.
  • "Narzędzia i informacje pomagające użytkownikom ocenić wiarygodność źródeł informacji, takie jak znaki zaufania koncentrujące się na integralności źródła". To bardzo trudne do spełnienia zalecenie. Jak ocenić wiarygodność źródła? Jeśli jest to witryna z wiadomościami politycznymi, która jest, powiedzmy, taką wyznającą pewne poglądy polityczne, wspierające jakieś środowiska, może partie polityczne - to nie wszyscy użytkownicy mogą uznać takie "etykiety zaufania" za "zaufane". A jak wtedy postrzegaliby takie źródło wiadomości oznaczone przecież jako "zaufane"? Innymi słowy, może to przynieść odwrotny skutek i taka ewentualność nie została uwzględnioae w zaleceniach. Osoby o odmiennych poglądach mogłyby uznać takie etykiety za inżynierię społeczną (socjotechnikę), a nawet manipulację. Najwyraźniej nie wzięto tego pod uwagę przy opracowywaniu wytycznych, a ten punkt jest jednym z głównych zagrożeń i słabości. A co z pieczęcią poniżej? Wygląda na bardzo zaufaną.

kittensZaufanie2

  • "Ustanowienie środków mających na celu ograniczenie wzmacniania zwodniczych, fałszywych lub wprowadzających w błąd treści generowanych przez sztuczną inteligencję w kontekście wyborów, za pośrednictwem ich systemów rekomendacji". Jest to słuszne zalecenie. To VLOPy mogą walczyć z rozpowszechnianiem takich szkodliwych treści. Muszą tylko najpierw je zidentyfikować, a także rozważyć, kiedy działanie jest uzasadnione. Systemy rekomendujące i moderacja mogą być następnie wykorzystywane do zmniejszania popularności takich treści (usuwania ich promocji), tj. ich cenzurowania.
  • Zalecenie "oznaczania w jasny, wyraźny i jednoznaczny sposób i w czasie rzeczywistym" wszelkich politycznych treści reklamowych, w tym łatwego dostępu do tożsamości sponsora lub podmiotu kontrolującego sponsora. Trudno jednak oczekiwać, by VLOPy wiedziały, że, powiedzmy, jakaś organizacja pozarządowa jest finansowana z Moskwy lub Pekinu. Może być finansowana przez inną organizację pozarządową, która z kolei przez inną organizację pozarządową, która z kolei przez firmę itp. itd.
  • "Utrzymanie publicznie dostępnego, przeszukiwalnego repozytorium reklam politycznych, aktualizowanego w czasie jak najbardziej zbliżonym do rzeczywistego". To już istnieje i ma wielki sens.
  • Influencerzy wprowadzają pewne zagrożenia: "Influencerzy mogą mieć znaczący wpływ na decyzje wyborcze podejmowane przez odbiorców usługi". Komisja Europejska zwraca się do VLOPów o wprowadzenie oznaczeń dla influencerów wysyłających polityczne treści reklamowe.
  • Demonetyzacja treści dezinformacyjnych - to jest OK, bez komentarza.
  • "Wdrożenie odpowiednich procedur w celu zapewnienia terminowego i skutecznego wykrywania i przerywania manipulacji usługą", w tym wykrywania botów lub podszywania się pod inne osoby (np. kandydatów w wyborach): "zapobieganie oszustwom poprzez podszywanie się pod kandydatów, wdrażanie zwodniczych zmanipulowanych mediów, wykorzystywanie fałszywych zobowiązań". Nie jest jasne, czy obejmie to satyrę polegającą na zmianie zdjęcia profilowego i opisu, obśmiewając polityka, eksperta, analityka lub inną osobę publiczną. Jeśli tak, to byłoby to raczej idiotyczne.
  • Zespoły analizy operacji informacyjnych różnych VLOPów powinny współpracować i wymieniać się informacjami. Jest to ważna kwestia.

Generatywna sztuczna inteligencja

Deepfake’y w 2018 nie stanowiły ryzyka, ale wtedy politycy ulegli iluzji istnienia ryzyka (lub ktoś ich wprowadził w błąd). Dziś generatywna AI jest na czasie.

  • Na początek podstawy: oznaczanie treści deepfake (audio/wideo). Oczywiście wymaga to ich wykrywania, więc wytyczne są  "w zakresie, w jakim są technicznie wykonalne".
  • Zalecenie dotyczące znaku wodnego na obrazach stworzonych przez generatywną sztuczną inteligencję. Powodzenia z tym, bo na pewno będzie wiele narzędzi do usuwania cyfrowych znaków wodnych. W szczególności żadne rozwiązanie oparte na metadanych nie zadziała. Być może kryptograficzne znakowanie może być lepsze, ale nadal musiałoby być osadzone w całym obrazie, zmieniając go i zapewniając, że na przykład konwersja formatu zachowa sygnał znaku wodnego. Czasami może to być wykonalne, ale nadal trudne. Alternatywą jest zezwolenie na publikację obrazów wygenerowanych przez zatwierdzone źródła, zawierających odpowiedni podpis cyfrowy, i nieakceptowanie żadnego takiego obrazu. Ale takie podejście zasadniczo zmieniłoby sposób interakcji ludzi w Internecie, ograniczając wolność. Byłoby to bardzo niepopularne, przynajmniej obecnie. Nie jest to brane pod uwagę. To, co jest rozważane w wytycznych, to: "uwzględnienie istniejących standardów". Innymi słowy: NIC (te nie istnieją w marcu 2024 r.). Oznacza to, że wytyczne mogą po prostu pominąć punkt znaku wodnego jako nieistniejący.
  • "Wyraźne oznaczenia lub w inny sposób rozróżnianie za pomocą widocznych oznaczeń syntetyczne lub zmanipulowane obrazy, audio lub wideo, które znacznie przypominają istniejące osoby, przedmioty, miejsca, podmioty, wydarzenia lub przedstawiają wydarzenia jako prawdziwe, a które nie miały miejsca lub fałszywie je przedstawiają, i fałszywie wydają się komuś autentyczne lub zgodne z prawdą (tj. deepfakes)". Kluczowe jest tutaj to, że pracownicy sztabów wyborczych/politycznych są prawnie zobowiązani do oznaczania kreacji jako wygenerowanych przez sztuczną inteligencję. Aby to zrobić, najlepiej byłoby użyć standardowych, widocznych etykiet / pieczęci. Powinno to być wbudowane w oprogramowanie graficzne.

Etykietowanie reklam przy użyciu generatywnej sztucznej inteligencji

Reklamy muszą być oznaczone. Teraz jest to ważna nowość na styku reklamy i treści generatywnej sztucznej inteligencji: "Komisja zaleca, aby dostawcy dostosowali swoje systemy reklamowe, na przykład poprzez zapewnienie reklamodawcom opcji wyraźnego oznaczania treści tworzonych za pomocą generatywnej sztucznej inteligencji w reklamach". Innymi słowy, reklamy tworzone przy użyciu sztucznej inteligencji będą musiały być oznaczane. Czy ostatecznie stanie się tak w przypadku wszystkich reklam...?

Ochrona wypowiedzi politycznych

Mówimy o cenzurze, ale nie jest to jedyny punkt widzenia, który należy wziąć pod uwagę. Treści nie mogą być po prostu arbitralnie usuwane. W Unii Europejskiej ekspresja polityczna jest chroniona. Tak więc wszystko musi być zrównoważone. "Kiedy dostawcy VLOP i VLOSE zajmują się legalnymi, ale szkodliwymi formami generatywnych treści AI, które mogą wpływać na zachowanie wyborców, powinni zwrócić szczególną uwagę na wpływ, jaki ich polityka i środki mogą mieć na prawa podstawowe, w tym na wolność wypowiedzi, w tym wypowiedzi polityczne, parodię i satyrę".

sovietcat-2

Jest to zadanie oceny wpływu na prawa podstawowe: "przy opracowywaniu polityk dotyczących tego, jakiego rodzaju zwodniczych generatywnych treści AI dostawca VLOP lub VLOSE nie dopuszcza".

Podsumowanie

Temat ten jest na przecięciu technologii, prawa, polityki, stosunków międzynarodowych i spraw europejskich. To sprawia, że jest tak ekscytujący! Zalecenia są dobre. W niektórych miejscach niepełne z powodu niemożności technologicznej. Ale ogólnie są dobre. W tekście uwzględniono potrzebę sporządzenia oceny wpływu na prawa podstawowe w celu zrównoważenia interwencji i wolności wypowiedzi politycznej, która w Europie jest bardzo wysoka, więc wycinanie wpisów, wypowiedzi, informacji, gumkowanie obrazków i tłumienie głosów może powodować pewne problemy prawne, a nawet inne …

Temu tematowi poświęcam wiele miejsca w książce PROPAGANDA. PWN, 2024.

Comments is loading...

Comments is loading...