Ustawa o sztucznej inteligencji — Nowe biurokracja, w Polsce będą dwa urzędy od AI
AI miała być filarem nowoczesnej cywilizacji i państwa. Jaka przyszłość czeka AI w Polsce? Poniżej analiza i recenzja w projektu ustawy o sztucznej inteligencji.
Czy biurokratyczne imadło pomoże rozwojowi AI?
Ustawa tworzy strukturę urzędniczą do kontroli użycia systemów AI. Owa Komisja ds. AI ma obowiązki wspierania rozwoju sztucznej inteligencji w Polsce. Niski budżet (30mln) i ograniczone kompetencje mogą sprawić, że efekty takie będą iluzoryczne. Wprowadzone jednak będą biurokratyczne ramy działalności dla przedsiębiorców.
Przedsiębiorcy będą musieli uzyskiwać opinie Komisji na temat swoich projektów. Niestety, brak jasnych terminów wydania decyzji o zatwierdzeniu lub odrzuceniu grozi opóźnieniami, które mogą skutecznie utrudnić planowanie biznesowe i zniechęcić inwestorów.
Musimy zadać sobie pytanie. Czy takie rozwiązania sprzyjają dynamicznemu rozwojowi rynku? Czy nie jest przypadkiem tak, że Chiny i USA stawiają na rozwój, a Europa na przeregulowanie, ryzykując, że pozostaniemy jedynie w roli regulatora, a nie lidera technologii AI? Nie ma jednak alternatywy: urzędnicy w Brukseli i państwa UE zdecydowały, że tak robimy. Czy rozwiązaniem może być sparaliżowanie wdrożenia?
Komisja ds. AI zyska ogromne uprawnienia kontrolne. Na szczęście w większości przypadków kontrole mają być zdalne! To może znacznie ograniczyć tarcie i biurokrację. Zatrudnienie w takim urzędzie ekspertów posiadających realną wiedzę i umiejętności w tak szybko zmieniającej się branży może być trudne. Kontrolę mogą przeprowadzać jej pracownicy, ale także eksperci zewnętrzni posiadający wiedzę specjalistyczną, co jest doskonałym rozwiązaniem.
Żelazny łańcuch, stalowa kula i jezioro
Jest jednak też tryb kontroli stacjonarnej, przypominający inspekcje BHP. Kontrola w takim trybie przypomina te wykonywany przez Państwową Inspekcję Pracy. Ma wtedy możliwości podobne do Państwowej Inspekcji Pracy przy kontroli przestrzegania przepisów BHP. Podobnie jak PIP, Komisja ds. AI ma uprawnienia do swobodnego wstępu na teren podmiotu kontrolowanego, w tym do obiektów, pomieszczeń i systemów informatycznych, w celu przeprowadzenia oględzin. Obie instytucje mogą żądać od podmiotów kontrolowanych dostępu do wszelkiego rodzaju dokumentów, w tym akt, pism, nośników danych oraz korespondencji elektronicznej, a także sporządzać z tych materiałów notatki, kopie i wyciągi. Zarówno Komisja ds. AI, jak i Państwowa Inspekcja Pracy mają prawo do żądania ustnych lub pisemnych wyjaśnień od pracowników lub przedstawicieli podmiotu oraz do zabezpieczania dokumentów niezbędnych do prowadzenia kontroli. Komisji może towarzyszyć też Policja. Ryzyko administracyjnej kary pieniężnej w wysokości do 35 000 000 EUR lub do 7 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego to kwoty ogromne, mające efekt psychologiczny.
Największy problem projektu.
Sztuczną inteligencję już nadzoruje Urząd Ochrony Danych Osobowych. Po co tworzyć nową instytucję? Powstaje nowe biuro i etaty przewodniczącego oraz wiceprzewodniczących. Zatem inaczej niż w Brukseli na poziomie UE, w Polsce zdecydowano się zdublować funkcjonujące już działania nadzorcze w Urzędzie Ochrony Danych Osobowych (UODO). W konsekwencji, AI w Polsce zajmować będą się dwa urzędy, bo często zwraca się uwagę na to, że Akt o AI można uznać za rozwinięcie i doprecyzowanie RODO, bo analogie są ewidentne. Wchodzi jednak nowy urząd, a co za tym idzie przedsiębiorca czasem może być zmuszony informować o ewentualnych incydentach aż trzy urzędy: “Komisję AI”, UODO, a czasem nawet ministra właściwego (w zależności od branży) jeśli to incydent cyberbezpieczeństwa. Podobnie w przypadku skarg — obywatel może je złożyć do UODO i do “Komisji AI”. Ja swoją skargę na działanie ChatGPT zgłosiłem w 2023 r. UODO. I dzisiaj również zrobiłbym to samo. UODO ma ludzi, działające procesy, praktykę, uprawnienia i podejmuje działania nie znajdując się w próżni orzeczniczej i prawnej wynikającej z nowości tej regulacji. Jak miałaby działać nowa Komisja - nie wiem i jako obywatel nastawiony na sukces wolę nie sprawdzać na sobie.
Nie ma absolutnie żadnego merytorycznego argumentu za powołaniem nowego tworu. Była to więc decyzja polityczna, do czego rządzący mają prawo – zostali wybrani przez Suwerena.
Taka ustawa musi powstać.
Nie ma alternatywy – stworzenie ram regulacji AI oraz komisji nadzoru rynku jest wymuszone przez unijny akt o sztucznej inteligencji. Powstawanie tego prawa od początku napotkało na wiele problemów. Pierwszy projekt z KEwpłynął bez świadomości szybkich zmian wywołanych nadejściem dużych modeli językowych, jak GPT. Unijni biurokraci w ogóle nie wiedzieli, że coś takiego wchodzi, jakie ma możliwości i w jaki sposób będzie transformowało świat. Nie mogli zdawać sobie sprawy z realnych ryzyk, ale także z szans. W celu „ochrony” obywateli Parlament Europejski chciał to prawo wzmocnić. Ale ochrony przed czym? Nie wiadomo, bo skąd oni mieli o tym wiedzieć? Dopiero powstawały analizy wpływu i ryzyk, więc być może oparto się na popkulturowym ujęciu sztucznej inteligencji, na czele z „Terminatorem 2” i podobnej treści ekspertyz? Czasem wypowiadanych przed organizacje pozarządowe, a innym razem przez zatroskanych intelektualistów i badaczy, którzy dzięki temu mogli zyskać rozgłos. Tymczasem niedawno opublikowane badania od zespołu z Apple wskazują na przesadzone oceny wobec możliwości modeli AI/LLM, w szczególności kwestionuje on zdolność modeli językowych do rozumowania logicznego.
W ramach podążania za głośnymi trendami akt UE wyraża wiele obaw przed np. dezinformacją. To topowy temat od 2016 r., gdy szukamy odpowiedzi na pytania, dlaczego ludzie w taki, a nie inny sposób zagłosowali w wyborach w USA czy w referendum brexitowym. W Brukseli zrobiono standardową akcję: to, co aktualnie modne i głośne, wstawiono w wielu miejscach w powstające prawo. Nie pierwszy i nie ostatni raz, by przypomnieć owczy pęd do regulacji kryptowalut i metawersum, gdy Facebook ogłosił zamiar wprowadzania takich rozwiązań. Z rozwiązań się wycofał, a czas polityków i urzędników UE zużyty na alarmowanie i na wyprzedzające przeregulowanie zmarnowano. To osobny problem. Za każdym razem, gdy pojawia się jakaś nowa technologia i innowacja, w Brukseli na hurra wysuwa się teksty regulacji. I nie powinno to dziwić, bo urzędnicy chcą wykazać się pracą, chcą awansować. A do awansów potrzebują sukcesów, czyli np. przepychania nowych praw.
Być może także z tego powodu biznes, rozwój i badania są domeną USA i Chin, a Europie zostaje zaszczytne prawo pierwszego regulatora. Wielu polityków w Unii Europejskiej od lat na to narzeka. W USA mają rakiety kosmiczne wielokrotnego użytku, które już wkrótce tanim kosztem będą wynosić tony ładunków w kosmos. W Europie mamy zakrętki przytwierdzone do butelek, zakaz działania dla przemysłu takiego jak produkcja samochodów z silnikami spalinowymi, bo tanie elektryki będziemy mogli kupić sobie w Chinach. Oraz drogą energię elektryczną, dzięki czemu wytwarzanie czegokolwiek w Europie przestanie mieć sens, podobnie jak budowa centrów danych. Amazon i Google inwestują w budowę modułowych elektrowni atomowych (SMR), w Polsce uznano, że to technologia zbyt ryzykowna. Skąd weźmiemy prąd na to AI?
Trzeba przyznać, że w Polsce już miały miejsce naruszenia zasad dziś zakazywanych w Akcie o AI. Wystarczy przypomnieć stosowanie w kampanii wyborczej do Sejmu technologii deepfake bez wyraźnego oznaczenia. Teraz takie działania mogłyby się spotkać z konsekwencjami.
Jeśli jednak tworzenie potencjalnie dysfunkcjonalnej struktury urzędniczej miałoby przewrotnie ograniczać jej działania, to niektórzy przedsiębiorcy mogą uznać to za zaletę. Niewątpliwie powody do zadowolenia może mieć też osoba przyszłego przewodniczącego. Jeśli jest branża, która może być zachwycona wejściem prawa nakładającego obostrzenia na AI – to są to prawnicy.
Pierwotna wersja tej analizy opublikowana w Dziennik Gazeta Prawna (21/10/24)