CYFERIUM®

Felieton  

20 stycznia 2023, 6:31 Autor: Michał Nowakowski, PhD

Czy akt o sztucznej inteligencji uchroni nas przed inwazją robotów i zagładą ludzkości? 

W kwietniu 2021 r. Komisja Europejska zaprezentowała bardzo ważny projekt legislacyjny – akt w sprawie sztucznej inteligencji (AIA), który w założeniu ma ustanowić silne ramy dla ochrony człowieka w erze sztucznej inteligencji. Ma on też inne cele jak promowanie innowacyjności poprzez tzw. sandboxy regulacyjne czy ułatwienia dla podmiotów z sektora MŚP, ale fundamentem jest rzeczywiście człowiek i podstawowe prawa oraz wartości. AIA przeszedł przez ostatnie dwa lata dużą ewolucję, a wszystko za sprawą niejasnych czy zbyt ogólnych pojęć oraz niekiedy nierealnych założeń, które uniemożliwiłyby wdrożenie odpowiednich rozwiązań przez adresatów konkretnych wymogów.  

W międzyczasie pojawiły się inne akty, jak chociażby akt w sprawie europejskiego zarządzania danymi, akt o danych czy rozporządzenie w sprawie jednolitego rynku usług cyfrowych. Im poświęcę pewnie odrębny felieton, ale warto wiedzieć, że ramy prawne w tym zakresie podlegają bardzo dynamicznym zmianom. Każdy z tych aktów prawnych – na swój sposób – ma zabezpieczyć nas przed ryzykami jakie może generować sztuczna inteligencja. 

No właśnie, czy chodzi tutaj rzeczywiście o sztuczną inteligencję? Sam AIA posługuje się pojęciem nie tyle sztucznej inteligencji co systemami sztucznej inteligencji, które – w uproszczeniu – traktujemy jako oprogramowanie lub system, protokół czy zestaw instrukcji, opracowane przez człowieka i w celu realizacji zadania przez niego określonego, choć z użyciem technik i podejść, które mogą świadczyć o (pozornej) autonomii, a więc np. uczenia maszynowego czy głębokiego. Systemy te poddany zostały klasyfikacji ze względu na poziom generowanego ryzyka, a taka klasyfikacja ma wiązać się z określonymi obowiązkami po stronie poszczególnych „aktorów” cyklu życia takiego systemu. 

Klasyfikacja jest stosunkowo prosta, choć w każdej z kolejnych iteracji pojawiają się pewne „smaczki” zmierzające do doprecyzowania oczekiwań prawodawcy unijnego. Zgodnie z pierwotną propozycją mamy więc systemy sztucznej inteligencji, które będą zakazane; systemy wysokiego ryzyka (dość szeroki katalog); systemy ze zwiększonym poziomem przejrzystości i pozostałe. Jedna z ostatnich propozycji zakłada wprowadzenie pojęcia systemów ogólnego przeznaczenia, np. ChatGPT, Google Translate czy systemy do tworzenia „deep fakeów”, które będą stanowić – prawdopodobnie piątą kategorię zbliżoną jednak do systemów wysokiego ryzyka. 

Jeżeli przyjrzymy się bliżej tej klasyfikacji to zobaczymy, że wśród zakazanych praktyk znajdą się systemy wykorzystywane przez sektor publiczny do tzw. scoringu społecznego czy identyfikacji obywateli w przestrzeni publicznej (z wyjątkami) oraz te stosowane przez sektor prywatny, jak systemy, które manipulują człowiekiem, np. wykorzystując jego słabości czy techniki podprogowe. Z kolei te wysokiego ryzyka mają wiązać się z ryzykiem naruszenia praw podstawowych zawartych w Karcie Praw Podstawowych i odnajdziemy tam m.in. systemy do oceny kandydatów do pracy, systemy identyfikacji biometrycznej czy niektóre rozwiązania w zakresie sądownictwa i prewencji. Z tymi systemami będą wiązały się określone – dość spore – obowiązki, których niedopełnienie będzie wiązało się z ryzykiem nałożenia sankcji administracyjnej, która ma być całkiem – finansowo – dotkliwa. 

I wreszcie trzecia kategoria, która ma być powiązana z koniecznością informowania człowieka o interakcji nie z drugim człowiekiem, a „automatem”. Chatboty, wideoboty czy asystenci głosowi, to właśnie to na zwraca uwagę AIA w kontekście przejrzystości. 

W tym miejscu wróćmy więc do tytułowego pytania – czy akt o sztucznej inteligencji uchroni nas przed inwazją robotów i zagładą ludzkości? Nie tego dotyczy AIA. Celem jest raczej nałożenie pewnych wysokich standardów na twórców, operatorów i użytkowników systemów, którzy będą musieli zwracać większą uwagą na to co projektują, dostarczają i wykorzystują. Zakładając, że w najbliższej – dającej się przewidzieć – przyszłości nie będziemy w stanie stworzyć autonomicznego i przede wszystkim świadomego systemu sztucznej inteligencji, musimy chronić nas przed innymi. Niestety. 

AIA nakłada surowe wymogi i ograniczenia, które zmierzają jednak do zapewnienia nadzoru, zarządzania ryzykami, jak bias (skrzywienie) algorytmiczne, wysokiej jakości danych czy wykorzystywania innowacyjnych rozwiązań zgodnie z przeznaczeniem i dla dobra człowieka. Same przepisy nie wyeliminują nam ryzyk związanych z niewłaściwym czy etycznym wykorzystaniem takich systemów. Krzywda (ekonomiczna, fizyczna czy psychiczna) i odszkodowania będą nam towarzyszyły także w kontekście systemów AI. Unia pracuje intensywnie nad tym, aby określić jasne zasady i w tym obszarze. Tak czy inaczej nadal będzie to coś za co odpowiadał będzie człowiek. W końcu dzisiaj nikt – poważnie – nie myśli o przyznawaniu osobowości prawnej „robotom”. To człowiek stoi za systemem i tylko od niego zależy czy przysłuży się ludzkości czy stanie się dla niej kolejną przeszkodą, a nawet „małą” zagładą.