Kontrowersje te dotyczyły umożliwienia organom wykorzystywanie systemów sztucznej inteligencji do identyfikacji obywateli – w celu zapobiegania atakom terrorystycznym. Takie uprawnienie budzi silne kontrowersje, biorąc pod uwagę, że takie wykorzystywanie systemów sztucznej inteligencji narusza podstawowe zasady państwa demokratycznego.  Co w szczególności widać na przykładzie Chin, które już od kilku lat stosują tzw. Scoring, czyli klasyfikacja obywateli na podstawie ich zachowań, statusu społecznego czy cech fizycznych.

Obawa przed takim wykorzystywaniem systemów sztucznej inteligencji w krajach Unii Europejskiej, doprowadziła do odrzucenia poprawki, umożliwiającej identyfikację obywateli przez organy śledcze. Jak podkreślił Parlament Europejski w swoim stanowisku, nadrzędnym cele AI Act jest ochrona wartości demokratycznych i ograniczenia negatywnych skutków wykorzystywania sztucznej inteligencji. W związku z tym, wykorzystywanie systemów sztucznej inteligencji do identyfikacji obywateli, naruszałoby podstawowe zasady demokratycznego państwa.

Sztuczna inteligencja pod lupą Unii Europejskiej

W samej treści aktu ustawodawca skoncentrował się głównie na klasyfikacji systemów sztucznej inteligencji, pod względem stopnia ryzyka. AI Act dzieli systemy sztucznej inteligencji na 4 kategorie. Każda kategoria związana jest z poziomem ryzyka, które wiąże się z korzystaniem z danego systemu sztucznej inteligencji.  Z tego względu wyróżnia się kategorię systemów sztucznej inteligencji, która wiąże się z: nieakceptowalnym ryzykiem, wysokim ryzykiem, niskim ryzykiem i ryzykiem minimalnym.

Poprzez nieakceptowalne ryzyko, należy rozumieć takie, które stwarza zagrożenie dla obywateli. Do tej kategorii, należy zaliczyć sztuczną inteligencję, która wykorzystuje technologię biometryczną do identyfikacji i kategoryzacji ludzi. W szczególności dotyczy to technologii, która rozpoznaje ludzi w czasie rzeczywistym.

Natomiast sztuczna inteligencja, która charakteryzuje się wysokim stopniem ryzyka, zagraża bezpieczeństwu obywateli i prawom podstawowym. Z tego też względu, będzie ona mogła być wykorzystywana, jedynie po spełnieniu szeregu wymogów oraz będzie podlegała ocenie przez cały okres funkcjonowania. AI Act kategoryzuje systemy sztucznej inteligencji o wysokim stopniu ryzyka, na:

  • systemy sztucznej inteligencji, do których stosuje się przepisy unijne dotyczące bezpieczeństwa produktów.
  • systemy sztucznej inteligencji, na które nałożono obowiązek rejestracji w unijnej bazie danych. W ramach tej kategorii, systemy sztucznej inteligencji, będą dzielić się na 8 obszarów, takich jak: edukacja szkolna i szkolenie zawodowe, zatrudnienie, zarządzanie pracownikami, zarządzanie i eksploatacja infrastruktury krytycznej, ściganie przestępstw, dostęp do podstawowych usług prywatnych, pomoc prawna, ściganie przestępstw oraz biometryczna identyfikacja i klasyfikacja osób fizycznych.
  • systemy sztucznej inteligencji, które charakteryzują się niskim lub minimalnym ryzykiem, również będą musiały spełnić pewne wymogi. Przede wszystkim jest to wymóg transparentności. Takie systemy sztucznej inteligencji powinny być na tyle przejrzyste, aby użytkownik mógł rozpoznać, że korzysta z sztucznej inteligencji oraz umożliwiać użytkownikom podejmowanie świadomych decyzji.

Kogo przede wszystkim dotyczy unijny AI Act?

Głównymi podmiotami, których będzie dotyczył AI Act są dostawcy i użytkownicy sztucznej inteligencji. Na dostawców systemów sztucznej inteligencji nałożono wiele obowiązków, które będą uzależnione od tego jakiego rodzaju ryzyko wiąże się z wykorzystywaniem ich systemów AI. Jeżeli system sztucznej inteligencji danego dostawcy, zostanie zaklasyfikowany jako system wysokiego ryzyka, to taki dostawca będzie zobowiązany do rejestracji systemu w danej bazie danych.

Ciekawie wygląda kwestia Chatu GPT, który jest klasyfikowany jako generatywny system sztucznej inteligencji. Generatywne systemy tworzą nowe teksty, obrazy, grafiki, na podstawie opisów, podanych przez użytkowników. Takie systemy są problematyczne, z punktu widzenia prawa autorskiego, z tego też względu Chat GPT oraz inne generatywne systemy sztucznej inteligencji zostały zaklasyfikowane jako systemy wysokiego ryzyka. W związku z czym Chat GPT oraz inne generatywne systemy, będą musiały spełnić następujące wymogi:

  • stworzenie takiego systemu sztucznej inteligencji, który nie będzie publikował treści nielegalnych
  • informowania użytkownika, że treść została stworzona przez sztuczną inteligencję
  • dokumentowanie przypadku użycia utworów objętych prawami autorskimi

Google i Facebook postulują o złagodzenie przepisów

Takie wymogi nałożone na dostawców systemów sztucznej inteligencji, znacznie utrudniają tworzenie tych systemów. Mimo, że wiele największych dostawców takich jak Google czy Facebook, postulowali o wprowadzenie przepisów dotyczących sztucznej inteligencji, ostatecznie obecny kształt AI Act nie jest według nich korzystny dla całej branży.

Jak podkreślali przedstawiciele największych koncernów zajmujących się sztuczną inteligencją, obecny AI Act w znaczny sposób ogranicza korzystanie i tworzenie systemów sztucznej inteligencji, co może doprowadzić do spowolnienia rozwoju tej technologii. Z tego względu, Google po przyjęciu AI Act przez Parlament odwołał premierę swojego nowego czatbota Al Bard w Unii Europejskiej. Czy taka decyzja doprowadzi do złagodzenia AI Act?

Obecny kształt AI Act nie jest ostateczny, ponieważ po jego przyjęciu, rozpoczną się negocjację z Radą oraz pomiędzy państwami członkowskimi w sprawie ostatecznego kształtu nowych przepisów. Czy negocjacje doprowadzą do wprowadzenia znaczących zmian w AI Act, złagodzenia go lub zaostrzenia wymogów stawianym dostawcom systemów sztucznej inteligencji?

Na to pytanie ciężko jest odpowiedzieć. Z pewnością Unii Europejskiej zależy na implementacji takiego aktu o sztucznej inteligencji, który będzie chronił obywateli przed negatywnymi skutkami korzystania z tej technologii oraz który będzie przykładem dla innych państw, w jaki sposób regulować problematykę sztucznej inteligencji. Podobnie było z RODO, na którym USA bazowało swoje regulacje dotyczące ochrony danych osobowych.

Natomiast czy postulaty dostawców systemów sztucznej inteligencji, wpłyną na ostateczny kształt AI Act? Z pewnością Unia powinna wziąć to pod uwagę, nie mniej złagodzenie AI Act wydaje się być mało prawdopodobne.