To efekt unijnego AI Act, czyli przepisów dotyczących sztucznej inteligencji, które Parlament Europejski ostatecznie zatwierdził w marcu ubiegłego roku po latach prac. Ustawa oficjalnie weszła w życie 1 sierpnia 2024 roku, a 2 lutego to dzień, w którym zaczynają obowiązywać konkretne regulacje względem zakazanego ryzyka w systemach AI.

Zakazane praktyki AI już obowiązują

Szczegóły określono w art. 5, ale ogólnie rzecz biorąc, ustawa ma obejmować niezliczone przypadki użycia, w których sztuczna inteligencja może pojawiać się i wchodzić w interakcje z osobami, od aplikacji konsumenckich po środowiska fizyczne.

Zgodnie z podejściem AI Act, istnieją cztery poziomy ryzyka:

  • minimalne ryzyko (np. filtry spamu w wiadomościach e-mail) – nie będzie podlegać nadzorowi regulacyjnemu;
  • ograniczone ryzyko, które obejmuje chatboty obsługi klienta, będzie podlegać lekkiemu nadzorowi regulacyjnemu;
  • wysokie ryzyko – jednym z przykładów jest sztuczna inteligencja w zaleceniach dotyczących opieki zdrowotnej – będzie podlegać ścisłemu nadzorowi regulacyjnemu;
  • aplikacje o niedopuszczalnym ryzyku – na których koncentrują się wymogi wchodzące właśnie w życie – będą całkowicie zabronione.

AI Act nakłada surowe kary finansowe za naruszenia w przypadku właśnie praktyk zakazanych. Sięgają one najwyższego pułapu – do 35 mln euro lub 7% globalnego rocznego obrotu firmy. O znaczeniu tych zmian dla instytucji finansowych można przeczytać w tekście przygotowanym we współpracy z EY – Zakazane praktyki w AI Act. Znaczenie dla sektora finansowego.

Więcej na temat związany z regulacjami sztucznej inteligencji w Unii Europejskiej możecie przeczytać tutaj. W podlinkowanej kategorii znajdziecie teksty tworzone przez ekspertów EY Law.

Jakie działania są zakazane w myśl AI Act?

Przepisy AI Act dotyczące zakazanych praktyk nakładają restrykcje na stosowanie AI w sposób, który negatywnie oddziałuje na jednostki, w szczególności poprzez wykorzystanie technik manipulacyjnych czy nieodpowiednie korzystanie z danych, szczególnie danych biometrycznych.

Wśród niedozwolonych działań można wymienić sztuczną inteligencję:

  • wykorzystywaną do scoringu społecznego (np. budowanie profili ryzyka w oparciu o zachowanie danej osoby),
  • która manipuluje decyzjami danej osoby w sposób podprogowy lub zwodniczy,
  • wykorzystującą słabe punkty, takie jak wiek, niepełnosprawność lub status społeczno-ekonomiczny,
  • która próbuje przewidzieć, że ludzie popełniają przestępstwa na podstawie ich wyglądu,
  • wykorzystującą dane biometryczne do wnioskowania o cechach danej osoby, takich jak orientacja seksualna,
  • gromadzącą dane biometryczne „w czasie rzeczywistym” w miejscach publicznych w celu egzekwowania prawa,
  • która próbuje wywnioskować emocje ludzi w pracy lub szkole,
  • która tworzy – lub rozszerza – bazy danych rozpoznawania twarzy poprzez pobieranie obrazów online lub z kamer bezpieczeństwa.