To efekt unijnego AI Act, czyli przepisów dotyczących sztucznej inteligencji, które Parlament Europejski ostatecznie zatwierdził w marcu ubiegłego roku po latach prac. Ustawa oficjalnie weszła w życie 1 sierpnia 2024 roku, a 2 lutego to dzień, w którym zaczynają obowiązywać konkretne regulacje względem zakazanego ryzyka w systemach AI.
Zakazane praktyki AI już obowiązują
Szczegóły określono w art. 5, ale ogólnie rzecz biorąc, ustawa ma obejmować niezliczone przypadki użycia, w których sztuczna inteligencja może pojawiać się i wchodzić w interakcje z osobami, od aplikacji konsumenckich po środowiska fizyczne.
Zgodnie z podejściem AI Act, istnieją cztery poziomy ryzyka:
- minimalne ryzyko (np. filtry spamu w wiadomościach e-mail) – nie będzie podlegać nadzorowi regulacyjnemu;
- ograniczone ryzyko, które obejmuje chatboty obsługi klienta, będzie podlegać lekkiemu nadzorowi regulacyjnemu;
- wysokie ryzyko – jednym z przykładów jest sztuczna inteligencja w zaleceniach dotyczących opieki zdrowotnej – będzie podlegać ścisłemu nadzorowi regulacyjnemu;
- aplikacje o niedopuszczalnym ryzyku – na których koncentrują się wymogi wchodzące właśnie w życie – będą całkowicie zabronione.
AI Act nakłada surowe kary finansowe za naruszenia w przypadku właśnie praktyk zakazanych. Sięgają one najwyższego pułapu – do 35 mln euro lub 7% globalnego rocznego obrotu firmy. O znaczeniu tych zmian dla instytucji finansowych można przeczytać w tekście przygotowanym we współpracy z EY – Zakazane praktyki w AI Act. Znaczenie dla sektora finansowego.
Więcej na temat związany z regulacjami sztucznej inteligencji w Unii Europejskiej możecie przeczytać tutaj. W podlinkowanej kategorii znajdziecie teksty tworzone przez ekspertów EY Law.
Jakie działania są zakazane w myśl AI Act?
Przepisy AI Act dotyczące zakazanych praktyk nakładają restrykcje na stosowanie AI w sposób, który negatywnie oddziałuje na jednostki, w szczególności poprzez wykorzystanie technik manipulacyjnych czy nieodpowiednie korzystanie z danych, szczególnie danych biometrycznych.
Wśród niedozwolonych działań można wymienić sztuczną inteligencję:
- wykorzystywaną do scoringu społecznego (np. budowanie profili ryzyka w oparciu o zachowanie danej osoby),
- która manipuluje decyzjami danej osoby w sposób podprogowy lub zwodniczy,
- wykorzystującą słabe punkty, takie jak wiek, niepełnosprawność lub status społeczno-ekonomiczny,
- która próbuje przewidzieć, że ludzie popełniają przestępstwa na podstawie ich wyglądu,
- wykorzystującą dane biometryczne do wnioskowania o cechach danej osoby, takich jak orientacja seksualna,
- gromadzącą dane biometryczne „w czasie rzeczywistym” w miejscach publicznych w celu egzekwowania prawa,
- która próbuje wywnioskować emocje ludzi w pracy lub szkole,
- która tworzy – lub rozszerza – bazy danych rozpoznawania twarzy poprzez pobieranie obrazów online lub z kamer bezpieczeństwa.