Współautor: Szymon Skalski, Associate EY Law
Cel tego obowiązku to zapewnienie, że nowe technologie, zwłaszcza te o potencjalnie dużym wpływie na społeczeństwo, są wdrażane z należytą dbałością o prawa obywateli.
Więcej na temat związany z regulacjami sztucznej inteligencji w Unii Europejskiej możecie przeczytać tutaj. W podlinkowanej kategorii znajdziecie teksty tworzone przez ekspertów EY Law.
Zakres obowiązku oceny skutków dla praw podstawowych
Zgodnie z art. 27 AI Act przed wdrożeniem systemu sztucznej inteligencji o wysokim ryzyku podmioty stosujące takie systemy – w szczególności podmioty publiczne i prywatne świadczące usługi o charakterze publicznym – są zobligowane do przeprowadzenia oceny wpływu na prawa podstawowe. Ocena ta, według przepisów, powinna obejmować:
- opis procesu, w którym system AI będzie wykorzystywany, z uwzględnieniem jego przeznaczenia;
- określenie czasu i częstotliwości użytkowania systemu;
- kategorie osób i grup, które mogą być dotknięte działaniem systemu;
- potencjalne ryzyka związane z działaniem systemu dla tych osób i grup, ze szczególnym uwzględnieniem zagrożeń wskazanych przez dostawcę systemu;
- wdrożenie mechanizmów nadzoru przez człowieka, zgodnie z instrukcją obsługi;
- środki zapobiegawcze i procedury w przypadku materializacji ryzyka, w tym system zarządzania i mechanizmy zgłaszania skarg.
Czytaj także: Zakazane praktyki w AI Act. Znaczenie dla sektora finansowego
Częstotliwość i aktualizacja ocen
Obowiązek ten nie jest jednorazowy – AI Act wymaga, aby oceny były aktualizowane za każdym razem, gdy zmienią się kluczowe aspekty systemu lub sposób jego użytkowania. Jeśli elementy ocenione wcześniej przestaną być aktualne, podmioty muszą dostosować dokumentację i ponownie powiadomić organ nadzoru rynku o wynikach. Taki system dynamicznej aktualizacji ocen FRIA pozwala na bieżąco reagować na zmieniające się warunki, które mogłyby negatywnie wpłynąć na ochronę praw podstawowych.
Koordynacja z RODO i innymi regulacjami
Dla wielu organizacji obowiązek przeprowadzania FRIA jest rozszerzeniem istniejących ocen skutków ochrony danych osobowych (DPIA) wymaganych przez RODO. Motyw 96 AI Act podkreśla, że FRIA ma na celu uzupełnienie oceny ochrony danych, a nie jej zastąpienie.
Oznacza to, że podmioty stosujące systemy AI wysokiego ryzyka powinny integrować ocenę wpływu na prawa podstawowe z istniejącymi procedurami oceny skutków dla ochrony danych. Ma to szczególne znaczenie w przypadkach, gdy system AI przetwarza dane osobowe, co obliguje do jednoczesnego spełnienia wymogów RODO i AI Act.
Znaczenie oceny dla ochrony praw podstawowych
Przeprowadzanie ocen FRIA ma kluczowe znaczenie dla ochrony praw obywateli, ponieważ pozwala zidentyfikować potencjalne ryzyka dla grup szczególnie narażonych na negatywny wpływ technologii, takich jak osoby starsze czy osoby posiadające mniejszą wiedzę cyfrową.
Jak wskazuje motyw 93 AI Act, podmioty stosujące są najlepiej przygotowane do oceny, w jaki sposób system AI będzie wykorzystywany w konkretnym kontekście. W rezultacie mają one możliwość uwzględnienia szczególnych okoliczności i potencjalnych skutków, które mogłyby zostać pominięte na etapie projektowania systemu przez dostawcę.
Wzór oceny i wsparcie Urzędu ds. AI
W celu ułatwienia zgodności z wymaganiami oceny skutków Europejski Urząd ds. Sztucznej Inteligencji (AI Office) opracowuje standardowy wzór kwestionariusza, który będzie dostępny w formie automatycznego narzędzia. Dzięki temu rozwiązaniu proces przeprowadzania oceny będzie prostszy i bardziej przejrzysty, co ma szczególne znaczenie dla mniejszych podmiotów, które nie dysponują dużymi zasobami do spełnienia złożonych wymogów administracyjnych.
Znaczenie oceny skutków dla praw podstawowych w sektorze finansowym
W sektorze finansowym wdrażanie systemów AI wysokiego ryzyka, takich jak systemy stosowane w ramach procesu oceny zdolności kredytowej, systemy wykrywania oszustw czy narzędzia do profilowania klientów, wymaga szczególnej uwagi pod kątem ochrony praw podstawowych. Ocena skutków dla praw podstawowych pełni tu kluczową rolę, umożliwia bowiem identyfikację potencjalnych zagrożeń związanych z dyskryminacją, naruszeniem prywatności czy brakiem przejrzystości w podejmowaniu decyzji.
Dla instytucji finansowych FRIA to narzędzie, które pomaga upewnić się, że wdrażane systemy AI nie spowodują naruszenia przepisów, co ma istotne znaczenie w obszarach takich jak dostęp do usług finansowych. Motyw 96 AI Act podkreśla, że sektor finansowy powinien szczególnie zadbać o przejrzystość decyzji, które mogą wpływać na życie klientów, np. decyzji kredytowych czy ustalania wysokości składek ubezpieczeniowych. Dzięki przeprowadzeniu oceny skutków dla praw podstawowych instytucje finansowe mogą wdrażać odpowiednie środki nadzoru, gwarantując, że technologie AI wspierają odpowiedzialne i etyczne działania, zgodne z zasadami niedyskryminacji i równości dostępu do usług finansowych.
Praktyczne wyzwania i przyszłość FRIA
Wprowadzenie oceny FRIA wiąże się z wieloma wyzwaniami dla organizacji, szczególnie tych, które nie miały dotąd obowiązku wykonywania podobnych analiz. Proces ten wymaga nie tylko zrozumienia potencjalnych zagrożeń płynących z wdrożenia systemu AI, lecz także zapewnienia przejrzystości i mechanizmów zarządzania ryzykiem na każdym etapie użytkowania. Dynamiczny rozwój technologii AI może wymagać dalszych aktualizacji i dostosowywania wymogów, co oznacza, że zarówno FRIA, jak i inne przepisy AI Act będą ewoluować, aby nadążać za technologicznymi zmianami i zapewnić skuteczną ochronę praw obywateli w erze sztucznej inteligencji.