Kluczowe elementy Aktu o AI będą wprowadzane stopniowo. Co do zasady, przepisy Aktu będą obowiązywać po upływie 24 miesięcy od jego ogłoszenia, jednak w przypadku części przepisów te terminy to kolejno 6, 12 i 36 miesięcy. Już w lutym 2025 r. mocy nabiorą przepisy zakazujące stosowania w całej Unii szczególnie niebezpiecznych systemów AI.
Unijny akt o sztucznej inteligencji już obowiązuje
Następnie, w sierpniu 2025 r. w życie wejdą przepisy kluczowe dla nadzoru nad sztuczną inteligencją dotyczące m.in. określenia organu nadzoru rynku i organu notyfikującego, modeli AI ogólnego przeznaczenia, jak również te dotyczące kar za naruszenia Aktu.
Jako ostatnie zaczną obowiązywać przepisy, które odnoszą się do systemów AI wysokiego ryzyka oraz związanych z nimi obowiązków. Ich wejście w życie nastąpi w sierpniu 2026 r. oraz, w przypadku niektórych systemów wysokiego ryzyka będących elementem produktów podlegających osobnym normom, w sierpniu 2027 r.
Jakie przypadki określono mianem wysokiego ryzyka? To chociażby biometryczne zastosowania sztucznej inteligencji lub sztuczna inteligencja wykorzystywana w egzekwowaniu prawa, zatrudnieniu, edukacji i infrastrukturze krytycznej.
Rozporządzenie obejmie swoim zakresem także generatywną sztuczną inteligencję, która w myśl przepisów nie została zakwalifikowana jako system wysokiego ryzyka. Zastosowanie rozwiązań typu ChatGPT będzie wymagało spełnienia pewnych obowiązków związanych z przejrzystością oraz ograniczających możliwość naruszania praw autorskich osób trzecich.
Więcej na temat AI Act można przeczytać w naszym cyklu realizowanym wspólnie z EY Law. W zakładce znajdziecie szczegółowe informacje na temat przepisów Unii Europejskiej dotyczących sztucznej inteligencji. Chodzi między innymi o przetwarzanie danych osobowych, obowiązek przejrzystości w instytucjach finansowych, czy sztuczną inteligencję w bankowości.