Aspekty prawne w polskiej polityce rozwoju sztucznej inteligencji

    Michał Nowakowski
    Michał Nowakowski
    Opublikowano: 23 sierpnia 2019, 15:45 Aktualizacja: 23 sierpnia 2019, 15:46

    Aspekty prawne sztucznej inteligencji w najnowszej Polityce Rozwoju Sztucznej Inteligencji w Polsce. Czy sztuczna inteligencja będzie mogła kupować?

    Obok takiego dokumentu jak „Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027. Godna zaufania sztuczna inteligencja, autonomia i konkurencja” (Polityka) nie sposób przejść obojętnie. Najnowszy dokument m.in. Ministerstwa Cyfryzacji otwiera konsultacje społeczne, które mają szansę przełożyć się na dalsze kroki związane z rozwojem sztucznej inteligencji (nie tylko w obszarze finansów). Porusza on wiele istotnych wątków, jak np. etyka, prawo czy źródła finansowania dla nowych rozwiązań. Chociażby z tego względu warto przyjrzeć się jemu bliżej i zainwestować swój czas w rozwój sztucznej inteligencji (Artificial Intelligence – AI) w Polsce. Zapraszam do podsumowania najważniejszych – jak zwykle subiektywnych – aspektów Polityki. Skupię się rzecz jasna na aspektach prawnych wykorzystania AI.

    Zanim jednak przejdziemy do samego dokumentu zachęcam do przeczytania jednego z moich artykułów, który po krótce opisuje potencjalnie najciekawsze obszary, w których Artificial Intelligence może namieszać w sektorze finansowym. Swoje uwagi można zgłaszać do 9 września na adresy: [email protected] lub [email protected].

    Wymiar prawny jako jeden z kluczowych elementów Polityki

    Legislacja nie zawsze nadąża za zmieniających się otoczeniem, a w szczególności rozwojem technologicznym. Dlatego też obecnie stosowanie sztucznej inteligencji jest oparte raczej na normach etycznych, niż „twardym” prawie. Potwierdza to podejście Komisji Europejskiej, która intensywnie pracuje nad szeregiem dokumentów w tym obszarze, np. nad wytycznymi w zakresie wykorzystania AI.

    Jakie wyzwania dla prawa w kontekście AI?

    Po pierwsze sama definicja sztucznej inteligencji. Nie występuje ona w ani w prawie krajowym, ani w prawie europejskim. Sam dokument wskazuje na konieczność je stworzenia, jednak zwrócono uwagę na liczne trudności z zaproponowaniem satysfakcjonującego rozwiązania. Prawdą jest, że stworzenie niewłaściwej definicji mogłoby przyczynić się do zahamowania rozwoju tej dziedziny.

    Z tego względu postawiono na definicję techniczną. Zgodnie z propozycją „Systemy sztucznej inteligencji (AI) to systemy oprogramowania (a także urządzeń komputerowych) zaprojektowane przez ludzi w ten sposób, że biorąc pod uwagę założony cel, działa w wymiarze fizycznym lub cyfrowym, postrzegając swoje środowisko za pomocą pozyskiwania danych, interpretacji zebranych danych strukturalnych lub nieustrukturyzowanych, wnioskowania opartego o wiedzę lub przetwarzanie informacji pochodzących z tych danych i decydowania o najlepszych działaniach, jakie należy podjąć, aby osiągnąć dany cel. System sztucznej inteligencji może albo użyć reguł symbolicznych albo nauczyć się modelu numerycznego, a także może dostosować swoje zachowanie, analizując, jak na środowisko wpływają jego wcześniejsze działania” (zainteresowanych pogłębieniem tematu zachęcam do lektury świetnej książki “Sztuczna Inteligencja. Co każdy wiedzieć powinien?” Jerrego Kaplana).

    Takie podejście wydaje się sensowne biorąc pod uwagę zmieniający się poziom naszej wiedzy w zakresie badania mózgu oraz sztucznej inteligencji. Z drugiej strony, jeżeli zamierzamy uregulować kwestię odpowiedzialności AI (o czym w dalszej części), to wypracowanie „jakiejś” definicji legalnej może okazać się konieczne. Taka definicja musiałaby być jednak dość ogólna, aby pozostawić pewną elastyczność niewymagającą wprowadzania czasochłonnego procesu legislacyjnego.

    Przykładem zastosowania takich systemów jak w przytoczonej definicji w sektorze finansowych jest kilka i obejmują one chociażby:

    1. Ocenę zdolności kredytowej;
    2. Monitorowanie transakcji płatniczych (w tym w kontekście wykrywania nieautoryzowanych transakcji);
    3. Wsparcie analiz i decyzji inwestycyjnych (np. Rozporządzenie 2017/589 w sprawie handlu algorytmicznego);
    4. Chatboty;
    5. Compliance regulacyjne oraz analiza ryzyka;
    6. Profilowanie klientów (szczególnie uprzywilejowaną pozycję mogą mieć firmy BigTech – więcej w tym artykule).

    Przyjęcie definicji technicznej uznać należy za dobry krok, który pozwoli na jej ewolucję wraz z rozwojem nowych metod technicznych.

    Osobowość prawna

    To również bardzo istotna kwestia. Pojawia się przykładowo w przypadku dyskusji nad tzw. DAO (Decentralized Autonomous Organizations), które można opisać jako samoregulujące się przedsiębiorstwa, np. zbiorowego inwestowania. Głównym problemem jest kwestia przyznania (bądź nie) takim tworom osobowości prawnej.Polityka dość kategorycznie zakłada, że sztucznej inteligencji nie powinno przyznawać się zdolności do czynności, a tym bardziej osobowości prawnej. Idąc dalej – AI nie powinna być czynnym „uczestnikiem” obrotu prawnego (a więc nie będzie mogła przykładowo nabywać prawa własności). Uzasadnieniem dla takiego podejścia ma być zasada supremacji człowieka nad systemami AI.

    Takie podejście, przynajmniej w perspektywie najbliższych lat, wydaje się zasadne. Algorytmy, które obecnie stosujemy, jakkolwiek dość zaawansowane, dalekie są od „ideału” przez który rozumiemy ludzki umysł (jako punkt referencyjny). To z resztą jest kolejny argument.Nasze procesy myślowe nie są do końca zbadane i trudno jednoznacznie określić czy algorytmy sztucznej inteligencji są jakkolwiek zbliżone do naszych umysłów (co mogłoby uzasadniać przyznanie im jakiejś formy osobowości). Ich niewątpliwym atutem w kontekście sformalizowanych procesów jest brak „emocjonalnego” podejścia i czysty pragmatyzm i wspomniany formalizm, jednakże rodzi to pytania odnośnie tej „unikalności” charakterystycznej dla człowieka, co uzasadniałoby supremację człowieka nad AI.

    Zawieranie umów?

    Autorzy Polityki nie są aż tak sceptyczni względem możliwości zawierania umów przez AI. Ważne jednak jest przy tym spełnienie określonych warunków, które wymagają z pewnością uregulowania (choć częściowo jest już to dokonane w ramach prawa bankowego). Chodzi przede wszystkim o obowiązki informacyjne względem ludzi, w tym odnośnie tego „kto” stoi za podjęciem konkretnych decyzji, a także jakie były tego podstawy (tą tematykę adresuje w prawie bankowym przy ocenie zdolności kredytowej art. 105a Prawa bankowego – więcej w tym artykule).

    Innym słowy, zawieranie umów tak, ale pod warunkiem zapewnienia pełnej transparencji oraz odpowiedzialności (AI versus dostawca). Pytanie czy w przypadku „starcia” negocjacyjnego wykorzystanie AI byłoby działaniem etycznym. Taki algorytm dysponuje dużą bazą wiedzy i niewątpliwie może mieć znaczną przewagę nad „osobowymi” prawnikami/stronami umowy. Może również posiadać dane osobowe/nieosobowe dostępne w czasie rzeczywistym, co również wpływać może na przewagę AI w takim procesie (i teoretyczne naruszenie zasad konkurencji – na późniejszym etapie).

    A co z odpowiedzialnością?

    Jeżeli nie osobowość prawna, to co? Nie jest zaskoczeniem, że Polityka wskazuje na istotne braki w zakresie regulacji odpowiedzialności odszkodowawczej AI. Istotne jest więc dostosowanie obowiązujących przepisów (rewolucja?) do nowych realiów, co powinno obejmować m.in. uregulowanie kwestii odpowiedzialności za produkt niebezpieczny (a więc mowa tutaj o dostawcy) i/lub szerzej – samego algorytmu (z uwzględnieniem oczywiście odpowiedzialności osoby odpowiedzialnej, co jest kolejnym wyzwaniem).

    No właśnie. Kto jest odpowiedzialny za sztuczną inteligencję? Producent oprogramowania? Wytwórca „rzeczy” (algorytmu)? Dystrybutor? A może jeszcze inny podmiot (np. przedsiębiorca, który zakupił algorytm)? To są realne problemy związane z oceną odpowiedzialności AI. Niewątpliwie największym problemem będzie określenie ram tej odpowiedzialności i jej podstawy, tj. oceny na ile dany algorytm jest „samodzielny” (co ma związek z efektywnym uczeniem się), a na ile bazuje również na udziale czynnika ludzkiego. Wymaga to więc bardzo dogłębnej analizy i rozsądnego podejścia.

    W chwili obecnej odpowiedzialność za algorytm bazować może zasadniczo na zasadach odpowiedzialności za „rzecz” lub „bezpośrednią” odpowiedzialność człowieka, który jedynie korzysta z algorytmu. Konieczne jest jednak wprowadzenie bardziej precyzyjnych zasad, które wskażą m.in. czy algorytm rzeczywiście jest rzeczą czy też „czymś”/”kimś” więcej.

    Inne aspekty prawne?

    Aspekty prawne, które wskazałem powyżej wydają mi się najistotniejsze. Polityka podnosi również kwestię przetwarzania danych osobowych, a także prawa do dostępu do danych nieosobowych. Pozwolę sobie jednak na poświęcenie temu odrębnego artykułu (nad którym już pracuję), tym bardziej, że bardzo ciekawym zagadnieniem może być kwestia dyskryminacji przez AI i prawo do prywatności.

    Na tym kończę podsumowanie. Jako konkluzję można wskazać, że czeka nas jeszcze bardzo dużo pracy i dyskusji. Mamy wiele niewiadomych, tym bardziej, że zmiany technologiczne przebiegają coraz dynamiczniej. Uregulowanie statusu AI jest jednak niezbędne i nie można go ignorować.

    Artykuł stanowi moją prywatną opinię i nie może być utożsamiany ze stanowiskiem jakiejkolwiek instytucji z którą jestem lub byłem związany.


    Tekst chroniony prawem autorskim. Każdorazowe kopiowanie wymaga zgody redakcji.

    Pokaż komentarze (0)

    aspekty-prawne-w-polskiej-polityce-rozwoju-sztucznej-inteligencji