Od razu zaznaczam, że nie jestem ani futurystą, ani zwolennikiem supremacji człowieka nad AI czy też propagatorem „osobliwości” (singularity). Może w jakimś stopniu jestem transhumanistą. Podchodzę – przynajmniej obecnie – do sztucznej inteligencji jako do bardzo zaawansowanego narzędzia do automatyzacji, ale przy naszym stanie wiedzy – „odmawiam” przyznania jej osobowości (osobliwości). Dlaczego? Zapraszam do przeczytania artykułu, który oczywiście nie wyczerpuje tematyki, ale stanowić może kolejny etap dyskusji.

Konstrukcja AI

Nie ma co ukrywać, że sztuczna inteligencja to obecnie raczej zbiór bardzo zaawansowanych algorytmów, które wykorzystują praktycznie nieograniczone zasoby wiedzy (Big Data) i operują na pewnych modelach zachowań opracowanych przez ich twórców. Jest to więc ni mniej, ni więcej bardzo rozbudowany, ale nadal – program komputerowy. Jeżeli nawet chcemy zbliżyć go do ludzkiego umysłu, to będzie on jego naśladowcą (pewną próbą odwzorowania) a nie samym umysłem.

To z kolei wynika przede wszystkim z dość ograniczonej wiedzy na temat tego jak funkcjonuje nasz umysł, w szczególności sieci neuronowe – choć tutaj zauważalny jest istotny postęp. Według różnych szacunków poznaliśmy dotąd od 10% do 50% możliwości naszego umysłu, a sposób w jaki dochodzimy do różnych wniosków (nawet pomimo odkrycia pewnych zależności i modeli) jest nadal pewną zagadką. AI nie jest również w stanie odwzorować „czynnika emocjonalnego”, co jednak w kontekście przyznania pewnej formy osobowości prawnej i tak nie ma większego znaczenia. O sztucznej inteligencji trudno jednak mówić jako o odtworzeniu umysłu człowieka, bo po prostu nie do końca wiemy jak on naprawdę funkcjonuje.

AI może działać JAK człowiek, ale nie JAKO człowiek.

Czy ma to znaczenie dla przyznania osobowości prawnej?

Zasadniczo nie. Podejście takie sugeruje jednak, że z pewnością nie można mówić o przyznaniu AI praw człowieka, bo i człowiekiem nie jest i nigdy nie będzie. Jeżeli dodamy do tego transcendencję, to w ogóle nie ma w tym przedmiocie dyskusji, ale to raczej temat etyczno-filozoficzny, którego wolę nie poruszać.

Nie ma jednak znaczenia brak „ludzkiego” charakteru AI dla oceny możliwości przyznania osobowości prawnej, bo osoby prawne to też byty o charakterze formalnym (podobnie ułomne osoby prawne), które są jedynie reprezentowane przez osoby fizyczne (zarząd, wspólników, prokurentów). Osobowość prawna, ale już nie osobliwość, którą rozumie się raczej jako wydarzenie, po którym AI przeskoczy człowieka w ewolucji, wymaga jednak spełnienia kilku warunków:

  1. Zdolności do czynności prawnych,
  2. Zdolności prawnej,
  3. Pewnej dozy formalizmu (rejestracji, o czym w dalszej części).

Warto w tym miejscu przytoczyć teorię fikcji Savigny’ego, który odmawiał „prawdziwej” osobowości przyznawanej jednostkom innym niż człowiek (co może być argumentem w dyskursie nad „człowieczeństwem” AI).

Zdolność do czynności prawnych

Czyli zdolność do nabywania praw i zaciągania zobowiązań. O ile można zgodzić się, że potencjalnie AI mogłoby nabywać prawa, to zaciąganie zobowiązań już nie jest takie oczywiste. Wynika to z prostego założenia, że zaciąganie zobowiązań pociąga za sobą możliwość ponoszenia odpowiedzialności za ich niewykonanie (niewłaściwe wykonanie). Zakładając, że AI ma lub może mieć swój majątek (np. na skutek powierzenia przez „kogoś”, np. twórcę, pewnego kapitału początkowego), to sposób naprawienia szkody (vide art. 471 Kodeksu cywilnego) może być inny niż finansowy i wymagać „osobistego” wykonania.

Oczywiście można tutaj przywołać jeszcze art. 474 Kodeksu cywilnego i odpowiedzialność na zasadzie ryzyka, tyle tylko, że tą odpowiedzialność ponosiłby raczej twórca AI, jego dystrybutor, nabywca lub inna osoba, która stała się „posiadaczem” algorytmu. Sam algorytm raczej nie byłby w stanie ponieść takiej odpowiedzialności. Nie wspomnę już tutaj o odpowiedzialności za przestępstwa czy wykroczenia, które mogą mieć związek z określonymi czynnościami dokonanymi w sferze prawa cywilnego. W jaki sposób AI miałoby za nie odpowiadać?

Zdolność prawna

Czyli zdolność do bycia podmiotem praw i obowiązków. Załóżmy, że ograniczamy się wyłącznie do sfery cywilnoprawnej. Oznaczałoby to przyznanie bardzo szerokiego katalogu czynności, które AI mogłoby wykonywać lub być „podmiotem”, a to wymagałoby de facto wolnej woli. I tutaj dochodzimy do sedna, czyli „celu” sztucznej inteligencji.

Sztuczna inteligencja jest tworzona przez inżynierów dla konkretnego celu. Ma swoją autonomię, to znaczy, że działa w sposób zasadniczo „dowolny” o ile ten cel realizuje. Tutaj pojawia się również kwestia ewentualnego „błędu” programisty, który może w sposób niedostateczny określić granice realizacji „celu” i tym samym doprowadzić do wystąpienia deliktu lub nawet popełnienia przestępstwa. Granica jest bardzo cienka i wymaga bardzo rozsądnego i uważnego podejścia.

Przyznanie zdolności prawnej AI skutkowałoby de facto zrównaniem AI z osobami fizycznymi (od chwili urodzenia) i prawnymi (rejestracja) i wymagałoby zmiany szeregu przepisów, co oczywiście w tej dyskusji nie jest argumentem. Ta podmiotowość nie „spina się” jednak z kwestią odpowiedzialności, o której wspomniałem już powyżej.

A zdolność sądowa?

Jeżeli uznamy, że AI nie ponosi jako taka odpowiedzialności, bo nie ma osobowości prawnej, to o zdolności sądowej również nie może być mowy. Sprowadza nas to do prostej konkluzji, że odpowiada „ktoś” inny kto taką zdolność posiada.

Co z tym formalizmem?

Jeżeli bylibyśmy jednak skłonni przyznać AI osobowość, to musielibyśmy zastanowić się nad następującymi kwestiami:

  1. Rejestracja jako osoba fizyczna? Nadanie nr PESEL? Spis powszechny? Który moment to „urodzenie” AI, a który to „śmierć”
  2. Rejestracja jako osoba prawna? Kto dokonuje zgłoszenia do właściwego rejestru? AI? Raczej nie. Ponownie wchodzimy na grunt odpowiedzialności za AI, tym razem w sferze administracyjnoprawnej,
  3. Inny rejestr? Na przykład na wzór rejestru fundacji? Jakie dane tam umieścić? Co podlegałoby weryfikacji i ponownie – kto by dokonywał zgłoszenia?

Wróćmy do tej odpowiedzialności

Sztuczna inteligencja zawsze będzie od kogoś zależna i w każdym momencie można ją wyłączyć, np. odcinając dostęp do sieci (pewnie globalnie to praktycznie niemożliwe, ale jednak). Czy byłoby to też uśmiercenie lub uśpienie AI? Kto odpowiadałby za taki „incydent” i jego konsekwencje, np. w sferze prawa cywilnego lub administracyjnego?

Sama kwestia odpowiedzialności to teraz palący temat wymagający szybkiej reakcji. Wraz z rozwojem sztucznej inteligencji pojawić się może coraz więcej sytuacji, w których rozstrzygnięcia będzie wymagać kto odpowiada za delikt AI. Nie jest to jednak przedmiotem tego artykułu, choć wydaje się, że odpowiedź brzmi – każdy po trochu – a w sferze zewnętrznej – ten kto wziął na siebie (świadomą) odpowiedzialność za algorytm. Do tematu jeszcze wrócę.

No więc jak to jest z tym AI?

Moim zdaniem nic nie przemawia za przyznaniem sztucznej inteligencji podmiotowości prawnej. Jest to zaawansowane narzędzie, które jest jednak kształtowane przez człowieka, który nadaje mu cel, określa model „zachowań”, a także „karmi” określonymi danymi umożliwiającym wykonanie jego poleceń. Pewna autonomia algorytmu to tylko sposób działania, ale nadal w pewnych ramach prawnych i faktycznych. I w najbliższych latach, jak zakładam, się to nie zmieni.

Artykuł stanowi moją prywatną opinię i nie może być utożsamiany ze stanowiskiem jakiejkolwiek instytucji z którą jestem lub byłem związany.