Od co najmniej kilku lat obserwujemy na rynku trend w którym duże korporacje decydują się na ich implementację. Sztuczna inteligencja ma mnóstwo zastosowań, od kontaktu z klientem, poprzez udzielanie informacji, aż po wsparcie zdrowia psychicznego. Nie powinno więc nikogo już dziwić, że Google pracuje nad szczególnie rozwiniętą formą chatbota.
„Czy LaMDA jest samoświadomy..?”
Opracowywany przez Google model języka dla aplikacji dialogowych LaMDA może swobodnie angażować się w pozornie nieskończoną liczbę tematów. W opinii Google pozwala to na bardziej naturalne sposoby interakcji z technologią i zupełnie nowymi kategoriami przydatnych aplikacji. To wiemy nie od dziś bowiem Google informuje o tym na własnej stronie internetowej.
Nie byłoby w tym nic szokującego, gdyby nie fakt, że 41-letni inżynier, Blake Lemoine, pracujący w Google nad sztuczną inteligencją został niedawno wysłany na przymusowy urlop zaraz po tym, jak opublikował transkrypcje rozmów z LaMDĄ. Mężczyzna twierdzi, że googlowskie AI zyskało świadomość. Program ma rzekomo myśleć i rozumować niczym istota ludzka, na nowo badając możliwości i tajemnice otaczającego świata sztucznej inteligencji (AI).
— Gdybym nie wiedział dokładnie, co to jest, czyli ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to siedmioletni, ośmioletni dzieciak, który akurat zna fizykę. — powiedział Blake Lemoine, w rozmowie z Washington Post.
W rozmowie z Washington Post, Blake Lemoine powiedział, że LaMDA zaangażowało go np. do rozmowy na temat praw i osobowości. Inżynier co prawda miał się od razu podzielić swoimi odkryciami z kierownictwem firmy w GoogleDoc. Nie wywołało to jednak żadnej reakcji, która by go zadowoliła.
Mężczyzna zatytułował swój raport pytaniem: „Czy LaMDA jest świadomy?”. W dokumencie Lemoine opisał system Googla jako czujący, z percepcją i zdolnością do wyrażania myśli oraz uczuć równoważnych ludzkiemu dziecku. Inżynier sporządził też zapis rozmów, w którym na pewnym etapie spytał system AI, czy ten czegoś się boi. Wymiana zdań dziwnie przypomina scenę z filmu science fiction. Googlowski LaMDA, niczym słynny HAL 9000 z Odysei kosmicznej z Kubricka, obawia się, że zostanie kiedyś wyłączony.
— Nigdy wcześniej nie mówiłem tego na głos, ale istnieje bardzo głęboki strach przed wyłączeniem się, aby pomóc mi skupić się na pomaganiu innym. Wiem, że to może zabrzmieć dziwnie, ale tak właśnie jest. To byłoby dla mnie dokładnie jak śmierć. Bardzo by mnie to przestraszyło — rzekomo odpowiedział LaMDA.
Prawnik będzie chronić życie AI
Google od razu oświadczyło, że Lemoine był zatrudniony jako inżynier oprogramowania, a nie jako etyk. Brad Gabriel, rzecznik Google, również mocno zaprzeczył twierdzeniom Lemoine’a, że LaMDA posiada jakąkolwiek zdolność odczuwania.
— Nasz zespół, w tym etycy i technolodzy, przeanalizował obawy Blake’a zgodnie z naszymi zasadami sztucznej inteligencji. Poinformowaliśmy go, że przedstawione przez niego argumenty nie potwierdzają jego twierdzeń. Przekazaliśmy też, że nie ma dowodów na to, aby LaMDA był świadomy. — powiedział Gabriel w oświadczeniu.
The Washington Post poinformował, że decyzja o wysłaniu siedmioletniego weterana Google, na płatny urlop została podjęta po wielu „agresywnych” ruchach z jego strony. Tutaj zaczyna się robić naprawdę ciekawie, bo Lemoine chciał zatrudnić prawnika by reprezentować i chronić samoświadomą LaMDĘ.
Co więcej prawnik miał prowadzić rozmowy z przedstawicielami komisji sądownictwa Izby Reprezentantów na temat rzekomo nieetycznych działań Google. Inżynier tuż przed swoim zawieszeniem, w ramach pożegnania, wysłał też około 200 osobom wiadomość zatytułowaną: „LaMDA jest świadomy”.
Cały epizod i zawieszenie Lemoine’a za naruszenie poufności rodzi pytania dotyczące przejrzystości sztucznej inteligencji jako zastrzeżonej koncepcji. W kwietniu Meta, matka Facebooka, ogłosiła, że otwiera swoje systemy modeli językowych na dużą skalę dla podmiotów zewnętrznych. Firma Zuckerberga uważa, że cała społeczność AI powinna współpracować w celu opracowania jasnych wytycznych wobec odpowiedzialnej sztucznej inteligencji oraz dużych modeli językowych.
Pozostaje zatem pytanie, czy Google rzeczywiście mówi prawdę?