Google Duplex to wielki przełom. Raczej nikt nie ma wątpliwości, że inżynierom Google udało się stworzyć coś niesamowitego, co może zmienić zasady gry i możliwe, że za 10 lat będzie tak samo powszechne jak Mapy Google. Ale Google to Google – jedna z największych firm świata z praktycznie nieograniczonymi zasobami finansowymi. Inaczej sprawa wygląda, gdy o sztucznej inteligencji zaczynają mówić firmy, których track record w żadnym wypadku nie wskazuje na to, że mogłyby taką technologię posiadać. I skoro już ją mają to dlaczego oferują prymitywne usługi w postaci np. chatbota, skoro mając w ręku algorytm sztucznej inteligencji mogłyby szybko wejść w bardziej rentowne gałęzie gospodarki (lub opanować świat)?

Mechaniczny Turek

Mechaniczny Turek to maszyna szachowa z XVIII wieku, którą zachwycano się na dworach ówczesnej Europy. Mistyfikacja polegała na ukryciu człowieka (i dosyć sprawnego szachistę zarazem) wewnątrz skrzyni za systemem przegród, co uniemożliwiało jego wykrycie. Przeciwnik był przekonany, że rozgrywa partię szachów z maszyną. Budziła ona zachwyt, gazety rozpisywały się o jej osiągnięciach, cudzie technologii, a czasem nawet o magicznych właściwościach. Oszustwo stare jak świat ewoluowało i dzisiaj rolę takich „Mechanicznych Turków” odgrywają fintechowe startupy wykorzystujące sztuczną inteligencję. Okazuje się, że inteligencja w żadnym wypadku nie jest sztuczna – w wielu przypadkach to wielka mistyfikacja.

Guardian podaje przykłady firm, które w przekazie marketingowym oferowały np. chatboty, które miały być oparte o AI. W rzeczywistości do udzielania odpowiedzi zatrudniani byli ludzie, którzy pracowali po 12 godzin dziennie odpowiadając w taki sposób, by jak najbardziej przypominać automat, często prosząc m.in. o doprecyzowanie pytania, użycie prostszych komunikatów lub odpowiadając niedokładnie pomimo stosunkowo prostych komend. Pracowników szkolono tak, by język komunikatów był jak najbardziej sztuczny. Pisał o tym m.in. Bloomberg wskazując przykład firm X.ai i Clara.

Gdzie ukryty jest szachista?

Podobnie jest z aplikacjami, które rzekomo bezbłędnie dokonują transkrypcji dokumentów, tłumaczeń lub skanu dokumentów – wiele poprawek dokonywanych jest przez człowieka, który częściej niż zwykle musi pomóc botowi w interpretacji danych wejściowych. Jest to zrozumiałe o ile informacja o wykorzystaniu ludzi przy wsparciu AI jest podawana w sposób jasny i przejrzysty. Gorzej, gdy firma nie ma nawet opracowanego algorytmu, który w bardzo dużym uproszczeniu mógłby w jakikolwiek sposób nosić cechy AI, a w rzeczywistości korzysta z pracy ludzkiej, która niekiedy nosi znamiona wyzysku. Pracownicy call center z Indii, którzy masowo udają roboty? Wykrycie takich oszustw to tylko kwestia czasu.

W sieci krąży żart, że bardzo łatwo jest założyć fintechowy startup AI. Wystarczy zatrudnić ludzi za minimalne stawki do udawania robotów. Następnie czekać aż technologia AI zostanie wynaleziona. W międzyczasie zgarniać kasę od inwestorów, a jeśli usługa działa – to znaleźć korporację jelenia, którą wyoutsourcuje swoje procesy do twojej firmy w przekonaniu, że korzysta z nowoczesnego rozwiązania. W rzeczywistości może nawet nie wiedzieć, że przyczynia się do szeroko rozumianego wyzysku w kraju Trzeciego Świata. Cały CSR może spalić na panewce, do tego dochodzą kwestie bezpieczeństwa danych, compliance, regulacje i rekomendacje instytucji nadzorczych.

Nie spowiadaj się maszynie

Olivia Solon zwróciła uwagę także na aspekt psychologiczny. Człowiek ma tendencje do zwierzania się „maszynie” w bardziej otwarty sposób, przekazując jej wiele informacji, których normalnie nie powiedziałby drugiej osobie. Zamawiasz pizze na chacie i mówisz o swojej chorobie, rozterkach życiowych, depresji, problemach w pracy? Lepiej tego nie robić. Raz, że zawsze zostaje ślad, a dwa – po „drugiej stronie komputera” może być człowiek. W większości przypadków oleje twój problem albo przekaże poradę w stylu „jeśli czujesz się źle to może powinieneś iść do psychologa”. Czynnik białkowy jest jednak nieprzewidywalny i może raz na milion przypadków doprowadzić do tragedii.

Fintechowe startupy pracujące nad sztuczną inteligencją lub posiadające całkiem udane technologie zbliżone do AI zwykle działają w sposób przejrzysty, chwalą się swoimi osiągnięciami i technologią. Z nimi nie ma problemu, bo każdy normalny człowiek zdaje sobie sprawę jak jest to jeszcze niedoskonałe i jak wiele pracy przed nimi. Ale gdy pojawia się firma, która mówi, że ich produkt jest w 100% sprawdzony i jednocześnie ukrywa w tajemnicy (z dziwnych powodów) co stoi za backofficem to sprawa jest prosta. Co zrobić? Zajrzeć do „KRS” i przeanalizować sprawozdanie finansowe, poprosić o informacje o payrollsy. Gdzieś ten szachista musi się ukrywać.