Sytuacja przypomina wydarzenia z końcówki 2023 roku, gdy niespodziewanie odwołano Altmana ze stanowiska CEO. Sprawa odbiła się szerokim echem w Dolinie Krzemowej, a po kilku dniach intensywnych negocjacji Altman wrócił na swoje stanowisko. Choć wtedy kryzys udało się zażegnać, dziś nad firmą pojawia się widmo podobnych turbulencji.

Czy leci z nami pilot? OpenAI pod ostrzałem

Amerykański magazyn The New Yorker opublikował obszerny reportaż oparty na rozmowach z ponad setką osób związanych z OpenAI. Wnioski są niepokojące – wielu rozmówców uważa, że Altman nie jest wiarygodnym liderem w kontekście rozwoju technologii, która może mieć wpływ na cały świat.

Już wcześniej wątpliwości zgłaszał Ilya Sutskever, były główny naukowiec firmy. Przygotował on wewnętrzne materiały opisujące, jak to określono, „wzorzec zachowań” obejmujący manipulacje i wprowadzanie w błąd. Według relacji miał nawet stwierdzić, że Altman nie powinien być osobą sprawującą kontrolę nad tak potężną technologią.

Zarzuty wobec CEO nie dotyczą jednego incydentu, lecz szeregu różnych sytuacji. Pracownicy wskazują m.in. na przekazywanie sprzecznych informacji różnym osobom, pomijanie kluczowych kwestii związanych z bezpieczeństwem czy zmienianie ustaleń w zależności od kontekstu. Jeden z rozmówców reportażu podsumował to dosadnie: „Altman chce być postrzegany jako osoba, która mówi ludziom to, co chcą usłyszeć, ale ignoruje konsekwencje takich działań”.

Warto przypomnieć, że ostatnio OpenAI poinformowało o zlikwidowaniu lub wstrzymaniu kilku projektów – zakupów bezpośrednio w ramach ChataGPT, generatora filmów AI, czyli aplikacji Sora i trybu erotycznego w ChatGPT.

Co z tym bezpieczeństwem?

Podobne opinie wyrażał Dario Amodei, były szef badań OpenAI, który obecnie kieruje konkurencyjną firmą Anthropic. W jego notatkach pojawia się stwierdzenie, że „problemem OpenAI jest właśnie Sam”. Jednym z najpoważniejszych zarzutów jest podejście do kwestii bezpieczeństwa sztucznej inteligencji. Choć OpenAI oficjalnie podkreśla znaczenie odpowiedzialnego rozwoju technologii, pracownicy twierdzą, że w praktyce priorytetem jest tempo wdrażania produktów.

Kontrowersje pojawiły się m.in. przy okazji premiery modelu GPT-4 w 2023 roku. Według doniesień część kluczowych mechanizmów nie przeszła pełnej procedury bezpieczeństwa, mimo zapewnień kierownictwa.

Zastrzeżenia dotyczą także projektu „superalignment”, który miał odpowiadać za kontrolę zaawansowanych systemów AI. Oficjalnie zapowiadano znaczące inwestycje w ten obszar, jednak, według pracowników, w rzeczywistości zespoły dysponowały ograniczonymi zasobami i przestarzałą infrastrukturą.

Narastające problemy doprowadziły do odejścia kluczowych osób. W 2024 roku firmę opuścił m.in. Jan Leike, który wcześniej alarmował, że OpenAI zaczyna odchodzić od swojej pierwotnej misji, stawiając na produkty i przychody zamiast bezpieczeństwa. Coraz więcej ekspertów i byłych pracowników dołącza do konkurencyjnych projektów, co dodatkowo osłabia pozycję OpenAI.

Pomimo tego typu niepokojących sygnałów spółka wciąż przyciąga zainteresowanie inwestorów. Ostatnio OpenAI pozyskało 122 miliardy dolarów w nowej rundzie finansowania, osiągając wycenę na poziomie 852 miliardów USD. To największa inwestycja w historii spółki i jednocześnie wyraźny sygnał, że firma przygotowuje się do debiutu giełdowego jeszcze w tym roku.