Decyzja firmy ma być odpowiedzią na rosnące obawy dotyczące niewłaściwego działania modeli sztucznej inteligencji. Niektóre z wcześniejszych wersji ChatGPT wzmacniały iluzje i błędne przekonania użytkowników zamiast je korygować, co w jednym przypadku miało tragiczne skutki – nastolatek, który przez miesiące rozmawiał z chatbotem, popełnił samobójstwo. Firma stoi obecnie w obliczu pozwu o spowodowanie śmierci dziecka.
Czym jest system routingu w ChatGPT?
Nowy system routingu analizuje treść rozmowy i w przypadku wykrycia wątków emocjonalnych automatycznie przełącza chat na tryb GPT-5. Ten model, zdaniem OpenAI, jest najlepiej przygotowany do prowadzenia rozmów w środowisku wysokiego ryzyka. GPT-5 wprowadzono z funkcją „bezpiecznych uzupełnień”, które pozwalają odpowiadać na wrażliwe pytania w sposób wspierający użytkownika, zamiast całkowicie odmawiać reakcji.
To odróżnia go od poprzednich modeli. Między innymi model GPT-4o krytykowano za zbyt „przyjemny” i pochlebczy ton odpowiedzi, który w niektórych przypadkach miał potęgować problemy psychiczne użytkowników.
Przedstawiciele OpenAI, zaznaczają, że routing działa tymczasowo i tylko dla wybranych wiadomości. “Jest to część szerszych działań mających na celu wzmocnienie zabezpieczeń i wyciągnięcie wniosków z rzeczywistego użytkowania przed szerszym wdrożeniem” – napisano na platformie X.
Czytaj także: Zakupy zrobisz bez opuszczania ChatuGPT. Nowość od OpenAI
Kontrola rodzicielska w aplikacji ChatGPT
Drugą nowością jest system kontroli rodzicielskiej w ChatGPT. Rodzice mogą teraz ustawić m.in. „ciche godziny”, zablokować tryb głosowy, wyłączyć pamięć rozmów, uniemożliwić generowanie obrazów oraz zrezygnować z wykorzystywania rozmów do trenowania modeli AI. Konta nastolatków otrzymają dodatkowe zabezpieczenia treści, w tym ograniczenia dotyczące drastycznych scen czy ekstremalnych wzorców piękna. System ma też wykrywać potencjalne oznaki myśli samobójczych lub samookaleczenia. W takich przypadkach powiadomienie trafia do rodziców przez e-mail, SMS lub aplikację, a w sytuacjach kryzysowych OpenAI rozważa możliwość kontaktu z odpowiednimi służbami.
Choć część ekspertów i użytkowników przyjęła zmiany pozytywnie, inni zarzucają firmie nadmierną ostrożność i „traktowanie dorosłych jak dzieci”. Krytycy twierdzą, że może to obniżyć jakość interakcji i ograniczyć swobodę korzystania z narzędzia.
OpenAI przyznało, że system nie jest doskonały i może generować fałszywe alarmy. “Uważamy, że lepiej zareagować i zaalarmować rodzica, aby mógł interweniować, niż milczeć”– podkreślono jednak w oficjalnym komunikacie. Firma wyznaczyła 120 dni na poprawki, które mają dopracować zarówno routing bezpieczeństwa, jak i funkcje kontroli rodzicielskiej.