O sprawie pisze Reuters. Prace nad projektem Strawberry mają być w toku, ale na razie nie wiadomo, kiedy możemy się spodziewać udostępnienia rozwiązania. To jak działa nowy model sztucznej inteligencji ma być ściśle strzeżoną tajemnicą wewnątrz OpenAI – podaje Reuters.

Na marginesie warto przypomnieć, że kilka dni temu w dzienniku urzędowym Unii Europejskiej opublikowano AI Act. Nowe regulacje wchodzą w życie od 2 sierpnia bieżącego roku, choć poszczególne przepisy będą stosowane fazami. Najbliższa to 2 lutego 2025 r. i prawo o praktykach zakazanych.

OpenAI pracuje nad projektem Strawberry

Dokument, do którego dotarła agencja, opisuje projekt, który wykorzystuje modele Strawberry w celu umożliwienia sztucznej inteligencji nie tylko generowania odpowiedzi na zapytania, ale także planowania z wyprzedzeniem wystarczającym do autonomicznego i niezawodnego poruszania się po Internecie. Tego typu możliwości miały do tej pory wymykać się modelom sztucznej inteligencji.

Zapytany o Strawberry i szczegóły opisane w tej historii, rzecznik firmy OpenAI powiedział w oświadczeniu: „Chcemy, aby nasze modele AI postrzegały i rozumiały świat bardziej tak jak my. Ciągłe badania nad nowymi możliwościami sztucznej inteligencji są powszechną praktyką w branży, ze wspólnym przekonaniem, że systemy te z czasem poprawią rozumowanie”. Rzecznik nie odpowiedział bezpośrednio na pytania dotyczące Strawberry.

Projekt Strawberry miał być wcześniej znany jako Q i już w zeszłym roku, był postrzegany wewnątrz firmy jako przełomowy. Wersje demonstracyjne Q miały być zdolne do odpowiadania na trudne pytania naukowe i matematyczne poza zasięgiem dzisiejszych komercyjnie dostępnych modeli.

Sztuczna inteligencja może myśleć lepiej od człowieka?

Niedawno, na wewnętrznym spotkaniu wszystkich pracowników, OpenAI pokazało demo projektu badawczego, który według Bloomberga miał nowe umiejętności rozumowania podobne do ludzkich. Rzecznik OpenAI potwierdził spotkanie, ale odmówił podania szczegółów dotyczących jego treści. Reuters nie był w stanie ustalić, czy zademonstrowany projekt to Strawberry.

Rozumowanie ma być kluczem do osiągnięcia przez sztuczną inteligencję poziomu ludzkiego lub nadludzkiego. Duże modele językowe mogą już podsumowywać gęste teksty i komponować elegancką prozę znacznie szybciej niż jakikolwiek człowiek. Niemniej technologia ta często nie radzi sobie ze zdroworozsądkowymi problemami, których rozwiązania wydają się intuicyjne dla ludzi. Chodzi tutaj między innymi o rozpoznawanie błędów logicznych i gra w kółko i krzyżyk.

Naukowcy zajmujący się sztuczną inteligencją, z którymi rozmawiała agencja Reuters, generalnie zgadzają się, że rozumowanie w kontekście sztucznej inteligencji obejmuje tworzenie modelu, który umożliwia sztucznej inteligencji planowanie z wyprzedzeniem, odzwierciedlanie funkcjonowania świata fizycznego i rozwiązywanie trudnych, wieloetapowych problemów.

Rozumowanie AI kluczem do sukcesu

Poprawa rozumowania w modelach sztucznej inteligencji jest postrzegana jako klucz do odblokowania zdolności AI do robienia niemal wszystkiego – od dokonywania ważnych odkryć naukowych po planowanie i tworzenie nowych aplikacji. Dyrektor generalny OpenAI, Sam Altman, powiedział na początku tego roku, że w sztucznej inteligencji „najważniejsze obszary postępu będą dotyczyły zdolności rozumowania”.

Inne firmy, takie jak Google, Meta i Microsoft, również eksperymentują z różnymi technologiami w celu poprawy rozumowania w modelach sztucznej inteligencji, podobnie jak większość laboratoriów akademickich, które prowadzą badania nad sztuczną inteligencją.

Naukowcy nie zgadzają się jednak co do tego, czy duże modele językowe (LLM) są w stanie uwzględnić pomysły i długoterminowe planowanie w sposobie przewidywania. Na przykład jeden z pionierów nowoczesnej sztucznej inteligencji, Yann LeCun, który pracuje w Meta, często powtarzał, że LLM nie są zdolne do rozumowania podobnego do ludzkiego.