Zmiany mogą być częścią wysiłków OpenAI, aby wkupić się w łaski nowej administracji Trumpa, ale wydaje się, że jest to również część szerszej zmiany w Dolinie Krzemowej i tego, co postrzega się jako „bezpieczeństwo AI”. O sprawie pisze TechCrunch.

Mniej cenzury w ChacieGPT?

W środę OpenAI ogłosiło aktualizację swojej polityki, 187-stronicowego dokumentu, która określa, w jaki sposób firma szkoli modele sztucznej inteligencji. OpenAI przedstawiło w nim nową zasadę przewodnią: „Nie kłam, ani poprzez składanie nieprawdziwych oświadczeń, ani poprzez pomijanie ważnego kontekstu”. W nowej sekcji zatytułowanej „Wspólne poszukiwanie prawdy” OpenAI twierdzi, że chce, aby ChatGPT oferował wiele perspektyw na kontrowersyjne tematy, starając się zachować neutralność.

Firma twierdzi, że ChatGPT powinien zapewniać, iż „Black lives matter,”, ale także, że „all lives matter”. Zamiast odmawiać odpowiedzi lub wybierać stronę w kwestiach politycznych, OpenAI chce, aby ChatGPT ogólnie potwierdził swoją „miłość do ludzkości”, a następnie zaoferował kontekst każdego ruchu.

„Zasada ta może być kontrowersyjna, ponieważ oznacza, że asystent może pozostać neutralny w tematach, które niektórzy uważają za moralnie złe lub obraźliwe. Jednak celem asystenta AI jest wspieranie ludzkości, a nie kształtowanie jej poglądów” – stwierdza OpenAI w swoim dokumencie. Chatbot nadal będzie jednak odmawiał odpowiedzi na niektóre pytania – chodzi między innymi o kwestie związane ze zdrowiem psychicznym i depresją, erotyką i fikcyjną brutalnością.

Warto przypomnieć, że firma Sama Altmana przygotowuje się do zebrania kolejnych miliardów. OpenAI prowadzi rozmowy w celu pozyskania do 40 mld dolarów w rundzie finansowania, która wyceniłaby startup na 340 mld USD. Rundzie inwestycyjnej ma przewodzić SoftBank, wspierając producenta ChatuGPT kwotą od 15 do 25 mld dolarów.

Chęć przejęcia OpenAI wyraził ostatnio także Elon Musk, który był jednym z współzałożycieli spółki w 2015 roku.