W regulaminie, aktualizowanym jesienią 2025 roku, firma podkreśla, że Copilot „służy wyłącznie do celów rozrywkowych”, może popełniać błędy i nie zawsze będzie działać zgodnie z założeniami. Użytkownicy są wyraźnie ostrzegani, aby nie polegać na nim w ważnych sprawach i korzystać z niego na własne ryzyko.

Microsoft studzi entuzjazm. Copilot „tylko do celów rozrywkowych”

Microsoft zainwestował miliardy dolarów w połączenie modeli sztucznej inteligencji ze swoim ekosystemem. Rozwiązania z linii Copilot zostały wdrożone w Windowsie, pakiecie Office oraz przeglądarce Edge, mając zrewolucjonizować pracę biurową, programowanie i przygotowywanie dokumentów. W praktyce jednak prawnicy firmy z Redmond patrzą na te zmiany znacznie bardziej sceptycznie niż jej dział marketingu, co potwierdza wspomniany regulamin.

Nie ma co się dziwić, że tego typu zapisy wywołały dyskusję w mediach społecznościowych, gdzie część komentujących zwraca uwagę na rozdźwięk między marketingiem narzędzi AI a ich formalnymi ograniczeniami.

Co istotne, sam Microsoft przyznaje, że wspomniane zapisy mogą być nieaktualne. Rzecznik firmy w rozmowie z mediami określił je jako „przestarzałe sformułowania”, które nie oddają już rzeczywistego sposobu wykorzystania Copilota. Firma zapowiedziała ich aktualizację przy najbliższej zmianie regulaminu.

Niemniej podobne podejście można zauważyć również u innych firm z branży sztucznej inteligencji. Zarówno OpenAI, jak i xAI w swoich regulaminach podkreślają, że generowane odpowiedzi nie powinny być traktowane jako w pełni wiarygodne źródło informacji. xAI wprost zaznacza, że wyniki nie stanowią „prawdy”, natomiast OpenAI ostrzega przed traktowaniem ich jako jedynego źródła faktów.