Sednem tej zmiany jest możliwość połączenia Gemini z aplikacjami Google, z których wiele osób korzysta na co dzień: Gmailem, Zdjęciami Google, YouTube’em czy wyszukiwarką. Po wyrażeniu zgody asystent może sięgać do informacji już zapisanych na koncie i używać ich do udzielania odpowiedzi. Dzięki temu przestaje odpowiadać ogólnikowo, a zaczyna odnosić się do realnych spraw konkretnej osoby. Jeśli czegoś nie pamiętasz, nie możesz czegoś znaleźć albo nie masz pod ręką potrzebnych danych, Gemini może je po prostu wyciągnąć z Twoich własnych materiałów.
Czytaj także: Google wycofuje AI Overviews dla części zapytań medycznych
Co właściwie robi Personal Intelligence od Google?
Google opisuje to na przykładzie dość przyziemnej sytuacji: zakup opon do rodzinnego samochodu. Zamiast tylko podać techniczne dane modelu auta, Gemini potrafi zaproponować różne warianty opon w zależności od stylu jazdy i wcześniejszych podróży zapisanych w Zdjęciach Google. Gdy potrzebny jest numer rejestracyjny, asystent znajduje go na zdjęciu, a wersję wyposażenia samochodu sprawdza w e-mailach.
Podobnie działa to przy planowaniu wolnego czasu. Sztuczna inteligencja Gemini może analizować wcześniejsze wyjazdy, zainteresowania zapisane w mailach czy zdjęciach i na tej podstawie proponować rozwiązania, które nie są pierwszymi wynikami z popularnych serwisów turystycznych. Zamiast kolejnej oczywistej atrakcji może zasugerować mniej uczęszczaną trasę, nocny pociąg albo aktywności, które faktycznie pasują do danej rodziny czy stylu podróżowania.
Dużo miejsca Google poświęca kwestii prywatności. Personal Intelligence jest domyślnie wyłączona, a użytkownik sam decyduje, które aplikacje chce połączyć. W każdej chwili może też wszystko odłączyć lub usunąć historię rozmów. Firma podkreśla, że dane z Gmaila i Zdjęć nie są wykorzystywane bezpośrednio do trenowania modelu – służą wyłącznie do udzielenia konkretnej odpowiedzi. Jeśli Gemini korzysta z jakichś informacji, stara się też wyjaśnić, skąd one pochodzą, tak aby można było je sprawdzić.
System ma również unikać samodzielnego wyciągania wniosków na tematy wrażliwe, na przykład zdrowotne. Jeśli użytkownik sam o nie zapyta, rozmowa jest możliwa, ale bez automatycznego „domyślania się” rzeczy, które mogłyby być zbyt osobiste. Dodatkowo w każdej chwili można poprosić o odpowiedź bez personalizacji albo skorzystać z tymczasowego czatu, który nie bierze pod uwagę danych z konta.
Kto i kiedy może skorzystać z Personal Inteligence od Google?
Google uczciwie przyznaje, że to wciąż eksperyment. Zdarzają się błędy, nadinterpretacje i sytuacje, w których asystent wyciąga niewłaściwe wnioski, bo nie zna pełnego kontekstu. Jeśli ktoś ma w chmurze setki zdjęć z pola golfowego, Gemini może założyć, że uwielbia ten sport, nawet jeśli w rzeczywistości po prostu towarzyszy komuś bliskiemu. W takich momentach użytkownik musi go poprawić. Opinie z wersji beta mają pomóc w dopracowaniu tych mechanizmów.
Na razie z Personal Intelligence mogą korzystać tylko subskrybenci płatnych planów Google AI w USA, na prywatnych kontach Google. Funkcja działa w przeglądarce, na Androidzie i iOS. Google zapowiada jednak stopniowe rozszerzanie dostępności na kolejne kraje i w przyszłości także na bezpłatną wersję usługi.
Ostatnio pisaliśmy, że Google wdraża Universal Commerce Protocol (UCP) – ma to być nowy, otwarty standard handlu opartego na agentach AI. W komunikacie firma zapewnia, że obsługuje on całą ścieżkę zakupową: od odkrywania produktów i zakupu po wsparcie posprzedażowe. UCP tworzy wspólny język dla agentów i systemów, umożliwiając im współpracę w różnych interfejsach – tych dla konsumentów, firm i dostawców płatności.
