Jedną z kluczowych nowości jest integracja z modelem Gemini. System potrafi teraz automatycznie wygenerować podpis do zdjęcia lub wideo dodawanego do opinii o danym miejscu. W praktyce wygląda to tak, że użytkownik wybiera materiał, a AI analizuje jego zawartość i proponuje gotowy opis. Można go zmienić albo usunąć – narzędzie ma jedynie przyspieszyć publikację i ułatwić start.

Mapy Google sięgają po AI i zaglądają do naszej galerii

To jednak tylko część zmian. Google równolegle upraszcza sam proces wyboru zdjęć. Po włączeniu dostępu do multimediów w ustawieniach telefonu aplikacja zaczyna przeglądać galerię użytkownika i podpowiadać materiały, które można dodać do Map. Najnowsze zdjęcia i filmy pojawiają się bezpośrednio w zakładce „Dodaj”, co skraca cały proces do kilku kliknięć.

I tu pojawia się kontrowersja. Aby taka funkcja działała, aplikacja musi analizować zawartość galerii, a ta zwykle zawiera nie tylko zdjęcia z restauracji czy podróży, ale też prywatne materiały, których użytkownicy nie zamierzają publikować. Google nie precyzuje wprost, jak szeroki jest zakres tego skanowania, ale sam mechanizm rekomendacji opiera się na rozpoznawaniu zawartości obrazów. To rodzi pytania o granice prywatności i sposób przetwarzania danych.

Mapy Google od dawna opierają się na aktywności społeczności – ponad 500 milionów użytkowników na całym świecie dodaje zdjęcia, opinie i aktualizacje. To oni w praktyce utrzymują aplikację „na bieżąco”. Nowe funkcje mają po prostu zwiększyć tempo i wygodę tego procesu.

Widać to także w zmianach dotyczących najbardziej aktywnych użytkowników, czyli tzw. lokalnych przewodników. Aplikacja wyraźniej pokazuje teraz zdobyte punkty, poziomy i odznaki, a profile wyróżniających się użytkowników oznaczane są m.in. złotym kolorem. System nagród ma zachęcać do dalszej aktywności, czyli dodawania zdjęć, opinii i weryfikowania informacji.

Nowe rozwiązania są wdrażane stopniowo. Funkcja generowania podpisów wystartowała w języku angielskim na iOS w USA i ma się w najbliższych miesiącach pojawić globalnie oraz na Androidzie. Z kolei mechanizm podpowiadania zdjęć z galerii ma trafić na wszystkie rynki, w tym do Polski.

Niedawno pisaliśmy, że Google rozszerzyło funkcję tłumaczenia na żywo w słuchawkach – rozwiązanie jest już dostępne na iOS i w nowych krajach. „Live Translate” od Google pozwala przekształcić dowolne słuchawki w narzędzie do jednokierunkowego tłumaczenia mowy. System przekłada wypowiedzi rozmówcy w czasie rzeczywistym, zachowując elementy takie jak ton, akcent i tempo mówienia. Funkcja opiera się na modelu AI Gemini.