Jedną z najważniejszych cech aplikacji jest możliwość działania w trybie offline. Po pobraniu i zainstalowaniu modeli rozpoznawania mowy opartych na systemie Gemma użytkownik może swobodnie dyktować tekst bez konieczności połączenia z internetem. To istotna różnica względem wielu konkurencyjnych narzędzi, które wymagają stałego dostępu do Internetu.

Google po cichu wypuściło nową aplikację do dyktowania. Działa nawet bez internetu

Aplikacja od Google oferuje podgląd transkrypcji w czasie rzeczywistym, a po zakończeniu nagrania automatycznie “oczyszcza” tekst. Usuwane są typowe wypełniacze, takie jak „yyy” czy „eee”, a także poprawiane są błędy językowe, co pozwala uzyskać gotowy do użycia tekst. Pod transkrypcją znajdują się opcje, takie jak „Kluczowe punkty”, „Formalny”, „Krótki” i „Długi”, które pozwalają odpowiednio przekształcić tekst.

Jeśli użytkownik zdecyduje się włączyć tryb chmury, aplikacja korzysta z modeli Gemini, które dodatkowo poprawiają jakość tekstu. Możliwe jest jednak całkowite wyłączenie przetwarzania w chmurze i korzystanie wyłącznie z lokalnych zasobów. „Google AI Edge Eloquent” umożliwia importowanie własnych słów kluczowych, nazw czy specjalistycznego żargonu, np. z konta Gmail. Użytkownik może także ręcznie dodawać niestandardowe wyrazy.

Aplikacja zapisuje historię sesji i pozwala ją przeszukiwać. Oferuje również statystyki, takie jak liczba wypowiedzianych słów, tempo mówienia (słowa na minutę) czy podgląd ostatnich nagrań. „Google AI Edge Eloquent to zaawansowana aplikacja do dyktowania, zaprojektowana w celu wypełnienia luki między naturalną mową a profesjonalnym, gotowym do użycia tekstem” – czytamy w opisie aplikacji w App Store.

Jakie jeszcze nowości planuje Google?

Choć obecnie aplikacja dostępna jest wyłącznie na iOS, to zapowiedziano już wersję dla Androida. Co więcej, ma ona oferować głęboką integrację z systemem, w tym możliwość ustawienia jako domyślnej klawiatury oraz korzystania z funkcji szybkiego dyktowania w dowolnym miejscu.

Niedawno pisaliśmy, że Google rozszerzyło funkcję tłumaczenia na żywo w słuchawkach – rozwiązanie jest już dostępne na iOS i w nowych krajach. „Live Translate” od Google pozwala przekształcić dowolne słuchawki w narzędzie do jednokierunkowego tłumaczenia mowy. System przekłada wypowiedzi rozmówcy w czasie rzeczywistym, zachowując elementy takie jak ton, akcent i tempo mówienia. Funkcja opiera się na modelu AI Gemini.

Rozszerzenie „Live Translate” zbiegło się w czasie z globalnym wdrożeniem funkcji Search Live. To narzędzie oparte na sztucznej inteligencji, które umożliwia prowadzenie interakcji z wyszukiwarką na podstawie rozmowy, czy obrazu z kamery telefonu.