Google wprowadza rewolucyjną funkcję w aplikacji Gemini na platformach iOS i Android – możliwość korzystania z widoku na żywo. Dzięki temu rozwiązaniu użytkownicy będą mogli przesyłać obraz z kamery swojego smartfona w czasie rzeczywistym, by otrzymać informacje i wskazówki na temat otaczającej ich rzeczywistości. Nowa opcja jest już stopniowo udostępniana użytkownikom na całym świecie, a jej działanie oparte jest na zaawansowanych możliwościach sztucznej inteligencji.
Funkcja Gemini Live została stworzona z myślą o dostarczaniu natychmiastowych i trafnych informacji wizualnych. W praktycznym zastosowaniu system potrafi rozpoznawać obiekty w czasie rzeczywistym, korygować błędne identyfikacje oraz udzielać dodatkowego kontekstu, odpowiadając na pytania użytkownika. Przykładowo, możesz pokazać przedmiot, którego przeznaczenia nie znasz, a Gemini udzieli ci dokładnego opisu i informacji, co to za obiekt, do czego służy i jak go używać. Tego rodzaju technologia może być szczególnie przydatna podczas prac remontowych, projektów „zrób to sam”, organizacji przestrzeni domowej czy nawet podczas zakupów.
Jedną z atrakcyjnych funkcji Gemini jest też możliwość udostępnienia ekranu swojego iPhone’a lub iPada, co pozwala uzyskać komentarz AI na temat wszystkiego, co znajduje się na wyświetlaczu. To ogromne ułatwienie, na przykład podczas przeglądania ofert zakupowych online, analizy treści maili czy porządkowania dokumentów. Funkcja ta wnosi nowy poziom interakcji pomiędzy urządzeniem mobilnym a sztuczną inteligencją, czyniąc wsparcie techniczne i informacyjne jeszcze bardziej dostosowanym do aktualnych potrzeb użytkownika.
Nowe narzędzie może również odegrać szczególnie istotną rolę w życiu osób z dysfunkcją wzroku. Dzięki funkcji widoku na żywo możliwe staje się niemal natychmiastowe werbalne opisywanie otoczenia, co znacząco zwiększa samodzielność i komfort życia osób niewidomych lub niedowidzących. Widok na żywo jest oparty na platformie Project Astra, której działanie Google zaprezentowało na konferencji I/O – ta technologia była początkowo dostępna jedynie na urządzeniach Pixel.
Warto podkreślić, że to dopiero początek możliwości nowej implementacji Gemini. Już tego lata Google planuje dalszą personalizację aplikacji w oparciu o kontekst użytkownika. Chodzi tu na przykład o zastosowanie Gemini w Gmailu – dzięki integracji z pozostałymi usługami Google, aplikacja będzie potrafiła analizować treść wcześniejszych wiadomości i plików, by generować odpowiedzi dostosowane do stylu pisania użytkownika. Odpowiedzi AI nie będą już brzmiały szablonowo – będą naśladować charakterystyczny ton i słownictwo konkretnej osoby.
Nowe funkcje Gemini to znaczący krok w stronę interakcji człowieka z technologią, który przeciera szlaki kolejnym innowacjom opartym na sztucznej inteligencji. Dzięki nim użytkownicy zyskują dostęp do zaawansowanych narzędzi analitycznych w czasie rzeczywistym, które mogą znaleźć praktyczne zastosowanie w codziennym życiu – od rozwiązywania prostych problemów po wsparcie osób z niepełnosprawnościami.