Według The VergeGoogle zaczął wprowadzać funkcje analizy ekranu i aparatu w czasie rzeczywistym Bliźnięta na żywoDostępne teraz, aby wybrać subskrybentów Google One AI Premium. Aktualizacja, napędzana przez zeszłoroczny projekt Astra, umożliwia AI interpretację wizualnych danych wejściowych i odpowiadanie na pytania w locie, potwierdził rzecznik firmy.
A Reddit Użytkownik zademonstrował możliwości czytania ekranu Gemini na urządzeniu Xiaomi w tym tygodniu, partycypujący Film z ikonami aplikacji identyfikującej AI i podsumowując treść. 9to5google Najpierw zauważyłem post, który jest zgodny z marszem Google ogłoszenie że te funkcje zostały uruchomione do końca miesiąca.
W przykładzie opublikowanym przez firmę użytkownik wskazuje swój aparat telefoniczny w kawałku ceramiki i prosi Gemini o zasugerowanie kolorów farby. AI analizuje teksturę i powierzchnię glazury przed rekomendowaniem opcji.
Wdrożenie daje Google przewagę, gdy rywale walczą: Amazon’s Alexa Plus wkrótce wchodzi w ograniczone testy, Apple opóźniło swój remont Siri, a Samsung – pomimo utrzymania Bixby – pokonuje Bliźnięta na swoich urządzeniach. Wszystkie mają na celu dopasowanie przetwarzania wizualnego w czasie rzeczywistym Astra, które Google wdrożył prawie rok po początkowej wersji demo.
Wyróżniony obraz obrazu: Google