Google wykorzystuje generatywną sztuczną inteligencję i wiele modeli fundamentów wprowadzić Rozumowanie geoprzestrzenne, inicjatywa badawcza mającą na celu przyspieszenie problemów geoprzestrzennych. Ten wysiłek integruje duże modele językowe, takie jak modele Fundacji Gemini i teledetekcji, aby poprawić analizę danych w różnych sektorach.
Przez lata Google opracowało dane geoprzestrzenne, które są informacją powiązaną z określonymi lokalizacjami geograficznymi, w celu wzmocnienia ich produktów. Dane te mają kluczowe znaczenie dla rozwiązywania problemów przedsiębiorstwa, takich jak te w zakresie zdrowia publicznego, rozwoju miast i odporności klimatu.
Nowe modele fundamentów teledetekcji są zbudowane na architekturach takich jak maskowane autoencodery, SIGlip, Mammut i Owl-VIT, i są szkolone przy użyciu obrazów satelitarnych i lotniczych o wysokiej rozdzielczości z opisami tekstu i ograniczającymi adnotacjami pudeł. Modele te generują szczegółowe osadzanie obrazów i obiektów i mogą być dostosowywane do zadań takich jak infrastruktura mapowania, ocena uszkodzeń katastrof i lokalizowanie określonych funkcji.
Modele te obsługują interfejsy języka naturalnego, umożliwiając użytkownikom wykonywanie zadań takich jak znalezienie zdjęć określonych struktur lub identyfikowanie nieprzejezdnych dróg. Oceny wykazały najnowocześniejszą wydajność w różnych odniesieniach do teledetekcji.
Rozumowanie geoprzestrzenne ma na celu zintegrowanie zaawansowanych modeli fundamentów Google z modelami i zestawami danych, opierając się na istniejącym pilocie Bliźnięta Możliwości w Google Earth. Ta framework pozwala programistom konstruować niestandardowe przepływy pracy na platformie Google Cloud w celu zarządzania złożonymi zapytaniami geoprzestrzennymi za pomocą Gemini, które organizują analizy w różnych źródłach danych.
Aplikacja demonstracyjna pokazuje, w jaki sposób menedżer kryzysowy może użyć rozumowania geoprzestrzennego po huraganie przez:
- Wizualizacja kontekstu przed katastrofą: Korzystanie z obrazów satelitarnych Earth Ench Engine.
- Wizualizacja sytuacji po katastrofie: Importowanie obrazów lotniczych o wysokiej rozdzielczości.
- Identyfikacja uszkodzonych obszarów: Wykorzystanie modeli fundamentów teledetekcyjnych do analizy obrazów lotniczych.
- Przewidywanie dalszego ryzyka: Wykorzystanie prognozy pogody Weathernext.
- Zadawanie pytań Gemini: Szacowanie ułamków szkód, wartość szkód właściwości i sugerowanie priorytetyzacji w zakresie pomocy.
Aplikacja demonstracyjna obejmuje:
- Pakowana aplikacja Python Front-end: Który integruje komponenty mapowania i wykresu z oknem czatu.
- Agentic Back-end: To implementuje agent LANGGRAPH wdrożony za pomocą silnika agenta AI Vertex AI.
- narzędzia do dostępu do LLM: Aby uzyskać dostęp do Earth Engine, BigQuery, Google Maps Platform i Google Cloud Storage, wykonywanie operacji geoprzestrzennych i korzystanie z punktów końcowych wnioskowania modelu Foundation Foundation wdrożone na Vertex AI.
Aplikacja wykorzystuje obrazy lotnicze o wysokiej rozdzielczości z Civil Air Patrol, wstępnie przetwarzane z AI z Bellwether, Xshot X do adaptacji klimatu, a także otwarte budynki i modele SKAI Google Research. Uwzględniane są również wskaźniki podatności społecznej, dane cenowe i Google Weathernext Insights.
Choreograph WPP zintegruje PDFM z danymi o wydajności mediów, aby zwiększyć inteligencję odbiorców opartą na AI. Airbus, Maxar i Planet Labs będą początkowymi testerami modeli fundamentów teledetekcyjnych.
Swoiście:
- Airbus: Planuje korzystać z modeli Foundation Foundation Google, aby umożliwić użytkownikom wyodrębnienie spostrzeżeń z miliardów zdjęć satelitarnych.
- Maxar: Zamierza wykorzystać modele, aby pomóc klientom w interakcji z „żywym globem” i szybciej wyciągnąć odpowiedzi o krytycznym misji.
- Planet Labs: Użyje modeli fundamentów teledetekcji, aby uprościć i przyspieszyć spostrzeżenia dla swoich klientów.