Pavan Davuluri z Microsoftu omówił przyszłość systemu Windows w nowym wywiadzie wideo, stwierdzając, że następna wersja będzie „bardziej ambientowa, wszechobecna i multimodalna”, ponieważ AI redefiniuje interakcję użytkownika z komputerami.
Pavan Davuluri, Microsoft CVP i Windows Boss, niedawno przedstawili wizję przyszłości systemu operacyjnego systemu Windows w nowo wydanym wywiadzie wideo. Davuluri szczegółowo opisał, w jaki sposób sztuczna inteligencja (AI) zasadniczo zmieni interfejs komputerowy, co prowadzi do wrażenia z komputerów w otoczeniu i wielu modalnych. Ta dyskusja dostarczyła wgląd w strategiczny kierunek Microsoft dla jego flagowej platformy.
Podczas wywiadu Davuluri zajął się transformacyjnym wpływem sztucznej inteligencji na interakcję człowieka-komputer. Stwierdził: „Myślę, że przetwarzanie staje się bardziej otoczone, bardziej wszechobecne, nadal tworzą czynniki, a na pewno stać się bardziej multimodalne w czasie”. Davuluri opracował dodatkowo ewoluującą naturę metod wejściowych, zauważając: „Myślę, że doświadczenie różnorodności jest następną przestrzenią, w której będziemy nadal widzieć, że głos staje się ważniejszy. Zasadniczo koncepcja, którą komputer może spojrzeć na ekran, i jest świadomy kontekstu, stanie się dla nas ważną metodą dla nas”. Wskazuje to na przejście w kierunku systemów, które rozumieją kontekst środowiskowy i użytkownika poprzez zaawansowane możliwości AI.
Microsoft wcześniej wskazał strategiczny nacisk na głos jako podstawową metodę wejściową dla przyszłych iteracji systemu Windows. Film „Windows 2030 Vision”, wydany na tydzień przed wywiadem Davuluri, zawierał CVP firmy Microsoft firmy Enterprise & Security, omawiając podobne koncepcje dotyczące przyszłości systemu operacyjnego. Ta wcześniejsza komunikacja jest zgodna z ostatnimi stwierdzeniami Davuluri, wzmacniając zaangażowanie firmy w integrację głosu jako podstawową metodę interakcji.
Oczekuje się, że nadchodząca wersja Windows podniesie głos do metody wejściowej pierwszej klasy, uzupełniając tradycyjne interfejsy myszy i klawiatury. Użytkownicy podobno będą mogli wchodzić w interakcje z systemem Windows za pomocą języka naturalnego, z systemem operacyjnym zaprojektowanym w celu zrozumienia intencji użytkownika w oparciu o treść wyświetlaną na ekranie. Ta integracja ma na celu stworzenie bardziej intuicyjnego i bezproblemowego wrażenia użytkownika, umożliwiając komunikację otoczenia z systemem operacyjnym.
Davuluri zasugerował również, że wizualny paradygmat wyglądu i interakcji Windows podlega znacznym zmianie z powodu integracji agencji AI. Zauważył: „Myślę, że to, jak wyglądają dzisiejsze interfejsy ludzkie i jak wyglądają za pięć lat, to dla nas jeden duży obszar ciągu, który Windows nadal ewoluuje. System operacyjny jest coraz bardziej agencyjny i multimodalny”. To stwierdzenie podkreśla znaczne inwestycje i ciągłe wysiłki rozwojowe w rozwinięciu podstawowych modeli projektowania i interakcji użytkownika systemu operacyjnego.
Infrastruktura w chmurze jest identyfikowana jako kluczowy czynnik włączający dla tych zaawansowanych doświadczeń systemu Windows. Davuluri wyjaśnił: „Oblicz stanie się wszechobecny, ponieważ w systemie Windows wykorzystają kombinację możliwości lokalnych i które są w chmurze. Myślę, że naszym obowiązkiem jest upewnienie się, że są bezproblemowe dla naszych klientów”. Wskazuje to na hybrydowy model obliczeń, w którym możliwości urządzeń lokalnych są płynnie zintegrowane z przetwarzaniem opartym na chmurze, aby zapewnić ulepszoną funkcjonalność.
Strategiczny kierunek Microsoftu sugeruje fundamentalną zmianę w sposób integrowania asystentów AI z systemami operacyjnymi. Obecni asystenci AI, tacy jak Copilot w systemie Windows, Gemini na Androidzie lub Siri na macOS, zazwyczaj działają jako aplikacje lub nakładki działające na istniejących platformach systemu operacyjnego. Wydaje się, że Microsoft przygotowuje się do wprowadzenia systemu operacyjnego, w którym sztuczna inteligencja jest wewnętrznie wpleciona w swoją podstawową architekturę, a nie istniała jako osobna warstwa. Ta transformacja jest przewidywana w ciągu najbliższych pięciu lat, potencjalnie zbieżna z wydaniem systemu Windows 12. Wielu menedżerów Microsoft na wysokim poziomie nawiązało do tej znaczącej ewolucji, określając ją jako znaczącą zmianę w obliczeniach napędzanych postępami AI.
Podczas gdy koncepcja głosu stania się główną metodą wejściową dla komputerów PCS może stanowić korekcję dla niektórych użytkowników, integracja Agentic AI i zdolność systemu operacyjnego do zrozumienia zamiarów użytkownika i języka naturalnego sprawi, że ta interakcja będzie bardziej intuicyjna. Ta ewolucja wykracza poza Microsoft, a Apple podobno opracowuje podobną funkcję zorientowaną na głos dla iOS 26. Ta nadchodząca funkcja użytkowników iPhone’a ma podobno, aby umożliwić nawigację aplikacji wyłącznie za pomocą poleceń werbalnych, wyrażając zamiar użytkownika bezpośrednio do urządzenia.
Na platformie systemu Windows wprowadzanie głosu prawdopodobnie zwiększy, a nie zastąpić, ustalone metody wejściowe. System będzie zawierał trzy podstawowe tryby interakcji: pisanie, dotyk/mysz i głos. Chociaż dane wejściowe głosu może nie być obowiązkowe do wykonania zadania, oczekuje się, że jego dostępność usprawni przepływy pracy użytkownika. Jednak poleganie na szeroko zakrojonych danych użytkowników osobistych w celu zoptymalizowania tych doświadczeń związanych z sztuką inteligentną podnosi względy prywatności. Uznanie przez Davuluri niezbędnej równowagi między obliczeniami lokalnymi i chmurowymi dla tych doświadczeń sugeruje, że te obawy dotyczące prywatności będą istotnym czynnikiem w ich wdrażaniu i przyjęciu publicznym.





