Według raportów firmy OpenAI w ciągu ostatnich dwóch miesięcy zjednoczyła zespoły inżynieryjne, produktowe i badawcze, aby dokonać przeglądu swoich modeli audio w ramach przygotowań do premiery pierwszego osobistego urządzenia audio, które ma zostać wprowadzone na rynek za około rok. Informacje. Celem remontu jest ulepszenie możliwości audio OpenAI wykraczające poza obecne ograniczenia. Nowy model audio firmy, którego premiera zaplanowana jest na początek 2026 r., zapewni bardziej naturalnie brzmiącą mowę. Będzie zarządzał przerwami w sposób podobny do prawdziwego partnera rozmowy. Model ten umożliwi także sztucznej inteligencji mówienie jednocześnie z użytkownikiem, czego nie mogą wykonać istniejące modele. OpenAI planuje rodzinę urządzeń zasilanych tą zaawansowaną technologią audio. Możliwe projekty obejmują okulary lub inteligentne głośniki bez ekranu. Urządzenia te mają służyć raczej jako towarzysze niż zwykłe narzędzia i płynnie integrować się z codziennymi interakcjami.
Były szef projektantów Apple, Jony Ive uczestniczy w inicjatywach sprzętowych OpenAI. W maju OpenAI przejęło jego firmę io za 6,5 miliarda dolarów. Ive priorytetowo traktuje zasady projektowania audio w celu rozwiązania problemu uzależnienia od urządzeń. Jak zauważa The Information, Ive postrzega to podejście jako szansę na „naprawienie błędów” wyrządzonych gadżetom konsumenckim z przeszłości. Nacisk na interfejsy audio jest zgodny z szerszym rozwojem branży. Inteligentne głośniki wyposażone w asystentów głosowych znajdują się w ponad jednej trzeciej amerykańskich domów. Urządzenia te uczyniły interakcję głosową standardowym elementem gospodarstwa domowego. Meta wprowadziła funkcję dla swojego Inteligentne okulary Ray-Ban wykorzystujący układ pięciu mikrofonów. Taka konfiguracja pomaga użytkownikom słyszeć rozmowy w hałaśliwym otoczeniu. Technologia ta skutecznie przekształca okulary w kierunkowe urządzenie odsłuchowe umieszczane na twarzy. W czerwcu Google rozpoczął eksperymenty z „Przeglądy audio.” Ta funkcja konwertuje wyniki wyszukiwania na podsumowania konwersacji dostarczane w formie audio. Użytkownicy otrzymują przeglądy mówione zamiast list wizualnych, co ułatwia dostęp do informacji bez użycia rąk. Tesla włącza do swoich pojazdów Grok i inne modele dużych języków. Integracja tworzy konwersacyjnych asystentów głosowych zdolnych do naturalnego dialogu. Asystenci ci zarządzają takimi zadaniami, jak nawigacja i klimatyzacja, za pomocą poleceń głosowych i odpowiedzi. Startupy wykorzystują podobny sprzęt audiocentryczny z różnymi wynikami. The Humanitarna przypinka AIurządzenie do noszenia bez ekranu, pochłonęło setki milionów dolarów, zanim stało się przestrogą w branży. Wisiorek Friend AI działa jak naszyjnik, który rejestruje aspekty życia użytkowników, zapewniając jednocześnie towarzystwo. To urządzenie wzbudziło obawy dotyczące prywatności, a także doniesienia o egzystencjalnym lęku wśród użytkowników. Kolejne start-upy opracowują pierścienie AI, których premiera przewidywana jest na rok 2026. Sandbar stanowi jedno z wysiłków. Inny dotyczy założyciela Pebble, Erica Migicovsky'ego. Pierścienie te umożliwiają użytkownikom prowadzenie rozmów bezpośrednio z urządzeniem na dłoni. Kształty różnią się w przypadku tych projektów – urządzenia do noszenia, wisiorki, pierścionki – ale we wszystkich kładzie się nacisk na dźwięk jako główny interfejs. Przestrzenie takie jak domy, samochody, a nawet twarz ewoluują w interaktywne środowiska audio.





