Niedawno rozmawiał z nim szef oprogramowania Apple, Craig Federighi Dziennik Wall Street aby omówić ostrożne podejście firmy do sztucznej inteligencji i przyszłości Siri. Chociaż Apple wolniej wprowadzało narzędzia generatywnej sztucznej inteligencji w porównaniu z konkurencją, Federighi podkreślił znaczenie właściwego postępowania, ze szczególnym naciskiem na prywatność i wygodę użytkownika.
Ostrożne podejście Apple do AI
W październiku Apple planuje udostępnić nowe funkcje AI iOS 18.1 dla iPhone’a 15 Pro i nadchodzące iPhone’a 16. Cechy te, tzw Inteligencja Appletrafi także na komputery Mac i iPady. Podczas gdy firmy takie jak OpenAI szybko wprowadziły produkty AI, takie jak ChatGPT, Apple wybrał wolniejszą drogę.
„Czujemy, że chcemy zrobić to dobrze” – powiedział Federighi, dodając, że Apple postrzega to jako projekt długoterminowy. „Szczerze mówiąc, rozwój tej technologii będzie trwał wiele lat, a nawet dziesięcioleci, więc zrobimy to odpowiedzialnie”.
Apple Intelligence jest „nie pierwszy, ale najlepszy” – mówi Tim Cook
Priorytetowe traktowanie prywatności dzięki lokalnym modelom sztucznej inteligencji
Podejście Apple do sztucznej inteligencji wyróżnia się silnym naciskiem na prywatność. Federighi wyjaśnił, że Apple uruchamia większość modeli sztucznej inteligencji bezpośrednio na urządzeniach użytkowników, co oznacza, że dane osobowe pozostają lokalne. Tylko w niektórych przypadkach, np. w formie długiego podsumowania, Apple korzysta z chmury obliczeniowej w celu uzyskania lepszej wydajności.
„Kiedy poprosiłeś o podsumowanie wiadomości, została ona zaszyfrowana na zaufanym urządzeniu w chmurze. Apple nie miał dostępu do tego e-maila ani nikt inny” – powiedział Federighi. Podkreślił, że system przetwarzania w chmurze Apple – tzw Prywatna chmura obliczeniowa— został zaprojektowany w taki sposób, aby firma nie widziała ani nie przechowywała danych użytkowników.
Z czasem Siri stanie się mądrzejsza
Siri, asystent głosowy Apple, od ponad dekady stanowi kluczową część linii produktów Apple. Federighi przyznał, że Siri wciąż ewoluuje, ale stwierdził, że daje sobie radę 1,5 miliarda żądań każdego dnia.
Federighi wyjaśnił, że użyteczność Siri wzrośnie, ponieważ Apple Intelligence i duże modele językowe sprawią, że asystent będzie lepiej rozumieć polecenia użytkownika. Siri zacznie także odpowiadać na bardziej szczegółowe pytania na podstawie informacji o użytkownikach, takich jak kalendarze i wiadomości.
„Siri rozumie Cię lepiej niż kiedykolwiek wcześniej i będzie miała dostęp do większej liczby narzędzi na Twoim urządzeniu, aby zrobić dla Ciebie więcej niż kiedykolwiek wcześniej” – powiedział Federighi.
Podkreślił jednak, że Siri wciąż daleko do bycia w pełni świadomym asystentem. „Czy nadejdzie moment, w którym powiemy: „Siri jest teraz moim świadomym kumplem”? Nie, będzie coraz lepiej.”
Firma Apple zaprezentowała wiele narzędzi AI podczas swojej ogólnoświatowej konferencji programistów w czerwcu. Jednak niektóre z tych funkcji nadal nie są dostępne. Federighi wyjaśnił, że firma zdecydowała się opóźnić niektóre funkcje, aby mieć pewność, że działają prawidłowo.
„To duży krok naprzód i czujemy, że chcemy zrobić to dobrze” – powiedział. Federighi dodał, że Apple woli udostępniać narzędzia AI etapami, niż spieszyć się z ich wprowadzaniem na rynek.
Jedną z już dostępnych nowych funkcji są podsumowania powiadomień. To narzędzie pomaga użytkownikom zarządzać powiadomieniami, podsumowując ważne alerty, np. czy brama garażowa jest otwarta czy zamknięta. Federighi przyznał jednak, że podsumowania AI dotyczące delikatnych kwestii, takich jak rozstania, mogą wydawać się bezosobowe.
„Nie będziemy automatycznie podsumowywać powiadomienia, ponieważ mówimy: «Prawdopodobnie nie poradzimy sobie z tym dobrze»” – wyjaśnił Federighi.
Edycja zdjęć za pomocą AI
Firma Apple wprowadziła także nową funkcję edycji zdjęć, znaną jako Oczyszczanie, która pozwala użytkownikom usuwać niechciane obiekty ze zdjęć. Federighi powiedział, że w firmie debatowano wewnętrznie, czy ułatwić użytkownikom modyfikowanie zdjęć.
„Obawiamy się, że fotografia ma długą historię i że ludzie postrzegają treści fotograficzne jako coś, na czym mogą polegać jako wskaźnik rzeczywistości” – powiedział Federighi. Aby uniknąć wprowadzenia użytkowników w błąd, Apple dołącza metadane do edytowanych zdjęć, dzięki czemu inni mogą zobaczyć, że wprowadzono zmiany.
Z ciekawością czekam na Apple Intelligence
Federighi potwierdził, że funkcje Apple Intelligence będą wprowadzane stopniowo w ciągu przyszłego roku. Chociaż niektóre aspekty sztucznej inteligencji, np Głębsza integracja Siri z narzędziami takimi jak ChatGPTnie są jeszcze gotowe, Apple nad tym pracuje.
„Chcemy, aby klienci, którzy są podekscytowani tym, co będzie mogli dowiedzieć się: «No dobrze, jeśli kupię ten telefon, czy to będzie właściwy telefon, który będzie mógł robić takie rzeczy?». I tak jest” – powiedział Federighi.
Na razie użytkownicy mogą spodziewać się większej liczby aktualizacji i przewodników dotyczących sztucznej inteligencji, takich jak nadchodzący samouczek dotyczący czyszczenia słuchawek AirPods – szczegół, o którym Federighi zażartował w wywiadzie.
Autor wyróżnionego obrazu: Omid Armin/Unsplash