OpenAI wprowadziło do swojego API nowy model wnioskowania o1, rozwałkować to dla wybranych programistów od 17 grudnia 2024 r. Premiera stanowi część szerszej aktualizacji, która zawiera także nowe funkcje zwiększające funkcjonalność i dostosowywanie dla programistów. Aby zakwalifikować się do użycia, programiści muszą wydać co najmniej 1000 USD i posiadać konta starsze niż 30 dni.
„Dzisiaj przedstawiamy bardziej wydajne modele, nowe narzędzia do dostosowywania i ulepszenia, które poprawiają wydajność, elastyczność i efektywność kosztową dla programistów korzystających z sztucznej inteligencji”.
-Otwórz AI
OpenAI uruchamia API o1 dla wybranych programistów
Model o1 zastępuje poprzednią wersję zapoznawczą o1, oferując możliwości umożliwiające sprawdzanie własnych reakcji, co jest zaletą rzadko spotykaną w modelach AI. W ramach kompromisu generowanie odpowiedzi w modelu rozumowania zajmuje zwykle więcej czasu. Koszt przetwarzania za pomocą o1 jest znaczny; pobiera od programistów 15 dolarów za każde 750 000 przeanalizowanych słów i 60 dolarów za wygenerowaną treść, co oznacza sześciokrotny wzrost w porównaniu z najnowszym modelem pozbawionym rozumowania, GPT-4o.
Nowy o1 ma na celu poprawę wcześniejszych ograniczeń, przy czym OpenAI zapewnia, że oferuje „bardziej kompleksowe i dokładne odpowiedzi”, szczególnie w przypadku zapytań technicznych związanych z programowaniem i biznesem. Zawiera ulepszenia, takie jak parametr wysiłku wnioskowania, który umożliwia programistom kontrolowanie czasu przetwarzania zapytań. Ponadto model jest bardziej elastyczny niż jego poprzednik, obsługując takie funkcje, jak komunikaty dla programistów w celu dostosowania zachowania chatbota i umożliwiając ustrukturyzowane dane wyjściowe przy użyciu schematu JSON.
Aby ułatwić bardziej dynamiczne interakcje, OpenAI ulepszyło możliwości wywoływania funkcji, umożliwiając modelowi wykorzystanie wcześniej napisanych funkcji zewnętrznych podczas generowania odpowiedzi. Ta iteracja interfejsu API wymaga podobno o 60% mniej tokenów do przetwarzania w porównaniu do o1-podglądosiągając jednocześnie wyższy współczynnik dokładności – od 25 do 35 punktów procentowych więcej w testach porównawczych, takich jak LiveBench i AIME.
OpenAI rozszerzyło także swoje możliwości dotyczące interakcji w czasie rzeczywistym poprzez Realtime API, obsługując teraz WebRTC w celu zapewnienia płynniejszej komunikacji audio. Dodatek ten ma na celu uproszczenie integracji programistom, znacznie zmniejszając złożoność kodu z około 250 linii do kilkunastu. Co więcej, OpenAI obniżyło koszt tokenów audio o1 o 60% i minitokenów o 90%, aby zachęcić programistów do korzystania z nich.
„Nasza integracja z WebRTC została zaprojektowana tak, aby umożliwić płynne i responsywne interakcje w rzeczywistych warunkach, nawet przy zmiennej jakości sieci” – napisał OpenAI na blogu. „Obsługuje kodowanie dźwięku, przesyłanie strumieniowe, tłumienie szumów i kontrolę zatorów”.
Kolejna znacząca aktualizacja obejmuje nową metodę dostrajania modeli AI zwaną bezpośrednią optymalizacją preferencji. Dzięki temu trenerzy modeli mogą zapewnić dwa wyniki i określić preferencje bez konieczności podawania dokładnych przykładów danych wejściowych/wyjściowych dla każdego scenariusza. OpenAI twierdzi, że ta metoda zwiększa zdolność modelu do dostosowywania się do różnych dziwactw w stylu odpowiedzi, formatowaniu i przydatności.
Programiści posługujący się językami programowania, takimi jak Go i Java, mogą teraz uzyskać dostęp do nowych zestawów programistycznych (SDK) zaprojektowanych z myślą o łatwiejszej integracji API. W miarę postępu tych aktualizacji OpenAI planuje rozszerzyć dostęp i zwiększyć limity szybkości dla większej liczby programistów poza początkową kategorią poziomu 5.
Autor wyróżnionego obrazu: OpenAI