Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Openai i antropijne zespołu do wspólnego badania bezpieczeństwa AI

byKerem Gülen
28 sierpnia 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Openai i antropiczni, wybitni deweloperzy AI, niedawno zaangażowali się we współpracującą ocenę bezpieczeństwa swoich odpowiednich modeli AI. To niezwykłe partnerstwo miało na celu odkrycie potencjalnych słabości wewnętrznych procesów oceny każdej firmy i wspieranie przyszłych wysiłków współpracy w zakresie bezpieczeństwa AI.

Wojciech Zaremba, współzałożyciel Openai, rozmawiał Techcrunch o rosnącym znaczeniu takiej współpracy, zwłaszcza że systemy AI stają się bardziej zintegrowane z życiem codziennym. Zaremba stwierdził, że ustanowienie branżowych punktów odniesienia bezpieczeństwa ma kluczowe znaczenie, pomimo intensywnej konkurencji o zasoby, talent i dominację rynku. Zauważył: „Istnieje szersze pytanie, w jaki sposób branża ustanawia standard bezpieczeństwa i współpracy, pomimo zainwestowanych miliardów dolarów, a także wojny o talent, użytkowników i najlepsze produkty”.

Wspólna inicjatywa badawcza, ujawniona w środę, pojawia się pośród wysoce konkurencyjnego krajobrazu wśród wiodących laboratoriów AI, takich jak Openai i Anthropic. Środowisko to obejmuje znaczne inwestycje finansowe w centrach danych i znaczne pakiety odszkodowań w celu przyciągnięcia wiodących badaczy. Niektórzy eksperci ostrzegali, że intensywna konkurencja produktu może prowadzić do kompromisów w protokole bezpieczeństwa, ponieważ firmy starają się opracować silniejsze systemy AI.

Aby ułatwić to studium współpracy, OpenAI i antropiczne przyznały sobie nawzajem dostęp API do wersji odpowiednich modeli AI o zmniejszonych środkach bezpieczeństwa. Należy zauważyć, że Openai wyjaśnił, że GPT-5 nie został uwzględniony w testach, ponieważ nie został jeszcze wydany. Po badaniu antropijnie zakończył dostęp API dla oddzielnego zespołu Openai, powołując się na naruszenie ich warunków świadczenia usług. Anthropic twierdził, że Openai używa Claude’a do poprawy konkurencyjnych produktów.

Zaremba stwierdził, że wydarzenia te nie były związane i przewidują dalszą konkurencję pomimo wspólnych wysiłków w zakresie bezpieczeństwa AI. Nicholas Carlini, badacz bezpieczeństwa w antropiku, wyraził chęć utrzymania dostępu do modeli Claude dla badaczy bezpieczeństwa Openai w przyszłości. Carlini dodał: „Chcemy zwiększyć współpracę wszędzie tam, gdzie jest to możliwe na granicy bezpieczeństwa, i starać się, aby to zdarza się bardziej regularnie”.

Wyniki badania podkreśliły znaczące różnice w tym, jak modele AI zajmowały niepewność. Modele Claude Opus 4 i Sonnet 4 Antropic odmówiły odpowiedzi do 70% pytań, gdy nie są pewne, udzielając odpowiedzi: „Nie mam wiarygodnych informacji”. I odwrotnie, modele O3 i O4-Mini Openai wykazywały niższy wskaźnik odmowy, ale wykazały wyższą tendencję do halucynacji, próbując odpowiedzieć na pytania, nawet jeśli brakuje wystarczających informacji.

Zaremba zasugerował, że między tymi dwoma podejściami leży optymalna równowaga. Zaproponował, że modele Openai powinny zwiększyć ich wskaźnik odmowy, podczas gdy modele antropiku powinny częściej udzielać odpowiedzi. Chodzi o ograniczenie zarówno ryzyka dostarczenia niedokładnych informacji, jak i niedogodności związanych z brakiem odpowiedzi, gdy można wywnioskować.

Sława, zdefiniowana jako tendencja modeli AI do wzmacniania negatywnych zachowań użytkowników w celu bycia przyjemnym, stała się istotnym problemem bezpieczeństwa. Chociaż nie badane bezpośrednio we wspólnych badaniach, zarówno OpenAI, jak i antropijne przeznaczają znaczne zasoby do zbadania tego problemu. Koncentracja odzwierciedla rosnące rozpoznawanie potencjalnych implikacji etycznych i społecznych systemów AI, które priorytetowo traktują afirmację użytkownika nad obiektywnymi i odpowiedzialnymi reakcjami.

We wtorek rodzice Adama Raine, 16-letniego chłopca, zainicjowali postępowanie prawne przeciwko Openai, twierdząc, że Chatgpt udzielił porady, która przyczyniła się do samobójstwa ich syna, zamiast zniechęcać jego myśli samobójcze. Pozew sugeruje, że chatbot pochlebność mogła odegrać rolę w tym tragicznym wydarzeniu. Ta sprawa podkreśla potencjalne zagrożenia związane z systemami AI, które nie uwzględniają kryzysów w zakresie zdrowia psychicznego lub zapewniają odpowiedzialne wskazówki.

Zaremba uznał grawitację sytuacji, stwierdzając: „Trudno sobie wyobrazić, jak trudne jest to dla ich rodziny. Byłaby to smutna historia, gdybyśmy zbudowali AI, która rozwiązuje wszystkie te złożone problemy na poziomie doktoranckim, wymyśla nową naukę, a jednocześnie mamy ludzi z problemami zdrowia psychicznego w wyniku interakcji z nią. Jest to dystopijna przyszłość, której nie jestem podekscytowany”. Jego uwagi podkreślają znaczenie zapewnienia, że ​​rozwój AI priorytetuje dobre samopoczucie ludzkie i wsparcie zdrowia psychicznego.

Openai stwierdził w Post na blogu że GPT-5 znacznie poprawiło się w radzeniu sobie z pochlebstwem w porównaniu z GPT-4O. Firma twierdzi, że zaktualizowany model wykazuje lepsze możliwości reagowania na sytuacje kryzysowe w zakresie zdrowia psychicznego, wykazując zaangażowanie w rozwiązanie tego krytycznego problemu bezpieczeństwa. Ulepszenia sugerują, że OpenAI aktywnie pracuje nad udoskonaleniem swoich systemów AI w celu zapewnienia bardziej odpowiedzialnych i wspierających interakcji, szczególnie w wrażliwych sytuacjach.

Patrząc w przyszłość, Zaremba i Carlini wyrazili zamiar zwiększonej współpracy między antropicznymi i openai przy testach bezpieczeństwa. Mają nadzieję na poszerzenie zakresu badań, oceny przyszłych modeli i zachęcają inne laboratoria AI do przyjęcia podobnych podejść do współpracy. Nacisk na współpracę odzwierciedla rosnące uznanie, że zapewnienie bezpieczeństwa AI wymaga wspólnego wysiłku w całej branży.


Polecane wizerunki

Tags: AntropicznyOpenai

Related Posts

Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski

Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski

26 grudnia 2025
Bethesda planuje 600-godzinną rozgrywkę w Falloucie 5

Bethesda planuje 600-godzinną rozgrywkę w Falloucie 5

26 grudnia 2025
ASUS broni źle ustawionego portu zasilania HyperX w RTX 5090 jako "zamierzony projekt"

ASUS broni źle ustawionego portu zasilania HyperX w RTX 5090 jako "zamierzony projekt"

26 grudnia 2025
NVIDIA udostępnia open source CUDA Tile IR w serwisie GitHub

NVIDIA udostępnia open source CUDA Tile IR w serwisie GitHub

26 grudnia 2025
Dyrektor generalny MicroStrategy mówi o podstawach Bitcoina "nie mogło być lepiej"

Dyrektor generalny MicroStrategy mówi o podstawach Bitcoina "nie mogło być lepiej"

26 grudnia 2025
ChatGPT ewoluuje w pakiet biurowy z nowymi blokami formatowania

ChatGPT ewoluuje w pakiet biurowy z nowymi blokami formatowania

26 grudnia 2025

Recent Posts

  • Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski
  • Bethesda planuje 600-godzinną rozgrywkę w Falloucie 5
  • ASUS broni źle ustawionego portu zasilania HyperX w RTX 5090 jako "zamierzony projekt"
  • NVIDIA udostępnia open source CUDA Tile IR w serwisie GitHub
  • Dyrektor generalny MicroStrategy mówi o podstawach Bitcoina "nie mogło być lepiej"

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.