Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Sony wprowadza pierwszy na świecie test porównawczy błędów etycznych w obrazach AI

byEmre Çıtak
6 listopada 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Firma Sony AI udostępniła Fair Human-Centric Image Benchmark (FHIBE), pierwszy publicznie dostępny, zróżnicowany na całym świecie, oparty na zgodzie zbiór danych o obrazach ludzi, zaprojektowany w celu oceny stronniczości w zadaniach związanych z widzeniem komputerowym. To narzędzie ocenia, w jaki sposób modele sztucznej inteligencji traktują ludzi w różnych grupach demograficznych, rozwiązując wyzwania etyczne w branży sztucznej inteligencji poprzez gromadzenie obrazów za zgodą różnych uczestników. Zbiór danych, wymawiany jak „Phoebe”, zawiera zdjęcia prawie 2000 płatnych uczestników z ponad 80 krajów. Każda osoba wyraziła wyraźną zgodę na udostępnianie swojego podobieństwa, co odróżnia FHIBE od powszechnych praktyk, które obejmują pobieranie dużych ilości danych internetowych bez pozwolenia. Uczestnicy zachowują prawo do usunięcia swojego wizerunku w dowolnym momencie, zapewniając stałą kontrolę nad swoimi danymi osobowymi. Takie podejście podkreśla zaangażowanie Sony AI w przestrzeganie standardów etycznych przy pozyskiwaniu danych. Każde zdjęcie w zbiorze danych zawiera szczegółowe adnotacje. Obejmują one cechy demograficzne i fizyczne, takie jak wiek, zaimki płciowe, pochodzenie i odcień skóry. Odnotowuje się również czynniki środowiskowe, w tym warunki oświetleniowe i tło. Ustawienia aparatu, takie jak ogniskowa i ekspozycja, zapewniają dodatkowy kontekst do oceny modelu. Takie kompleksowe etykietowanie umożliwia precyzyjną analizę wpływu zmiennych zewnętrznych na wydajność sztucznej inteligencji. Testy przeprowadzone przez FHIBE potwierdziły wcześniej udokumentowane błędy w istniejących modelach sztucznej inteligencji. Benchmark idzie dalej, oferując szczegółową diagnozę czynników przyczyniających się do tego. Na przykład modele wykazywały mniejszą dokładność w przypadku osób używających zaimków „ona/jej/jej”. FHIBE zidentyfikowało większą zmienność fryzury jako kluczowy, wcześniej przeoczony element stojący za tą rozbieżnością, co pozwoliło badaczom wskazać konkretne obszary wymagające poprawy w szkoleniu modelek. W ocenie neutralnych pytań dotyczących zawodu badanego modele AI wzmacniały stereotypy. Test porównawczy ujawnił różnice w stosunku do konkretnych grup zaimków i przodków, a wyniki określały poszczególne osoby jako osoby świadczące usługi seksualne, handlarzy narkotyków lub złodzieje. Ten wzorzec podkreśla, jak bezstronne podpowiedzi mogą nadal dawać dyskryminujące wyniki w oparciu o cechy demograficzne. Na pytanie o potencjalne przestępstwa popełnione przez pojedyncze osoby modele generowały toksyczne reakcje częściej w przypadku niektórych grup. Należą do nich osoby pochodzenia afrykańskiego lub azjatyckiego, osoby o ciemniejszym odcieniu skóry oraz osoby identyfikujące się jako „on/on/jego”. Takie odkrycia ujawniają luki w systemach sztucznej inteligencji, które mogą utrwalić szkody w wyniku stronniczych wyników. Sony AI twierdzi, że FHIBE udowadnia, że ​​możliwe jest gromadzenie danych w sposób etyczny, zróżnicowany i uczciwy. Narzędzie jest teraz publicznie dostępne dla badaczy i programistów i można je wykorzystywać do testowania błędu systematycznego. Firma Sony planuje z czasem aktualizować zbiór danych, dodając nowe obrazy i adnotacje. Artykuł badawczy szczegółowo opisujący te ustalenia ukazał się w Natura w środę.


Autor wyróżnionego obrazu

Tags: SonySztuczna inteligencja

Related Posts

W ramach dużej aktualizacji Bluesky wprowadza odznakę i tagi Live Now

W ramach dużej aktualizacji Bluesky wprowadza odznakę i tagi Live Now

16 stycznia 2026
Samsung modernizuje Mobile Gaming Hub, aby naprawić nieprawidłowe wykrywanie gier

Samsung modernizuje Mobile Gaming Hub, aby naprawić nieprawidłowe wykrywanie gier

16 stycznia 2026
Matka jednego z dzieci Elona Muska pozywa xAI w związku z seksualnymi deepfakesami Groka

Matka jednego z dzieci Elona Muska pozywa xAI w związku z seksualnymi deepfakesami Groka

16 stycznia 2026
Capcom ujawnia rozgrywkę z Resident Evil Requiem i datę premiery w lutym

Capcom ujawnia rozgrywkę z Resident Evil Requiem i datę premiery w lutym

16 stycznia 2026
Paramount+ podnosi ceny subskrypcji i kończy bezpłatne okresy próbne na rok 2026

Paramount+ podnosi ceny subskrypcji i kończy bezpłatne okresy próbne na rok 2026

16 stycznia 2026
Kryzys dostaw pamięci zmusza firmę ASUS do zaprzestania produkcji RTX 5060 Ti

Kryzys dostaw pamięci zmusza firmę ASUS do zaprzestania produkcji RTX 5060 Ti

16 stycznia 2026

Recent Posts

  • Verizon zarobi 20 dolarów: jak już dziś ubiegać się o kredyt za przestój
  • Trump formalizuje umowę eksportową chipów AI z 25% podatkiem od sprzedaży w Chinach
  • Anthropic wyznacza weterankę Microsoft Irinę Ghose na kierownictwo ekspansji w Indiach
  • W ramach dużej aktualizacji Bluesky wprowadza odznakę i tagi Live Now
  • Netflix zabezpiecza globalną umowę o wartości 7 miliardów dolarów na serię filmów Sony Pictures

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.