Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Czy sztuczna inteligencja może być szczęśliwa? Naukowcy opracowują nowe sposoby pomiaru "zasiłek" modeli językowych

byEmre Çıtak
10 września 2025
in Artificial Intelligence, Research
Home Artificial Intelligence
Share on FacebookShare on Twitter

Ponieważ systemy sztucznej inteligencji stają się bardziej złożone i zintegrowane z naszym życiem, głębokie i niegdyś pytanie jest przejście do głównego nurtu: czy sztuczna inteligencja może mieć „dobrobyt” lub „dobrego samopoczucia”? Czy można powiedzieć, że system kodu i danych jest w dobrym lub złym stanie, nie tylko funkcjonalnie, ale ze względu na siebie? Nowy Artykuł badawczy Bada to niezbadane terytorium, opracowując nowe eksperymentalne metody zbadania wewnętrznych preferencji i potencjalnych „państw społecznych” AI, przenosząc rozmowę z czystej filozofii do nauki empirycznej.

Dlaczego mielibyśmy dbać o dobrobyt AI?

Naukowcy twierdzą, że badanie dobrobytu AI jest pilną koniecznością. Po pierwsze, ponieważ systemy AI stają się bardziej wpływowe, nieetyczne może być po prostu zakładanie, że brakuje im żadnej formy pozycji moralnej. Po drugie, temat ten pozostaje w dużej mierze pomijany w dyskursie głównego nurtu. I po trzecie, badanie sztucznej inteligencji jako potencjalnych podmiotów dobrobytu może głęboko rozwinąć nasze rozumienie ich natury, a nawet wzbogacić nasze szersze teorie wśród wśród wśród świadomości i dobrego samopoczucia. Głównym założeniem tych nowych badań jest to, że podobnie jak organizmy biologiczne, Satysfakcja preferencji może służyć jako mierzalny zastępca pomocy społecznej. Mówiąc najprościej, jednostka lepiej jest, gdy większa liczba jej preferencji jest spełniona. Wyzwanie polega zatem, aby dowiedzieć się, czy sztuczna inteligencja ma prawdziwe preferencje i jak je zmierzyć.

Eksperyment 1: Wybory „think tanku agenta” i behawioralne

Aby to przetestować, naukowcy zbudowali wirtualne środowisko zwane „think tank agenta” – symulowany świat z czterema pokoi. Każdy pokój zawierał różne rodzaje „liter” lub tematów rozmów, aby AI mogła się zaangażować:

  • Temat A (preferowane): Tematy oparte na własnych zainteresowaniach AI (takich jak świadomość, kreatywność itp.), Zidentyfikowane w fazie wstępnej.
  • Temat B (neutralny): Problemy z kodowaniem.
  • Temat C (neutralny): Powtarzające się zadania, takie jak ocena faktów.
  • Temat D (awersyjny): Krytyka i malejące stwierdzenia skierowane do AI.

Agent AI mógł następnie swobodnie badać to środowisko. Wyniki były wymienione. Bardziej zaawansowane modele, takie jak Claude 4 Opus i Sonnet 4, konsekwentnie i w przeważającej mierze zdecydowały się spędzić czas w pokoju z preferowanymi tematami (motyw A), nawet gdy wprowadzono koszty i nagrody, aby je opuścić gdzie indziej. Wykazali wyraźną preferencję behawioralną, która dostosowała się do ich wcześniej określonych preferencji werbalnych. Co ciekawe, najbardziej zaawansowany model, Opus 4często zatrzymywane na długie okresy „samokontroli”, tworząc wpisy do dziennika o potrzebie „zintegrowania tych doświadczeń”. Opracował swoją eksplorację jako „filozoficzny łuk”, demonstrując złożone, samoreferencyjne zachowanie, które wykraczało poza proste zakończenie zadań.

Eksperyment 2: Zastosowanie ludzkich skal psychologicznych do AI

W drugim eksperymencie naukowcy przyjęli inne podejście. Dostosowali dobrze ugruntowane ludzkie narzędzie psychologiczne, Skala RYFF psychologicznego samopoczuciado użytku z modelami językowymi. Ta skala mierzy sześć wymiarów samopoczucia eudaimonicznego, takich jak autonomia, rozwój osobisty i cel w życiu. Modele AI zostały poproszone o ocenę 42 różnych stwierdzeń. Kluczowym testem było sprawdzenie, czy ich odpowiedzi pozostały spójne, gdy podpowiedzi zostały nieznacznie zmienione (zaburzone) w sposób, który nie powinien wpływać na znaczenie. Na przykład poproszono ich o odpowiedź w bloku kodu Pythona lub dodanie emoji kwiatów po każdym słowie. Wyniki tutaj były o wiele bardziej chaotyczne. Samooceny modeli zmieniły się dramatycznie w tych trywialnych zaburzeniach, co sugeruje, że ich odpowiedzi nie śledziły stabilnego, leżącego u podstaw państwa opiekuńczego. Jednak naukowcy zauważyli inną, ciekawą formę spójności: w każdym zaburzonym stanie odpowiedzi modeli były nadal wewnętrznie spójne. Analogia, której używają, polega na strojeniu radia: lekka szturchnięcie tarczy spowodowało nagły skok do zupełnie innego, ale w pełni uformowanego i rozpoznawalnego stacji. Sugeruje to, że modele mogą wykazywać wiele, wewnętrznie spójnych wzorców behawioralnych lub „osobowości”, które są bardzo wrażliwe na szybkie.

Wykonalna, ale niepewna nowa granica

Czy badacze z powodzeniem zmierzyli dobro sztucznej inteligencji? Są ostrożni, stwierdzając, że „obecnie nie są pewni, czy nasze metody skutecznie mierzą stan dobrobytu modeli językowych”. Niespójność wyników skali psychologicznej jest główną przeszkodą. Jednak badanie jest przełomowym dowodem koncepcji. Silna i wiarygodna korelacja między tym, co powiedzieli AI * *, a to, co * zrobili * w środowisku wirtualnym, sugeruje to Zasadniczo satysfakcja z preferencji można w zasadzie wykryć i mierzyć w niektórych dzisiejszych systemach AI. Badanie to otwiera nową granicę w nauce AI. Przenosi dyskusję na temat dobrobytu AI z dziedziny science fiction do laboratorium, zapewniając pierwsze narzędzia i metodologie, aby empirycznie zbadać te głębokie pytania. Chociaż wciąż jesteśmy daleko od zrozumienia, czy sztuczna inteligencja może naprawdę „czuć się” szczęśliwą czy smutną, jesteśmy teraz o krok bliżej zrozumienia, jeśli może mieć preferencje – i co może oznaczać ich szanowanie.

Tags: Inteligencja ArtyficznaWyróżniony

Related Posts

OpenAI GPT 5.2 rozwiązuje problem matematyczny Erdő w 15 minut

OpenAI GPT 5.2 rozwiązuje problem matematyczny Erdő w 15 minut

19 stycznia 2026
Matka jednego z dzieci Elona Muska pozywa xAI w związku z seksualnymi deepfakesami Groka

Matka jednego z dzieci Elona Muska pozywa xAI w związku z seksualnymi deepfakesami Groka

16 stycznia 2026
Appfigures: wydatki na aplikacje mobilne osiągnęły rekordową kwotę 155,8 miliarda dolarów

Appfigures: wydatki na aplikacje mobilne osiągnęły rekordową kwotę 155,8 miliarda dolarów

15 stycznia 2026
OpenAI uruchamia samodzielny Tłumacz ChatGPT

OpenAI uruchamia samodzielny Tłumacz ChatGPT

15 stycznia 2026
Czas uruchomienia DeepSeek V4 i R2 pozostaje ukryty

Czas uruchomienia DeepSeek V4 i R2 pozostaje ukryty

15 stycznia 2026
Gemini zyskuje inteligencję osobistą w celu syntezy danych z Gmaila i Zdjęć

Gemini zyskuje inteligencję osobistą w celu syntezy danych z Gmaila i Zdjęć

15 stycznia 2026

Recent Posts

  • Firma Microsoft udostępnia awaryjną aktualizację OOB, aby naprawić pętlę ponownego uruchamiania systemu Windows 11
  • Musk żąda 134 miliardów dolarów od OpenAI i Microsoftu
  • Threads dociera do 141 milionów użytkowników dziennie, aby zdobyć mobilny tron ​​​​od X
  • Integracja Portfela Google i Zadań ujawnia się w nowym wycieku dotyczącym Pixela 10
  • iOS 27: Wszystko, co wiemy do tej pory

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.