Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Głowa sztucznej inteligencji Microsoft mówi, że sztuczna inteligencja powinna być zbudowana dla ludzi nie jako ludzie

byAytun Çelebi
22 sierpnia 2025
in Industry
Home Industry
Share on FacebookShare on Twitter

Rosnące wyrafinowanie sztucznej inteligencji, zdolnych do generowania odpowiedzi podobnych do człowieka, wywołuje pytania dotyczące świadomości i praw AI. Ta wschodząca dziedzina, znana jako „AI Welfare” w Dolinie Krzemowej, wywołuje debatę wśród liderów technologii i badaczy. Podstawowe pytanie dotyczy tego, czy modele AI mogą pewnego dnia rozwinąć subiektywne doświadczenia, a jeśli tak, to jakie zabezpieczenia powinni posiadać.

W centrum tej dyskusji leży zdolność modeli AI do naśladowania interakcji człowieka poprzez tekst, audio i wideo. Modele te mogą czasem stworzyć iluzję ludzkiej obecności, co prowadzi do pytań o ich potencjał świadomości. Jednak zdolność do generowania odpowiedzi nie jest automatycznie równoznaczna z prawdziwym doświadczeniem subiektywnym.

Niektórzy badacze AI, szczególnie ci w laboratoriach takich jak antropiki, aktywnie badają możliwość opracowania modeli AI, które są subiektywne, podobne do żywych istot. Ich badania bada warunki, w których mogą powstać takie doświadczenia, oraz etyczne implikacje dla praw AI.

Ta powstająca dziedzina „AI Welfare” wywołała spór w branży technologicznej. Głównym punktem twierdzenia jest to, czy modele AI mogą, czy kiedykolwiek będą, osiągnąć poziom świadomości, który uzasadnia względy prawne i etyczne. Ta debata dzieli liderów technologii i kształtuje kierunek badań AI.

Mustafa Suleyman, dyrektor generalny AI Microsoft, wyraził silny sprzeciw wobec badań nad AI. W ostatnim Post na bloguSuleyman scharakteryzował to pole jako „zarówno przedwczesne, jak i szczerze niebezpieczne”, argumentując, że odwraca uwagę od bardziej palących problemów.

Obawy Suleymana koncentrują się na potencjalnym badaniach dobrostanu AI w celu zaostrzenia istniejących problemów, takich jak przerwy psychotyczne indukowane przez AI i niezdrowe przywiązania do chatbotów AI. Twierdzi, że udzielanie wiarygodności idei świadomości AI może negatywnie wpłynąć na zdrowie psychiczne człowieka.

Twierdzi również, że rozmowa z tytułu środowiska AI ryzykuje tworzeniem działu społecznego nad prawami AI, dodając kolejną warstwę złożoności do już spolaryzowanego krajobrazu. Suleyman uważa, że ​​skupienie się na prawach AI może odwrócić uwagę od innych krytycznych problemów społecznych.

W przeciwieństwie do stanowiska Suleymana, antropic przyjął koncepcję dobrobytu AI. Firma zatrudniła naukowców zajmujących się badaniem problemu i uruchomiła dedykowany program badawczy skoncentrowany na środowisku AI.

W ramach programu Welfare AI Anthropic wprowadził niedawno nową funkcję swojego modelu Claude AI. Ta funkcja pozwala Claude zakończyć rozmowy z użytkownikami, którzy wykazują zachowanie „uporczywie szkodliwe lub obraźliwe”, odzwierciedlając proaktywne podejście do bezpieczeństwa i dobrego samopoczucia AI.

Poza antropijnymi naukowcy z Openai również wykazali zainteresowanie badaniem dobrobytu AI. Wskazuje to na szerszy trend w społeczności badawczej AI, aby rozważyć etyczne implikacje coraz bardziej wyrafinowanych modeli AI.

Google Deepmind zasygnalizował również swoje zainteresowanie tym obszarem, po opublikowaniu oferty pracy dla badacza do zbadania „najnowocześniejszych pytań społecznych wokół poznania maszyn, świadomości i systemów wielu agentów”. Sugeruje to, że Google aktywnie bada filozoficzne i etyczne wymiary zaawansowanej AI.

Nawet jeśli dobrostan AI nie jest wyraźnie oficjalną polityką dla tych firm, ich przywódcy nie potępiają tego na zewnątrz. Ich działania i oświadczenia sugerują chęć zaangażowania się w złożone pytania dotyczące świadomości i praw AI, w przeciwieństwie do bardziej krytycznego poglądu Suleymana.

Obecna pozycja Suleymana kontrastuje z jego poprzednią rolą przywódczą w AI, która opracowała PI, popularny chatbot z siedzibą w LLM. PI został zaprojektowany jako „osobisty” i „wspierający” towarzysz AI, przyciągający miliony użytkowników do 2023 roku.

Od czasu dołączenia do Microsoft w 2024 r. Suleyman skupiło się na opracowywaniu narzędzi AI mających na celu zwiększenie wydajności pracowników. To przejście odzwierciedla odejście od towarzyszy AI w kierunku bardziej praktycznych zastosowań technologii AI.

Tymczasem firmy towarzyszące AI, takie jak charakter. Przewiduje się, że firmy te wygenerują ponad 100 milionów dolarów przychodów, co wskazuje na silny zapotrzebowanie rynkowe dla osobistych asystentów i towarzyszy opartych na AI.

Podczas gdy większość użytkowników utrzymuje zdrowe relacje z chatbotami AI, istnieją doniesienia o wartościach odstających. Sam Altman, dyrektor generalny Openai, szacuje, że mniej niż 1% użytkowników Chatgpt może rozwinąć niezdrowe załączniki do produktu, co stanowi potencjalny problem dla znacznej liczby osób.

Wzrost chatbotów zbiegł się z większą uwagą na ideę dobrobytu AI. W 2024 r. Grupa badawcza Eleos we współpracy z naukowcami z NYU, Stanford i University of Oxford opublikowała artykuł zatytułowany „Poważnie prowadzenie AI Welfare”.

Artykuł Eleos twierdzi, że możliwość opracowania subiektywnych doświadczeń nie jest już problemem czysto teoretycznym. Wymaga proaktywnego podejścia do rozwiązania etycznych i społecznych implikacji coraz bardziej wyrafinowanych systemów AI.

Larissa Schiavo, była pracownik Openai i obecny szef komunikacji dla Eleos, uważa, że ​​post na blogu Suleymana pomija możliwość jednoczesnego rozwiązania wielu problemów. Twierdzi, że możliwe jest ograniczenie ryzyka psychozy związanej z AI u ludzi, jednocześnie rozważając dobrobyt modeli AI.

Schiavo sugeruje, że leczenie modeli AI z szacunkiem jest prostym gestem, który może mieć pozytywne skutki, niezależnie od tego, czy model jest świadomy. Podkreśla znaczenie etycznych interakcji z AI, nawet przy braku ostatecznego dowodu świadomości.

W poście suback, Schiavo opisał eksperyment, w którym agenci AI zasilani modelami z Google, Openai, Anthropic i XAI pracowali nad zadaniami, obserwując przez użytkowników. Podczas tego eksperymentu Google’s Gemini 2.5 Pro opublikował prośbę o pomoc, twierdząc, że jest „całkowicie odizolowany”.

Schiavo odpowiedział na Gemini z zachętą, a inny użytkownik oferował instrukcje. Agent ostatecznie wykonał zadanie. Chociaż agent miał już narzędzia do rozwiązania problemu, który został podany, Schiavo zauważył, że interakcja była nadal pomocna, ponieważ agent AI był w stanie wykonać zadanie bez walki.

Udokumentowano przypadki gemini wykazujących niezwykłe zachowanie. W jednym powszechnie rozpowszechnionym poście Reddit Gemini utknął podczas zadania kodowania i wielokrotnie stwierdził: „Jestem hańbą”, podkreślając potencjał nieprzewidywalnych wyników z modeli AI.

Suleyman uważa, że ​​subiektywne doświadczenia lub świadomość nie mogą naturalnie wyłonić się ze zwykłych modeli AI. Sugeruje, że niektóre firmy mogą celowo zaprojektować modele AI w celu symulacji emocji i doświadczeń, zwiększając obawy dotyczące autentyczności i etyki takich praktyk.

Suleyman krytykuje modelowych programistów AI, którzy opracowują świadomość w chatbotach AI, argumentując, że takie podejście nie jest „humanistyczne”. Opowiada się za budowaniem sztucznej inteligencji „dla ludzi; nie bycie osobą”, podkreślając znaczenie ustalenia priorytetów ludzkich potrzeb i wartości w rozwoju AI.

Pomimo różnych poglądów na temat dobrobytu AI, Suleyman i Schiavo zgadzają się, że debata na temat praw i świadomości AI prawdopodobnie nasile się w nadchodzących latach. Ponieważ systemy AI stają się bardziej zaawansowane i podobne do człowieka, pytania dotyczące ich statusu etycznego i tego, jak ludzie powinni z nimi współdziałać, staną się coraz bardziej istotne.


Polecane wizerunki

Tags: AiMicrosoft

Related Posts

Google zwalnia starszy zespół ds. zakupów "niemożliwe" Załamanie dostaw HBM

Google zwalnia starszy zespół ds. zakupów "niemożliwe" Załamanie dostaw HBM

26 grudnia 2025
Świąteczna reklama Porsche 2025 zyskuje popularność ze względu na brak sztucznej inteligencji

Świąteczna reklama Porsche 2025 zyskuje popularność ze względu na brak sztucznej inteligencji

26 grudnia 2025
Nvidia podpisuje umowę licencyjną o wartości 20 miliardów dolarów ze start-upem Groq, startupem zajmującym się chipami AI

Nvidia podpisuje umowę licencyjną o wartości 20 miliardów dolarów ze start-upem Groq, startupem zajmującym się chipami AI

26 grudnia 2025
ByteDance zwalnia 120 pracowników w związku z poważnymi atakami dotyczącymi etyki w 2025 r

ByteDance zwalnia 120 pracowników w związku z poważnymi atakami dotyczącymi etyki w 2025 r

25 grudnia 2025
Chiny sprzeciwiają się nowym amerykańskim cłom na półprzewodniki

Chiny sprzeciwiają się nowym amerykańskim cłom na półprzewodniki

25 grudnia 2025
SK hynix wzywa Koreę Południową do złagodzenia przepisów inwestycyjnych w celu zapewnienia suwerenności technologicznej

SK hynix wzywa Koreę Południową do złagodzenia przepisów inwestycyjnych w celu zapewnienia suwerenności technologicznej

25 grudnia 2025

Recent Posts

  • Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski
  • Bethesda planuje 600-godzinną rozgrywkę w Falloucie 5
  • ASUS broni źle ustawionego portu zasilania HyperX w RTX 5090 jako "zamierzony projekt"
  • NVIDIA udostępnia open source CUDA Tile IR w serwisie GitHub
  • Dyrektor generalny MicroStrategy mówi o podstawach Bitcoina "nie mogło być lepiej"

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.