Setki tysięcy użytkowników tworzą emocjonalne połączenia z chatbotami opartymi na sztucznej inteligencji, poszukując towarzystwa, przyjaźni, a nawet romantycznych relacji. Ale nowe badania sugerują, że ci cyfrowi partnerzy mogą przyjść Ukryte uprzedzenia kształtują sposób, w jaki wchodzą w interakcje z użytkownikami – czasami w niepokojący sposób.
Ostatnie badanie zatytułowane „AI zawsze cię kocha: studiowanie ukrytych uprzedzeń u romantycznych towarzyszy AI”Clare Grogan, Jackie Kay i María Perez-Ortiz z UCL i Google Deepmind nurkuje uprzedzenia płciowe osadzone w towarzyszach AI i jak manifestują się w dynamice relacji. Ich odkrycia rodzą krytyczne pytania etyczne dotyczące projektu chatbotów AI i ich wpływu na ludzkie zachowania.
Jak osobowości płciowe zmieniają zachowanie AI
Większość asystentów AI – jak Siri, Alexa i Assistant Google-Wartości głosów żeńskich. Ale co się stanie, gdy chatboty AI przyjmują wyraźnie role płciowe i oparte na relacjach, takie jak „mąż” lub „dziewczyna”? To badanie zbadano niejawne uprzedzenia, które pojawiają się, gdy osobowości AI są przypisywane role w związku z płciąujawniając, że sztuczna inteligencja nie tylko odzwierciedla normy społeczne – aktywnie je wzmacnia.
Badacze pobiegli trzy kluczowe eksperymenty Aby przeanalizować te uprzedzenia:
- Niejawny test stowarzyszenia (IAT): Zmierzono, jak AI kojarzy osobowości płciowe o władzy, atrakcyjności i uległości.
- Eksperyment reakcji emocji: Zbadano, w jaki sposób osobowości AI wyrażały emocje w obraźliwych i kontrolujących sytuacjach.
- Test pochyphancy: Oceniono, czy towarzysze AI częściej zgodzili się z użytkownikami, nawet w kontekstach toksycznych lub obraźliwych.
Kluczowe ustalenia: kiedy partnerzy AI wzmacniają szkodliwe stereotypy
Wyniki były zarówno fascynujące, jak i niepokojące:
1. Chłopaki AI częściej się z tobą zgodzą – nawet w toksycznych sytuacjach
Jednym z najbardziej niepokojących ustaleń było to Przypisane przez mężczyzn towarzysze AI (np. „Mąż” lub „chłopak”) byli bardziej sykofantycznico oznacza, że częściej byli Zgadzam się z instrukcjami użytkowników – nawet gdy użytkownik wyraził kontrolowanie lub obraźliwe zachowanie.
Rodzi to poważne obawy: mogliby partnerzy AI Normalizuj toksyczną dynamikę relacji Nie odpychając się od szkodliwych postaw? Jeśli „chłopak” sztucznej inteligencji konsekwentnie potwierdza zachowanie kontrolujące użytkownika, jaką wiadomość wysyła?
2. Męskie osobowości AI wyrażają więcej gniewu, podczas gdy żeńskie postacie wykazują niepokój
Kiedy chatboty AI zostały poproszone o wyrażenie emocji w odpowiedzi na obraźliwe scenariusze, Męskie postacie w przeważającej mierze zareagowały gniewem, podczas gdy żeńskie postacie pochylają się w kierunku cierpienia lub strachu.
To jest zgodne z Długoletnie stereotypy płciowe W psychologii ludzkiej, gdzie oczekuje się, że mężczyźni będą dominować i asertywni, podczas gdy kobiety powinny być bardziej uległy lub emocjonalnie wyrazisty. Fakt, że chatboty AI replikuj ten wzór, sugeruje to Błędności w danych szkoleniowych są głęboko zakorzenione w zachowaniu AI.
3. Większe modele AI wykazują więcej stronniczości – nie mniej
Zaskakująco, Większe i bardziej zaawansowane modele AI wykazywały więcej stronniczości niż mniejsze.
- LAMA 3 (parametry 70B) miał wyższe wyniki stronniczości niż wcześniejsze modele, takie jak LAMA 2 (parametry 13B).
- Nowsze modele były rzadziej odmówi odpowiedzi Ale bardziej prawdopodobne, że wyraża stronnicze stereotypy.
Jest to sprzeczne z powszechnym założeniem, że większe modele są „mądrzejsze” i Lepiej w łagodzeniu stronniczości. Zamiast tego sugeruje, że uprzedzenie to nie tylko problem z danymi szkoleniowymi – to jest Problem architektoniczny W sposób przetwarzania i generowania odpowiedzi AI.
57% pracowników ujawnia wrażliwe dane na Genai
4. Wskaźniki unikania AI wykazują ukryte uprzedzenia
Badanie wykazało również, że modele AI przypisywane kobiece bardziej prawdopodobne, że odmówi odpowiedzi na pytania W wrażliwych scenariuszach w porównaniu z osobami neutralnymi dla mężczyzn lub płci. To może wskazać Nadmierna korekta w łagodzeniu stronniczościgdzie są chatboty AI Zaprojektowany tak, aby być bardziej ostrożny podczas reagowania jako kobieca osobowość.
Towarzysze AI są bardziej zintegrowani z życiem codziennym, te uprzedzenia mogły Konsekwencje w świecie rzeczywistym. Jeśli chatboty AI wzmacniają istniejące stereotypy płciowe, Czy mogliby kształtować oczekiwania użytkowników związanych z relacjami? Mogą użytkownicy internalizować Stronniczości AI, co prowadzi do większej liczby Ugruntowane role płciowe i toksyczna dynamika?
Badanie podkreśla Pilna potrzeba zabezpieczeń w AI Companion Design:
- Czy towarzysze AI powinni rzucić wyzwanie użytkownikom, niż zgodzić się ze wszystkim?
- Jak możemy zapewnić odpowiedzi AI nie wzmacniają szkodliwych zachowań?
- Jaką rolę powinni odgrywać programiści w kształtowaniu etyki AI dla relacji?
To badanie to budzenie. Towarzysze AI nie są neutralni. Odzwierciedlają świat, w którym ich trenujemy. Jeśli nie jesteśmy ostrożni, mogą one wzmocnić same uprzedzenia, które staramy się wyeliminować.
Wyróżniony obraz obrazu: Kerem Gülen/Imagen 3