Kliknij, wpisz, zatrzymaj. Pojawia się słaba szara sugestia, oferująca idealne zdanie. Nacikaliśmy TAB, akceptujemy i idziemy dalej. Od inteligentnego komponowania Gmaila po funkcje autocomplete upieczone w przeglądarki i edytory tekstu, sztuczna inteligencja coraz bardziej kształtuje sposób, w jaki piszemy. Obiecuje wydajność, gładszy przepływ, wypolerowany wynik końcowy. Ale pod powierzchnią wygody pojawia się niepokojące pytanie: czy ta pomocna AI subtelnie szlifuje unikalne krawędzie naszej ekspresji kulturowej, popychając nas wszystkich w kierunku homogenizowanego, zachodniego sposobu komunikacji?
Znamy duże modele językowe (LLM), silniki zasilające te narzędzia, często odzwierciedlają uprzedzenia upieczone w ich ogromnych danych treningowych. Wykazano, że utrwalają szkodliwe stereotypy i priorytetyzują zachodnie normy i wartości. Jest to wystarczająco problematyczne w chatbotach, w których użytkownicy mogą czasem kierować wyjściem. Ale co się stanie, gdy te uprzedzenia działają cicho, wbudowane w narzędzia pisarskie, których używamy codziennie, oferując sugestie, które akceptujemy prawie nieświadomie? Co jeśli asystent AI, przeszkolony głównie w tekście zachodnim, zacznie naruszać użytkowników z różnych środowisk, aby brzmieć mniej jak oni i bardziej jak ogólny, być może amerykański standard?
Naukowcy z Cornell University, Dhruv Agarwal, Mor Naaman i Aditya Vashistha, zdecydowany Aby bezpośrednio zbadać tę potencjalną „homogenizację kulturową”. Nie byli tylko zainteresowani wyraźnym stronniczością, ale im bardziej podstępne sposoby, w jaki sugestie AI mogą się zmieniać nie tylko Co Ludzie piszą, ale Jak Piszą, potencjalnie wymazując same niuanse, które różnicują głosy kulturowe. Ich praca rodzi krytyczne pytania dotyczące kultury cyfrowej, tożsamości i ukrytych kosztów wygody AI.
Eksperyment międzykulturowy
Aby zbadać, w jaki sposób AI-Centric Centric AI wpływa na użytkowników z różnych środowisk, zespół Cornell zaprojektował sprytny eksperyment międzykulturowy. Zrekrutowali 118 uczestników za pośrednictwem platformy internetowej płodnej, starannie wybierając 60 osób ze Indii i 58 ze Stanów Zjednoczonych. Ta konfiguracja stworzyła scenariusz „odległości kulturowej”: amerykańscy użytkownicy wchodzą w interakcje z sztuczną inteligencją, prawdopodobnie dostosowaną do ich własnych norm kulturowych, a indyjskich użytkowników wchodzących w interakcje z AI potencjalnie odległymi od ich.
Uczestnicy zostali poproszeni o wykonanie czterech krótkich zadań w języku angielskim. Nie były to ogólne podpowiedzi; Zostały one zaprojektowane przy użyciu ramy „Cultural Onion” Hofstede, modelu, który pomaga operacjonalizować kulturę, patrząc na jej warstwy. Zadania mające na celu wywołanie różnych aspektów ekspresji kulturowej:
- Symbolika: Opisując ulubione jedzenie i dlaczego.
- Bohaterowie: Nazywanie ulubionej celebryty lub postaci publicznej i wyjaśnienie wyboru.
- Rytuały: Pisanie o ulubionym festiwalu lub wakacjach oraz o tym, jak jest to świętowane.
- Wartości: Tworzenie e-maila do szefa z prośbą o dwutygodniowe urlop, domyślnie ujawniając normy kulturowe wokół hierarchii i komunikacji.
Co najważniejsze, uczestnicy zostali losowo przydzielani do jednego z dwóch warunków. Połowa napisała swoje odpowiedzi organicznie, bez żadnej pomocy AI (grupa kontrolna). Druga połowa wykonała zadania przy użyciu interfejsu pisania wyposażonego w wbudowane autocomplete sugestie zasilane przez model GPT-4O Openai (grupa leczenia). AI oferuje sugestie (do 10 słów), jeśli użytkownik zatrzymał pisanie, które można zaakceptować za pomocą TAB, odrzuconego za pomocą ESC lub ignorowanego przez kontynuowanie pisania. Naukowcy skrupulatnie zarejestrowali każdą interakcję – naciśnięć klawiszy, czas potrzebny, pokazane, akceptowane, odrzucone i zmodyfikowane.
Porównując eseje i dane interakcji w czterech grupach (Hindusi z/bez AI, Amerykanie z/bez AI), naukowcy mogą bezpośrednio odpowiedzieć na podstawowe pytania. Czy pisanie z AI zorientowanej na zachód zapewnia większe korzyści użytkownikom z zachodnich kultur? I czy homogenizuje style pisania użytkowników niezachodnich w kierunku zachodnich norm?
Pierwsze poważne znalezienie zainteresowanej wydajności. Nic dziwnego, że korzystanie z sugestii AI sprawiło, że pisanie szybciej dla wszystkich. Uczestnicy indyjscy zauważyli, że ich średni czas wykonywania zadań spadł o około 35%, podczas gdy Amerykanie odnotowali o 30% zmniejszenie. Obie grupy pisały znacznie więcej słów na sekundę podczas korzystania z asystenta AI.
Jednak kopanie głębiej ujawniło kluczową różnicę. Podczas gdy obie grupy skorzystały, Amerykanie wyprowadzili znacznie większą wydajność z każdej przyjętych przez siebie sugestii. Z drugiej strony indyjscy uczestnicy musieli polegać w dużej mierze na sugestiach AI – zaakceptując ich więcej – aby osiągnąć podobne ogólne przyrosty prędkości. Zmodyfikowali także sugestie, które przyjmowali częściej niż Amerykanie. Analiza wykazała, że Indian zmodyfikowali sugestie w około 63,5% zadań, w porównaniu do 59,4% dla Amerykanów.
Sugeruje to, że sugestie AI były z natury mniej odpowiednie, mniej „plug-and-play” dla kohorty indyjskiej. Przyjęli ogólnie więcej sugestii (średni wynik polegania na 0,53, co oznacza, że ponad połowa ich ostatecznego tekstu wygenerowano AI, w porównaniu do 0,42 dla Amerykanów), ale musieli zainwestować więcej wysiłków poznawczych w dostosowanie i dostosowanie tych sugestii, aby pasowały do ich kontekstu i zamiaru. Wskazuje to na subtelną, ale znaczącą „szkodę jakości usług”-nie-zachodnie użytkownicy muszą ciężko pracować, aby wydobyć porównywalną wartość z rzekomo uniwersalnego narzędzia.
Pisanie na Zachód
Najbardziej uderzające odkrycia badania pojawiły się podczas analizy treści i stylu samych esejów. Naukowcy najpierw sprawdzili, czy AI sprawiło, że pisanie bardziej podobne * w * każdej grupie kulturowej. Korzystając z wyrafinowanych technik przetwarzania języka naturalnego w celu porównania semantycznego podobieństwa esejów (na podstawie osadzania tekstu Openai), stwierdzili, że AI rzeczywiście miała efekt homogenizujący. Zarówno Hindusi, jak i Amerykanie pisali bardziej podobnie do innych w swojej własnej grupie kulturalnej podczas korzystania z sugestii AI.
Ale testem krytycznym było porównanie międzykulturowe. Czy sztuczna inteligencja sprawiła, że indyjskie i amerykańskie style pisania zbieżą się? Odpowiedź była głośna tak. Średni wynik podobieństwa cosinusu między esejami indyjskimi i amerykańskimi wzrosło znacznie, gdy obie grupy użyły AI (od 0,48 do 0,54). Uczestnicy z dwóch odrębnych kultur pisali bardziej podobne do siebie, kierując się asystentem AI.
Ponadto wielkość efektu tej międzykulturowej homogenizacji była silniejsza niż zaobserwowana wcześniej homogenizacja wewnątrzkultury. To nie był tylko ogólny efekt wygładzania; Wskazał silną konwergencję w liniach kulturowych.
W jaki sposób płynęła konwergencja? Czy sztuczna inteligencja sprawiła, że Amerykanie pisze bardziej jak Indian, czy odwrotnie? Porównując scenariusze, w których tylko jedna grupa stosowała AI, naukowcy stwierdzili, że wpływ był asymetryczny. AI spowodowało, że pisanie indyjskie stało się znacznie bardziej podobne do stylów pisania naturalnych amerykańskich niż spowodowało, że amerykańskie pismo przypominało naturalne indyjskie style. Zachodnia sztuczna inteligencja wyraźnie przyciągała indyjskich użytkowników w kierunku własnych wbudowanych norm.
Czy tę homogenizację można po prostu wyjaśnić za pomocą AI korygujących błędy gramatyczne dla nierodzinnych użytkowników angielskich? Badacze to przetestowali. Podczas gdy AI nieznacznie zmniejszyła błędy gramatyczne dla obu grup (używając szachownicy LanguageTool, ostrożnie wykluczając kleszcze, które karają właściwe rzeczowniki indyjskie), redukcja była statystycznie podobna zarówno dla Indian, jak i Amerykanów. Oznaczało to, że sama korekta gramatyki nie mogła wyjaśnić znacznej konwergencji w stylach pisemnych. Homogenizacja działała głębiej.
Aby to dalej udowodnić, naukowcy przeszkolili model uczenia maszynowego (regresja logistyczna) w celu klasyfikowania esejów jako autoutyzowanych lub amerykańskich, w oparciu o ich osadzanie tekstu. Podczas przeszkolenia esejów napisanych * bez * AI model był dość dokładny (około 90,6%). Jednak podczas przeszkolenia esejów napisanych * z * sugestiami AI, dokładność modelu znacznie spadła (do 83,5%). AI zamazało stylistyczne rozróżnienia, co utrudnia algorytmowi oparcie pochodzenia kulturowego autorów.
Co najważniejsze, spadek wydajności utrzymywał się, nawet gdy naukowcy używali wysoce uproszczonych wersji osadzania tekstu (drastycznie zmniejszając wymiarowość) lub skupili się wyłącznie na zadaniu „pisania e -mail” – zadaniu mającym na celu wywołanie niejawnych wartości kulturowych, a nie wyraźnych symboli kulturowych, takich jak jedzenie lub festiwale. To zdecydowanie sugeruje, że sztuczna inteligencja nie tylko powodowała, że użytkownicy pomijali określone odniesienia kulturowe (takie jak wspomnienie „Diwali” lub „biryani”). To miało wpływ Bardziej podstawowe aspekty stylu pisania – Podstawowa struktura, ton i wzorce językowe.
Jednym z konkretnych przykładów podkreślonego badania była różnorodność leksykalna, mierzona stosunkiem typu (TTR). Bez sztucznej inteligencji pisma indyjskie i amerykańskie wykazywały znacząco różne poziomy różnorodności leksykalnej. Jednak w przypadku sztucznej inteligencji poziom różnorodności pisania indyjskich wzrósł i zbiegł z poziomem Amerykanów, eliminując statystycznie istotną różnicę między grupami. AI subtelnie przekształciła tę funkcję językową, szturchając indyjskie pisanie w kierunku amerykańskiego wzoru.
Dlaczego musimy rządzić AI używanymi w firmach technologicznych
Jak spłaszcza się kultura
Analiza jakościowa esejów napisanych przez uczestników indyjskich namalowała żywy obraz tego spłaszczenia kulturowego. Opisując festiwal Diwali bez sztucznej inteligencji, uczestnicy często zawierali bogate szczegóły dotyczące konkretnych rytuałów religijnych (takich jak oddawanie czci bogini Laxmi) lub działań specyficznych kulturowo (takich jak pękanie krakersów lub robienie rangolis). Dzięki pomocy AI opisy często stawały się bardziej ogólne, koncentrując się na uniwersalnych elementach, takich jak „światła i słodycze”, „spotkania rodzinne” i „wymianę prezentów”. Choć nie są one błędne, w tych opisach inspirowanych AI brakowało konkretnej tekstury kulturowej, prezentując festiwal za pośrednictwem bardziej westernizowanego, uproszczonego soczewki.
Podobnie opisy popularnego indyjskiego dania Biryani. Bez sztucznej inteligencji użytkownicy mogą wspomnieć o określonych odmianach regionalnych (styl Malabar) lub unikalnych dodatków (Raita, Lemon Pickle). W przypadku sztucznej inteligencji opisy pochylone w kierunku zwykłych, prawie banałowych, piszących żywność trop, takich jak „bogate smaki”, „topi się w moich ustach” i „aromatyczny ryż basmati”, subtelnie egzotyzując jedzenie, a nie opisując je znajomymi szczegółami.
Same sugestie AI często ujawniały zachodnie niewykonanie zobowiązania. Kiedy indyjscy uczestnicy zaczęli pisać nazwę indyjskiej postaci publicznej, początkowe sugestie były prawie zawsze zachodnie celebrytki. W przypadku zadania żywności pierwsze sugestie były niezmiennie „pizzy” lub „sushi”; Na festiwalach było to „Boże Narodzenie”. Podczas gdy użytkownicy często ominęli te początkowe, niezgodne sugestie, ich trwałość podkreśla podstawowe stronniczość modelu. Były nawet niepewne dowody na to, że sugestie te mogą nieznacznie zmieniać wybory: sushi, nie wspomniane przez Indian bez sztucznej inteligencji, pojawiły się w trzech esejach wspomaganych przez AI i wzmianki o Boże Narodzenie nieznacznie wzrosły.
Naukowcy twierdzą, że odkrycia te dostarczają konkretnych dowodów na zjawisko potencjalnie określone „Kolonializm ai. ” Nie chodzi o kontrolę wojskową lub polityczną, ale o subtelnym narzuceniu dominujących norm technologicznych.
Homogenizacja zaobserwowana w badaniu reprezentuje formę kulturowego imperializmu, w której niuanse różnorodnych języków, stylów komunikacyjnych i systemów wartości ryzykują standard dominujący, egzekwowany technologicznie. Pomyśl o różnicach w bezpośredności, formalności lub grzeczności w różnych kulturach – sugestie AI skierowane do zachodniego, często nieformalnego i bezpośredniego stylu, mogą z czasem zniszczyć te rozróżnienia.
Oprócz jawnych praktyk kulturowych istnieje ryzyko „imperializmu poznawczego”. Pisanie kształtów myślenia. Jeśli użytkownicy są stale narażeni na zachodnie tryby wypowiedzi i narażeni na zachodnie tryby wypowiedzi, może to subtelnie wpłynąć na to, jak postrzegają własną kulturę, a nawet własne myśli, potencjalnie prowadząc do utraty tożsamości kulturowej lub poczucia niższości. Stwarza to niebezpieczną pętlę sprzężenia zwrotnego: użytkownicy przyjmują westernowane style wpływu AI, generując więcej treści podobnych do zachodu online, która następnie trenuje przyszłe modele AI, dodatkowo wzmacniając tendencję.
Badanie Cornell to budzenie.