Nowe badanie opublikowane w Natura Ludzkie zachowanie podważa panujące założenie, że generatywna sztuczna inteligencja zachowuje się spójnie w różnych językach, ujawniając zamiast tego, że duże modele językowe (LLM) wykazują odrębne tendencje kulturowe w zależności od tego, czy są tworzone w języku angielskim czy chińskim. Badacze Jackson G. Lu i Lu Doris Zhang zbadali dwa główne modele, GPT OpenAI i ERNIE Baidu, i odkryli, że język podpowiedzi skutecznie zmienia „osobowość kulturową” sztucznej inteligencji, wpływając na sposób, w jaki interpretuje ona informacje, ocenia opcje i formułuje strategiczne zalecenia.
W badaniu wykorzystano ramy z psychologii kulturowej do pomiaru dwóch głównych konstruktów: orientacji społecznej i stylu poznawczego. Po zapytaniu w języku angielskim oba modele wykazywały „niezależną” orientację społeczną, ceniącą autonomię i kierowanie sobą, a także „analityczny” styl poznawczy, charakteryzujący się poleganiem na logice formalnej i rozumowaniu opartym na regułach. I odwrotnie, po podpowiedzeniu w języku chińskim, modele przesunęły się w stronę orientacji „współzależnej”, kładącej nacisk na harmonię społeczną i konformizm, obok „holistycznego” stylu poznawczego, który przedkłada kontekst i relacje nad główne obiekty.
Rozbieżności te uwidoczniły się w praktycznych scenariuszach biznesowych. Na przykład, gdy poproszono o wyjaśnienie zachowania danej osoby, podpowiedzi w języku angielskim skłoniły sztuczną inteligencję do przypisania działań osobowości jednostki, podczas gdy podpowiedzi w języku chińskim skutkowały atrybucją na podstawie kontekstu społecznego. W zadaniu marketingowym modelki preferowały hasła podkreślające dobrostan jednostki, gdy pytano je w języku angielskim, ale preferowały te, które podkreślały dobrostan zbiorowy, gdy pytano je w języku chińskim. W badaniu zauważono, że zwykłe przetłumaczenie kampanii stworzonej w języku angielskim na rynek chiński może zatem spowodować niedopasowanie kulturowe, które spowoduje, że przekaz będzie nietrafiony.
Naukowcy odkryli jednak, że te uprzedzenia nie są niezmienne. Wykorzystując „podpowiedzi kulturowe” – takie jak wyraźne polecenie sztucznej inteligencji, aby przyjęła perspektywę przeciętnego człowieka mieszkającego w Chinach – użytkownicy mogli ponownie skalibrować angielskie odpowiedzi modelu, aby naśladować współzależne i całościowe wzorce zwykle obserwowane w chińskich odpowiedziach. Aby zarządzać tymi ukrytymi uprzedzeniami, autorzy doradzają liderom organizacji, aby traktowali wybór języka jako decyzję strategiczną, dopasowywali języki podpowiedzi do kontekstu kulturowego docelowej publiczności i wykorzystywali podpowiedzi kulturowe, aby poprowadzić rozumowanie sztucznej inteligencji w kierunku bardziej odpowiednich spostrzeżeń.





