Trzy nowe badania przeprowadzone przez wiodące instytucje, w tym Uniwersytet Hebrajski, Google Research i Caltech, rzuciły nowe światło na związek między sztuczną inteligencją a ludzkim mózgiem. Badania sugerują, że modele sztucznej inteligencji przetwarzają język w sposób uderzająco przypominający biologiczną aktywność neuronów, jednocześnie wpływając na sposób, w jaki ludzie mówią w prawdziwym świecie. W badaniach tych wykorzystuje się struktury głębokiego uczenia się i analizę językową, aby zbadać, w jaki sposób sztuczna inteligencja dopasowuje się do funkcjonowania mózgu, jak zmienia nasze słownictwo i jak może pomóc w symulowaniu neuronów biologicznych.
Mózg buduje znaczenie jak LLM
Zespół kierowany przez dr Ariela Goldsteina z Uniwersytetu Hebrajskiego we współpracy z Google Research i Princeton wykorzystał elektrokortykografię (ECoG) do zarejestrowania bezpośredniej aktywności elektrycznej mózgów uczestników słuchających 30-minutowego podcastu. Porównali te sygnały z warstwową architekturą dużych modeli językowych (LLM), takich jak GPT-2 i Lama 2. The badanie znalazłem niezwykłe dopasowanie:
- Wczesne warstwy: Początkowe reakcje neuronalne mózgu odpowiadały płytkim warstwom modeli sztucznej inteligencji, które obsługują podstawowe elementy językowe.
- Głębokie warstwy: Późniejsze reakcje neuronalne, szczególnie w obszarze Broki, są zgodne z głębszymi warstwami sztucznej inteligencji, które przetwarzają złożony kontekst i znaczenie.
„Najbardziej zaskoczyło nas to, jak bardzo tempo rozwoju znaczenia w mózgu odpowiada sekwencji transformacji w dużych modelach językowych” – stwierdził Goldstein. Sugeruje to, że pomimo różnych struktur zarówno ludzki mózg, jak i modele sztucznej inteligencji konstruują znaczenie stopniowo, warstwa po warstwie. Aby wesprzeć dalsze odkrycia, zespół udostępnił społeczeństwu pełny zestaw danych z nagraniami neuronowymi, umożliwiając naukowcom na całym świecie testowanie alternatywnych teorii przetwarzania języka.
„Przesiąkanie leksykalne”: sztuczna inteligencja zmienia sposób, w jaki mówimy
W odrębnym badaniu lingwista Tom Juzek z Florida State University przeanalizował 22 miliony słów z nieskryptowanych podcastów, aby zmierzyć wpływ sztucznej inteligencji na ludzką mowę. Porównując dane sprzed i po wydaniu ChatGPT w 2022 r., w badaniu zidentyfikowano zjawisko, które Juzek nazywa „przesiąkaniem leksykalnym”. Badanie wykazało nagły wzrost liczby określonych słów powszechnie generowanych przez sztuczną inteligencję, podczas gdy ich synonimy nie wykazały podobnego wzrostu. Te słowa obejmują:
- „Sięgać” (dogłębnego zbadania)
- „Skrupulatny” (wykazując szczególną dbałość o szczegóły)
- „Zbierać” (zebrać lub zebrać)
- „Przechwałki” (odnoszące się do posiadania cechy)
„Sztuczna inteligencja może dosłownie wkładać nam słowa w usta, ponieważ wielokrotny kontakt z nimi prowadzi ludzi do internalizacji i ponownego użycia modnych słów, których być może nie wybrali w sposób naturalny”.
W przeciwieństwie do slangu, który rozprzestrzenia się społecznie, zmiana ta wynika z wyników algorytmów znalezionych w tekstach i artykułach. Analiza rodzi pytania o potencjalną standaryzację ludzkiej mowy i spłaszczanie regionalnych dialektów pod wpływem jednolitej terminologii AI.
NOBLE: Symulacja neuronów 4200 razy szybsza
Na Konferencja NeurIPSnaukowcy z Caltech i Cedars-Sinai wprowadzili NOBLE (operator neuronowy z biologicznie informowanymi utajonymi osadzaniami). Ta nowa platforma głębokiego uczenia się może generować wirtualne modele neuronów mózgowych 4200 razy szybciej niż tradycyjne metody. Podczas gdy tradycyjne rozwiązania wykorzystują złożone równania różniczkowe wymagające dużej mocy obliczeniowej, projekt NOBLE wykorzystuje operatory neuronowe do replikowania zachowania rzeczywistych neuronów biologicznych, w tym ich szybkości wyzwalania i reakcji na bodźce. Szybkość ta umożliwia badaczom skalowanie symulacji do większych obwodów mózgowych obejmujących miliony wzajemnie połączonych komórek. Ramy te mają na celu przyspieszenie badań nad zaburzeniami mózgu, takimi jak epilepsja i choroba Alzheimera, poprzez umożliwienie naukowcom szybkiego testowania hipotez bez polegania wyłącznie na ograniczonych eksperymentach na zwierzętach lub ludziach.





