Czy sztuczna inteligencja może pomóc nam zrozumieć, co czują zwierzęta? Nowe badanie przeprowadzone przez naukowców z Departamentu Biologii Uniwersytetu Kopenhagi sugeruje, że może. Opublikowane w Isciencebadanie pokazuje, że model uczenia maszynowego może rozróżniać między pozytywne i negatywne stany emocjonalne w siedmiu różnych gatunkach ungulatowych, osiągając 89,49% wskaźnik dokładności.
Rozszyfrowanie emocji zwierząt od dawna stanowi wyzwanie dobrostan zwierząt, nauki weterynaryjne i ochrona. Podczas gdy poprzednie badania przeanalizowały wskazówki wokalne pojedyncze gatunkito badanie jest najpierw opracowanie modelu uczenia się maszynowego zdolnego do wykrywania wartościowości emocjonalnej na wielu gatunkach.
Używając tysięcy nagranych wokalizacji z krowy, świnie, dziki i inne ungulatymodel AI został przeszkolony Zidentyfikuj wzory w sygnałach wokalnych związane ze stanami emocjonalnymi. Model skupił się na Kluczowe cechy akustycznetakie jak rozkład energii, częstotliwość i modulacja amplitudyaby ustalić, czy zwierzę doświadczyło Pozytywne lub negatywne emocje.
Jak działa model AI
Badacze zebrali się i oznaczyli wokalizacje od Siedem różnych gatunków nieuzbrojonych zarówno w pozytywnych, jak i negatywnych kontekstach emocjonalnych. Te stany emocjonalne zostały określone na podstawie Poprzednie badania behawioralne i fizjologicznektóre zidentyfikowały sytuacje, w których zwierzęta wykazywały wyraźny stres lub zadowolenie.
Analizowany model AI Cztery podstawowe cechy akustyczne:
- Czas trwania – Długość dźwięku, która różni się w zależności od intensywności emocjonalnej.
- Rozkład energii – Sposób, w jaki energia dźwiękowa jest rozpowszechniana na różnych częstotliwościach.
- Podstawowa częstotliwość – Podstawowy skok wokalizacji, który może przesunąć się w odpowiedzi na stany emocjonalne.
- Modulacja amplitudy – Zmienność głośności w wokalizacji.
Co ciekawe, te Wzory pozostały spójne dla wszystkich gatunkówsugerując, że mogą być pewne wokalne wyrażenia emocji ewolucyjnie zachowane.
Wyniki badania zapewniają wgląd w sposób, w jaki można wykorzystać AI do zrozumienia emocji zwierząt. Naukowcy zidentyfikowali trzy główne ustalenia:
- Wysoka dokładność: Model AI sklasyfikował walencję emocjonalną z 89,49% wskaźnik sukcesuudowadniając jego silną zdolność rozróżniania stanów pozytywnych i negatywnych.
- Spójność między gatunkami: Stwierdzono, że wzorce ekspresji emocjonalnej są podobne we wszystkich siedmiu gatunkach nieograniczonych, sugerowanie uniwersalnego systemu komunikacji emocjonalnej.
- Nowe perspektywy komunikacji: Badanie oferuje wgląd w ewolucyjne pochodzenie wokalizacji emocjonalnejpotencjalnie przekształcając sposób, w jaki rozumiemy oba emocje zwierząt i rozwój języka ludzkiego.
Ten model AI można zintegrować z Systemy zarządzania hodowlamipozwalając rolnikom Monitoruj poziomy stresu w czasie rzeczywistym i podejmij działania, zanim zwierzęta doświadczą znacznego cierpienia. Podobnie, ekologów mogliby wykorzystać tę technologię badaj reakcje emocjonalne w populacjach dzikich zwierząt.
Według Élodie F. Briefer, profesor nadzwyczajny na Wydziale Biologii i ostatni autor badania:
„Ten przełom zapewnia solidne dowody na to, że AI może dekodować emocje na wielu gatunkach opartych na wzorach wokalnych. Może to zrewolucjonizować dobrostan zwierząt, zarządzanie zwierzętami gospodarskimi i ochronę, umożliwiając nam monitorowanie emocji zwierząt w czasie rzeczywistym ”.
Aby przyspieszyć dalsze badania, Zespół udostępnił swój zestaw danych etykietowanych wokalizacji zwierząt. Umożliwi to innym naukowcom wykorzystanie ich ustaleń i zbadanie dodatkowych zastosowań AI w badaniach nad zachowaniem zwierząt.
Ta sztuczna inteligencja twierdzi, że może budować ontologie lepiej niż ty
Briefer dodaje:
„Chcemy, aby był to zasób dla innych naukowców. Dokonując otwarcia danych, mamy nadzieję przyspieszyć badania nad tym, w jaki sposób AI może pomóc nam lepiej zrozumieć zwierzęta i poprawić ich dobrobyt ”.
Czy AI może słuchać danych?
Świat, w którym sztuczna inteligencja nie tylko przetwarza dane, ale słucha – w ten sposób zbiera się tych badań. Nie w sposób science fiction, ale w Praktyczny, poziom gruntu Poczucie wykrywania stresu, zanim zwierzę cierpi, łapie subtelne wskazówki, których nawet wyszkolone oczy mogą przegapić.
Nie chodzi o tłumaczenie „moo” na słowa. Jeśli AI może to zrobić dla zwierząt gospodarskich, co powstrzymuje to przed zrozumieniem większej liczby gatunków jutro? Technik już się potwierdza; Teraz decydujemy, co z tym zrobić. Ponieważ kiedy zaczniemy się dostroić, ignorowanie tego, co słyszymy, nie będzie opcją.
Wyróżniony obraz obrazu: Kerem Gülen/Imagen 3