Dataconomy PL
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy PL
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Czy AI może pomóc nam zrozumieć, co czują zwierzęta?

byKerem Gülen
11 marca 2025
in Research
Home Research

Czy sztuczna inteligencja może pomóc nam zrozumieć, co czują zwierzęta? Nowe badanie przeprowadzone przez naukowców z Departamentu Biologii Uniwersytetu Kopenhagi sugeruje, że może. Opublikowane w Isciencebadanie pokazuje, że model uczenia maszynowego może rozróżniać między pozytywne i negatywne stany emocjonalne w siedmiu różnych gatunkach ungulatowych, osiągając 89,49% wskaźnik dokładności.

Rozszyfrowanie emocji zwierząt od dawna stanowi wyzwanie dobrostan zwierząt, nauki weterynaryjne i ochrona. Podczas gdy poprzednie badania przeanalizowały wskazówki wokalne pojedyncze gatunkito badanie jest najpierw opracowanie modelu uczenia się maszynowego zdolnego do wykrywania wartościowości emocjonalnej na wielu gatunkach.

Używając tysięcy nagranych wokalizacji z krowy, świnie, dziki i inne ungulatymodel AI został przeszkolony Zidentyfikuj wzory w sygnałach wokalnych związane ze stanami emocjonalnymi. Model skupił się na Kluczowe cechy akustycznetakie jak rozkład energii, częstotliwość i modulacja amplitudyaby ustalić, czy zwierzę doświadczyło Pozytywne lub negatywne emocje.

Jak działa model AI

Badacze zebrali się i oznaczyli wokalizacje od Siedem różnych gatunków nieuzbrojonych zarówno w pozytywnych, jak i negatywnych kontekstach emocjonalnych. Te stany emocjonalne zostały określone na podstawie Poprzednie badania behawioralne i fizjologicznektóre zidentyfikowały sytuacje, w których zwierzęta wykazywały wyraźny stres lub zadowolenie.

Analizowany model AI Cztery podstawowe cechy akustyczne:

  • Czas trwania – Długość dźwięku, która różni się w zależności od intensywności emocjonalnej.
  • Rozkład energii – Sposób, w jaki energia dźwiękowa jest rozpowszechniana na różnych częstotliwościach.
  • Podstawowa częstotliwość – Podstawowy skok wokalizacji, który może przesunąć się w odpowiedzi na stany emocjonalne.
  • Modulacja amplitudy – Zmienność głośności w wokalizacji.

Co ciekawe, te Wzory pozostały spójne dla wszystkich gatunkówsugerując, że mogą być pewne wokalne wyrażenia emocji ewolucyjnie zachowane.

Wyniki badania zapewniają wgląd w sposób, w jaki można wykorzystać AI do zrozumienia emocji zwierząt. Naukowcy zidentyfikowali trzy główne ustalenia:

  • Wysoka dokładność: Model AI sklasyfikował walencję emocjonalną z 89,49% wskaźnik sukcesuudowadniając jego silną zdolność rozróżniania stanów pozytywnych i negatywnych.
  • Spójność między gatunkami: Stwierdzono, że wzorce ekspresji emocjonalnej są podobne we wszystkich siedmiu gatunkach nieograniczonych, sugerowanie uniwersalnego systemu komunikacji emocjonalnej.
  • Nowe perspektywy komunikacji: Badanie oferuje wgląd w ewolucyjne pochodzenie wokalizacji emocjonalnejpotencjalnie przekształcając sposób, w jaki rozumiemy oba emocje zwierząt i rozwój języka ludzkiego.

Ten model AI można zintegrować z Systemy zarządzania hodowlamipozwalając rolnikom Monitoruj poziomy stresu w czasie rzeczywistym i podejmij działania, zanim zwierzęta doświadczą znacznego cierpienia. Podobnie, ekologów mogliby wykorzystać tę technologię badaj reakcje emocjonalne w populacjach dzikich zwierząt.

Według Élodie F. Briefer, profesor nadzwyczajny na Wydziale Biologii i ostatni autor badania:

„Ten przełom zapewnia solidne dowody na to, że AI może dekodować emocje na wielu gatunkach opartych na wzorach wokalnych. Może to zrewolucjonizować dobrostan zwierząt, zarządzanie zwierzętami gospodarskimi i ochronę, umożliwiając nam monitorowanie emocji zwierząt w czasie rzeczywistym ”.

Aby przyspieszyć dalsze badania, Zespół udostępnił swój zestaw danych etykietowanych wokalizacji zwierząt. Umożliwi to innym naukowcom wykorzystanie ich ustaleń i zbadanie dodatkowych zastosowań AI w badaniach nad zachowaniem zwierząt.


Ta sztuczna inteligencja twierdzi, że może budować ontologie lepiej niż ty


Briefer dodaje:

„Chcemy, aby był to zasób dla innych naukowców. Dokonując otwarcia danych, mamy nadzieję przyspieszyć badania nad tym, w jaki sposób AI może pomóc nam lepiej zrozumieć zwierzęta i poprawić ich dobrobyt ”.

Czy AI może słuchać danych?

Świat, w którym sztuczna inteligencja nie tylko przetwarza dane, ale słucha – w ten sposób zbiera się tych badań. Nie w sposób science fiction, ale w Praktyczny, poziom gruntu Poczucie wykrywania stresu, zanim zwierzę cierpi, łapie subtelne wskazówki, których nawet wyszkolone oczy mogą przegapić.

Nie chodzi o tłumaczenie „moo” na słowa. Jeśli AI może to zrobić dla zwierząt gospodarskich, co powstrzymuje to przed zrozumieniem większej liczby gatunków jutro? Technik już się potwierdza; Teraz decydujemy, co z tym zrobić. Ponieważ kiedy zaczniemy się dostroić, ignorowanie tego, co słyszymy, nie będzie opcją.


Wyróżniony obraz obrazu: Kerem Gülen/Imagen 3

Tags: AiWyróżniony

Recent Posts

  • Gotowy na chatgpt, który naprawdę cię zna?
  • Narzędzia badawcze AI mogą powodować więcej problemów niż rozwiązują
  • Czy twój bardzo pomocny partner generatywny AI potajemnie sprawia, że ​​twoja praca jest nudna?
  • Adele Microsoft chce nadać twojej sztucznej inteligencji profilu poznawczego
  • Apple Research Paper zaprezentuje Matrix3D do generowania treści 3D

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.