Około 200 pracowników Google DeepMind, działu badań nad sztuczną inteligencją Google, podniosło alarm w sprawie kontraktów wojskowych firmy. Według Czas, zwrócili się do Google z prośbą o zaprzestanie współpracy z organizacjami wojskowymi, uważając, że takie wykorzystanie ich technologii jest sprzeczne z etycznymi zasadami Google dotyczącymi sztucznej inteligencji.
Krótkie przypomnienie: Gdy Google przejęło DeepMind w 2014 r., laboratorium było obiecała, że jej technologia sztucznej inteligencji nie będzie wykorzystywana do celów wojskowych ani do celów nadzoru. Przez lata DeepMind działał w pewnym stopniu niezależnie. Jednak wraz ze wzrostem konkurencji AI, DeepMind stał się bardziej zintegrowany z Google. W 2023 r. połączył się z Google Brain, zbliżając się do głównych operacji Google.
Kontrowersyjne kontrakty: Projekt Nimbus i nie tylko
Problem dotyczy usług w chmurze Google, w tym AI opracowanej przez DeepMind, które zostały sprzedane rządom i wojskom. Najbardziej kontrowersyjnym kontraktem jest Project Nimbus, umowa z rządem Izraela. Kontrakt ten został skrytykowany, ponieważ wspiera izraelskie wojsko, które bierze udział w operacjach w Strefie Gazy.
Pracownicy DeepMind obawiają się, że współpraca z organizacjami wojskowymi jest sprzeczna z zasadami Google AI Principles. Zasady te mają na celu zapewnienie etycznego i odpowiedzialnego korzystania ze sztucznej inteligencji. Stwierdzają, że sztuczna inteligencja nie powinna wyrządzać krzywdy ani być wykorzystywana do broni lub nadzoru, co narusza prawa człowieka.
List pracowników
16 maja 2024 r. pracownicy wysłali list, w którym wyrazili swoje obawy. W liście napisano, że chociaż nie dotyczy on konkretnych konfliktów ani rządów, to jednak obawia się wykorzystania Sztuczna inteligencja w wojsku ustawień. Twierdzi, że takie zaangażowanie szkodzi zaangażowaniu DeepMind w etyczną sztuczną inteligencję.
W liście żądano trzech głównych działań:
- Dochodzenie:Przyjrzyj się, w jaki sposób technologia DeepMind jest wykorzystywana przez organizacje wojskowe.
- Zakończenie: Zakończyć dostęp klientów wojskowych do technologii DeepMind.
- Zarządzanie:Utworzyć nową instytucję, która będzie zapobiegać przyszłemu wykorzystaniu technologii DeepMind do celów militarnych.

Reakcja firmy i frustracje
Google odpowiedziało, że przestrzega swoich zasad AI i że Project Nimbus obejmuje świadczenie usług w chmurze ministerstwom rządu Izraela, a nie bezpośrednio wojsku. Google twierdzi, że te usługi nie są przeznaczone do wrażliwych zastosowań wojskowych lub tajnych.
Sygnatariusze listu twierdzą jednak, że odpowiedź Google jest niejasna i nie odpowiada na ich obawy dotyczące wspierania nadzoru i przemocy za pomocą swojej technologii.
Pracownicy są sfrustrowani brakiem reakcji ze strony Google na ich list i uważają, że kierownictwo nie odpowiedziało skutecznie na ich obawy.
Na czerwcowym spotkaniu miejskim dyrektor operacyjny DeepMind, Lila Ibrahim, zapewniła pracowników, że DeepMind nie będzie rozwijać sztucznej inteligencji do celów broni ani masowej inwigilacji. Podkreśliła zaangażowanie Google w odpowiedzialną sztuczną inteligencję, co, jak powiedziała, było powodem, dla którego dołączyła do firmy i w niej pozostała.

Ta sytuacja w Google DeepMind odzwierciedla szerszą debatę w branży technologicznej na temat wykorzystania zaawansowanych technologii w zastosowaniach wojskowych. W miarę postępu technologii AI firmy takie jak Google stają przed wyzwaniem zrównoważenia interesów biznesowych z odpowiedzialnością etyczną. Wynik tego sporu może ustalić ważne wytyczne dotyczące tego, w jaki sposób AI będzie rozwijana i wykorzystywana w przyszłości.