OpenAI ogłosiło współpraca z wykonawcą w dziedzinie obronności, firmą Anduril, w celu ulepszenia wojskowych systemów przeciwbezzałogowych statków powietrznych. Współpraca ta sygnalizuje znaczącą zmianę w dotychczasowym stanowisku OpenAI w sprawie zaangażowania wojskowego w obliczu rosnących obaw związanych z wykorzystaniem sztucznej inteligencji w działaniach wojennych. Sojusz ma na celu wykorzystanie zaawansowanej sztucznej inteligencji do poprawy możliwości wykrywania zagrożeń i reagowania w czasie rzeczywistym na potrzeby amerykańskich misji bezpieczeństwa narodowego.
OpenAI współpracuje z Andurilem w celu ulepszenia systemów przeciwdziałających dronom
Partnerstwo koncentruje się na opracowywaniu modeli sztucznej inteligencji, które mogą szybko syntetyzować dane wrażliwe na czas, aby pomóc operatorom w ocenie zagrożeń powietrznych. Według OpenAI inicjatywa ta ma na celu ochronę personelu wojskowego USA przed atakami dronów, przy jednoczesnym zachowaniu zaangażowania w misję zapobiegania wyrządzaniu szkód. Dyrektor generalny OpenAI Sam Altman stwierdził: „OpenAI buduje sztuczną inteligencję, aby przynosiła korzyści jak największej liczbie osób, i wspiera wysiłki kierowane przez USA, aby zapewnić, że technologia będzie stać na straży wartości demokratycznych”.
To partnerstwo stanowi pierwszą współpracę OpenAI z wykonawcą w dziedzinie obronności, po decyzji podjętej na początku tego roku o zniesieniu zakazu wykorzystania jego narzędzi do celów wojskowych. Wcześniej zasady OpenAI wyraźnie zabraniały wykorzystywania tej technologii do zastosowań wojskowych, w tym do opracowywania broni. Niedawno jednak firma zmieniła swoje wytyczne, usuwając terminologię związaną z zastosowaniami wojskowymi, choć pozostaje ostrożna, ponieważ w dalszym ciągu podkreśla, jak ważne jest, aby nie wykorzystywać swoich systemów sztucznej inteligencji do wyrządzania szkód.
Anduril, którego współzałożycielem jest Palmer Luckey, jest podobno wyceniony na około 14 miliardów dolarów i zapewnił sobie kontrakt o wartości 200 milionów dolarów z piechotą morską, specjalnie na systemy przeciwdronowe. To posunięcie OpenAI wpisuje się w większy trend w branży technologicznej, ponieważ kilka firm zajmujących się sztuczną inteligencją szukało partnerstwa z wykonawcami z branży obronnej. Warto zauważyć, że wspierana przez Amazon firma Anthropic zawarła podobny sojusz z Palantirem, aby wspierać amerykańskie agencje wywiadowcze i obronne.
Krytycy tej współpracy techniczno-wojskowej wyrażają zaniepokojenie konsekwencjami etycznymi, ponieważ w przeszłości wielu pracowników branży technologicznej protestowało przeciwko kontraktom wojskowym. Pracownicy takich firm jak Google i Microsoft wyrazili zdecydowany sprzeciw wobec projektów wykorzystujących technologię do celów wojskowych, wywołując publiczną debatę na temat roli technologii w działaniach wojennych.
Pomimo obaw etycznych, partnerstwo pomiędzy OpenAI i Anduril ma na celu wzmocnienie zdolności wojska, koncentrując się na poprawie świadomości sytuacyjnej podczas potencjalnych zagrożeń. Współpraca ma na celu zmniejszenie obciążeń operatorów, umożliwiając im szybsze podejmowanie świadomych decyzji. Szczegóły dotyczące rozwoju tego partnerstwa są wciąż opracowywane i okaże się, jak obie strony planują poradzić sobie z nieodłącznymi wyzwaniami.
AI będzie polować na broń w nowojorskim metrze
Obawy dotyczące partnerstw wojskowych
Przejście OpenAI w kierunku współpracy z wykonawcami w dziedzinie obronności rodzi ważne pytania dotyczące odpowiedzialności za korzystanie z technologii sztucznej inteligencji. Jak zauważono, wielu pracowników branży technologicznej sprzeciwiało się zawieraniu kontraktów wojskowych, podkreślając potrzebę przejrzystości w odniesieniu do sposobu stosowania technologii sztucznej inteligencji na polu bitwy.
W styczniu OpenAI po cichu zmieniła swoją politykę użytkowania, która wcześniej zabraniała zastosowań wojskowych jej modeli AI. Decyzja ta zbiegła się z rosnącym zaangażowaniem OpenAI w projekty z Departamentem Obrony USA, których celem jest wdrażanie systemów AI dla celów m.in. cyberbezpieczeństwa. Ciągła ewolucja tych partnerstw odzwierciedla szerszą tendencję wśród firm technologicznych do ponownej oceny swojego stanowiska w sprawie kontraktów wojskowych.
Uznając znaczenie odpowiedzialnego wykorzystania sztucznej inteligencji, OpenAI ponownie podkreśliła swoje zaangażowanie w zapewnienie etycznego wykorzystywania swoich technologii, stwierdzając w szczególności, że partnerstwo ma na celu ochronę personelu wojskowego i wzmocnienie środków bezpieczeństwa narodowego. Utrzymuje się jednak sceptycyzm co do zakresu, w jakim systemy oparte na sztucznej inteligencji mogą prowadzić do ograniczenia nadzoru człowieka nad krytycznymi procesami decyzyjnymi.