Google zaktualizował swoje wytyczne etyczne we wtorek, usuwając swoje zobowiązania do nie stosowania technologii sztucznej inteligencji (AI) do broni lub nadzoru. Poprzednia wersja zasad AI firmy obejmowała zakazy realizacji technologii, które mogą wyrządzić ogólną szkodę, w tym wykorzystywane do broni i nadzoru.
Google zmienia wytyczne AI i otwiera drzwi do aplikacji wojskowych
W Post na blogu Przez Demis Hassabis, szef AI Google i James Manyika, starszy wiceprezes ds. Technologii i społeczeństwa, kierownictwo wyjaśniło, że wzrost technologii AI wymagał dostosowania zasad. Podkreślili znaczenie wiodących krajów demokratycznych w rozwoju sztucznej inteligencji oraz potrzebę służenia klientom rządu i bezpieczeństwa narodowego. „Uważamy, że demokracje powinny prowadzić w rozwoju AI, kierowane podstawowymi wartościami, takimi jak wolność, równość i poszukiwanie praw człowieka” – stwierdzili. Ponadto argumentowali za współpracą między firmami i rządami dzielącymi te wartości w celu stworzenia sztucznej inteligencji, która chroni ludzi i wspiera bezpieczeństwo narodowe.
Zmienione zasady AI obejmują teraz elementy ludzkich mechanizmów nadzoru i informacji zwrotnych w celu zapewnienia zgodności z międzynarodowym prawem i standardami praw człowieka. Podkreślają również zobowiązanie do testowania technologii w celu złagodzenia niezamierzonych szkodliwych efektów.
NVIDIA OSTRZEŻA: Nowe zasady chipów AI mogą zaszkodzić Ameryce Edge w technologii
Ta zmiana kontrastuje z wcześniejszą postawą Google, która sprawiła, że była odstająca wśród głównych programistów AI. Firmy takie jak Openai i Antropic mają przyjęty Partnerstwa z firmami wojskowymi w celu uczestnictwa w technologii obronnej, podczas gdy Google wcześniej zrezygnował z podobnych starań z powodu protestów pracowników. Google początkowo wprowadził swoje zasady AI w 2018 r. Po opozycji personelu dotyczącego jego zaangażowania w projekt Pentagonu Maven.
W szerszym kontekście związek między amerykańskim sektorem technologii a Departamentem Obrony zaostrza się, a AI coraz ważniejsze dla operacji wojskowych. Michael Horowitz, profesor nauk politycznych na University of Pennsylvania, zauważył, że Google jest rozsądne aktualizowanie swojej polityki odzwierciedlającej ten ewoluujący krajobraz. Jednocześnie Lilly Irani, profesor z University of California w San Diego, zasugerował, że oświadczenia wykonawcze odzwierciedlają ciągłe wzorce, które pojawiły się z czasem.
Były dyrektor generalny Google, Eric Schmidt, wcześniej wyraził obawy o wyprzedzenie Stanów Zjednoczonych przez Chiny, podkreślając dynamikę geopolityczną wokół rozwoju AI. Ostatnia aktualizacja pojawia się w napięciach, w miarę nasila się rywalizacja technologiczna USA-Chiny. Po ogłoszeniu nowych taryf administracji Trumpa Pekin zainicjował zapytanie antymonopolowe dotyczące Google.
Wewnętrzne protesty dotyczące umów przetwarzania w chmurze Google z Izraelem wywołały etyczne obawy wśród pracowników, powołując się na potencjalne konsekwencje dla palestyńskiej ludności. Raporty pokazują, że Google przyznał izraelskiemu Ministerstwo Obrony zwiększył dostęp do narzędzi AI po atakach Hamasa 7 października 2023 r.
Wyróżniony obraz obrazu: Kerem Gülen/Ideogram