Pośpieszny postęp technologii sztucznej inteligencji (AI) i jej rosnący wpływ na wiele dziedzin życia wywołały znaczące globalne dyskusje na temat zarządzania, etyki i ram regulacyjnych. Na czele tych dyskusji jest unijna ustawa o sztucznej inteligencji—pionierskie ramy regulacyjne, których celem jest ustanowienie standardów w tych obszarach w całej Europie. Ale to nie jest tylko kolejny wysiłek regulacyjny; reprezentuje szerszą wizję kształtowania przyszłości sztucznej inteligencji w sposób zapewniający sprawiedliwość, włączenie i poszanowanie praw człowieka. W miarę jak technologie sztucznej inteligencji i ich wpływ stale rosną, staje się coraz bardziej oczywiste, że przestrzeganie tych przepisów ma kluczowe znaczenie – nie tylko dla twórców sztucznej inteligencji, ale dla decydentów, przedsiębiorstw i ogółu społeczeństwa.
Firma Dataconomy miała okazję porozmawiać z kluczowymi przywódcami UE i ONZ, aby bardziej szczegółowo zbadać globalny wpływ zarządzania sztuczną inteligencją. Wywiady te ujawniły, jak rozwijają się regulacje i etyka dotyczące sztucznej inteligencji w skali globalnej, przy czym kluczową rolę odgrywa unijna ustawa o sztucznej inteligencji. Podczas Digital Enterprise Show (DES) 2024 w Maladze, Wendy Hall, a Rada Doradcza ONZ ds. AI członek i wybitny brytyjski strateg ds. sztucznej inteligencji; Carme Artigas, współprzewodnicząca Organu Doradczego ONZ ds. AI ds. zarządzania sztuczną inteligencją i jej włączania; oraz Dan Nechita, szef gabinetu posła do Parlamentu Europejskiego Dragos Tudorache i główny negocjator techniczny unijnej ustawy o sztucznej inteligencji w imieniu Parlamentu Europejskiego, podzielili się z nami swoimi ekskluzywnymi spostrzeżeniami na temat tego, jak w czasie rzeczywistym kształtuje się zarządzanie sztuczną inteligencją, jej etyka i regulacje.
Niwelowanie globalnego podziału na sztuczną inteligencję
Sala Wendy, członek Rady Doradczej ONZ ds. sztucznej inteligencji i wybitny brytyjski strateg ds. sztucznej inteligencji zdecydowanie opowiada się za globalnym podejściem do polityki w zakresie sztucznej inteligencji, opartej na współpracy. Podczas naszej dyskusji Hall podkreślił, że choć sztuczna inteligencja stwarza ogromne możliwości, strategie stosowane przez różne narody znacznie się od siebie różnią. Na przykład Wielka Brytania przyjęła bardziej kompleksowe, oparte na polityce podejście do rozwoju sztucznej inteligencji. Począwszy od 2017 r. rząd Wielkiej Brytanii uznał potencjał sztucznej inteligencji w zakresie wzrostu gospodarczego i tworzenia miejsc pracy, pozycjonując kraj jako lidera w zarządzaniu sztuczną inteligencją. W czasie, gdy brexit skupiał uwagę polityczną, Wielkiej Brytanii nadal udało się pracować nad polityką dotyczącą sztucznej inteligencji. Hall zauważa, że wczesne zaangażowanie Wielkiej Brytanii pomogło ugruntować jej pozycję, ale szybko wskazuje, że inne kraje, takie jak Stany Zjednoczone i Chiny, poszły wyraźnie różnymi drogami.
W USA skupiono się głównie na umożliwieniu firmom technologicznym, takim jak Google i OpenAI, przesuwania granic sztucznej inteligencji, pozostawiając zarządzanie w rękach sektora prywatnego. Z drugiej strony Chiny przyjęły scentralizowane podejście kierowane przez państwo, przy czym rząd zachował kontrolę nad strategicznym kierunkiem sztucznej inteligencji. Hall wyjaśnia, że te rozbieżne strategie podkreślają złożoność globalnego zarządzania sztuczną inteligencją i potrzebę bardziej spójnych polityk międzynarodowych.
Jednak głównym zmartwieniem Halla nie są rozbieżności między tymi wiodącymi krajami, ale raczej nierówny dostęp do technologii sztucznej inteligencji na całym świecie. Podkreśla potrzebę sprawiedliwego rozwoju sztucznej inteligencji, szczególnie w przypadku krajów spoza bogatego Zachodu. Regiony takie jak Globalne Południektórym często brakuje infrastruktury i zasobów, aby dotrzymać kroku postępowi sztucznej inteligencji, istnieje ryzyko, że pozostaną w tyle. Hall twierdzi, że podział ten może pogłębić istniejące globalne nierówności, jeśli nie zostaną wdrożone inicjatywy mające na celu budowanie potencjału.
„Regiony te potrzebują czegoś więcej niż tylko dostępu do technologii sztucznej inteligencji — potrzebują infrastruktury, talentów i danych, aby opracowywać systemy sztucznej inteligencji dostosowane do ich własnych potrzeb” – podkreśla Hall. Może to obejmować zapewnienie krajom Globalnego Południa dostępu do wysokowydajnych systemów obliczeniowych, zbiorów danych i wiedzy technicznej potrzebnej do lokalnego tworzenia modeli sztucznej inteligencji. Hall opowiada się za globalnymi inicjatywami oferującymi narzędzia i zasoby niezbędne tym krajom do aktywnego udziału w rewolucji sztucznej inteligencji, a nie biernych konsumentów technologii opracowanej gdzie indziej.
„Istnieje ryzyko, że sztuczna inteligencja może pogłębić globalne nierówności, jeśli nie zapewnimy równego dostępu do niezbędnej infrastruktury i talentów”
Szczególną troską Halla jest szybki i niekontrolowany rozwój generatywnych modeli sztucznej inteligencji, takich jak GPT-4 OpenAI. Chociaż modele te oferują przełomowe możliwości, stwarzają również znaczne ryzyko w postaci dezinformacji, dezinformacji i nadużyć etycznych. Hall jest ostrożny, jeśli chodzi o niezamierzone konsekwencje tak potężnych technologii, zauważając, że generatywna sztuczna inteligencja może generować przekonujące, ale całkowicie fałszywe treści, jeśli nie jest dokładnie regulowana.
Zwraca uwagę na szersze implikacje, wyjaśniając, że podczas gdy wcześniejsze technologie AI, takie jak automatyzacja, skupiały się przede wszystkim na poprawie wydajności, generatywna sztuczna inteligencja bezpośrednio wpływa na tworzenie i rozpowszechnianie wiedzy. „Zaobserwowaliśmy to w przypadku dezinformacji w Internecie — jeśli napływające dane są błędne, wyniki mogą być szkodliwe i to na skalę, z jaką nigdy wcześniej nie mieliśmy do czynienia” – ostrzega Hall. Stawka jest wysoka, szczególnie gdy technologie sztucznej inteligencji wpływają na decyzje w kluczowych sektorach, takich jak opieka zdrowotna, prawo i finanse.
Zdaniem Halla rozwiązaniem jest wspieranie globalnych partnerstw mających na celu tworzenie solidnych standardów etycznych i ram zarządzania. Opowiada się za zawieraniem umów międzynarodowych w celu zapewnienia odpowiedzialnego opracowywania i wdrażania technologii sztucznej inteligencji, bez powodowania szkód społecznych. Hall wskazuje na znaczenie zaangażowania różnych interesariuszy, w tym rządów, firm prywatnych i organizacji społeczeństwa obywatelskiego, w celu ustanowienia przepisów zapewniających równowagę między innowacjami a bezpieczeństwem publicznym.
Perspektywa Halla podkreśla kluczowy punkt: sztuczna inteligencja może zaostrzyć istniejące globalne nierówności i wprowadzić nowe dylematy etyczne bez współpracy i wspólnego zarządzania. Wezwanie Halla do budowania potencjału i nadzoru etycznego to nie tylko zalecenie — to niezbędny krok, aby zapewnić rozwój sztucznej inteligencji z korzyścią dla całej ludzkości, a nie tylko kilku wybranych.
Zapewnienie włączającego zarządzania sztuczną inteligencją
Carme Artigaswspółprzewodniczący Organu Doradczego ONZ ds. Zarządzania Sztuczną Inteligencją i Włączenia AI, wnosi krytyczną perspektywę do rozmowy na temat globalnego rozwoju sztucznej inteligencji – skupionej na rażących rozbieżnościach w sposobie włączania różnych narodów w dyskusje na temat zarządzania sztuczną inteligencją. Artigas podkreśla, że obecne ramy regulujące sztuczną inteligencję, w tym inicjatywy kierowane przez G7, UNESCO i OECD, są w dużej mierze zdominowane przez bogatsze, bardziej zaawansowane technologicznie kraje, pomijając kluczowe głosy z Globalnego Południa. „Wiele krajów Globalnego Południa nie jest nawet zaproszonych do stołu” – zauważa Artigas, nawiązując do globalnych dyskusji, które kształtują przyszłość sztucznej inteligencji. Jej zdaniem to wykluczenie stanowi poważny deficyt w zarządzaniu i stwarza ryzyko powstania nowej formy cyfrowego kolonializmu. W miarę postępu technologii sztucznej inteligencji kraje, którym brakuje zasobów lub wpływów, aby uczestniczyć w międzynarodowym kształtowaniu polityki w zakresie sztucznej inteligencji, mogą zostać jeszcze bardziej w tyle. Dla Artigasa nie jest to tylko kwestia sprawiedliwości – to podstawowe ryzyko dla globalnej stabilności i równości.
Artigas podkreśla potrzebę modelu zarządzania wykraczającego poza tradycyjne ramy organów regulacyjnych. Zamiast tworzyć jedną nową agencję międzynarodową do nadzorowania zarządzania sztuczną inteligencją, opowiada się za wykorzystaniem istniejących instytucji. „Nie potrzebujemy więcej agencji; potrzebujemy lepszej koordynacji między już istniejącymi” – wyjaśnia. Organizacje takie jak ITU (Międzynarodowy Związek Telekomunikacyjny), UNICEFI WIPO (Światowa Organizacja Własności Intelektualnej) są już głęboko zaangażowane w kwestie związane ze sztuczną inteligencją, każdy w swoim własnym sektorze. Brakuje skoordynowanego podejścia, które połączy te wyspecjalizowane agencje w ramach jednolitej globalnej struktury zarządzania.
„Prawdziwe zarządzanie musi wykraczać poza zwykłe wytyczne i obejmować mechanizmy rozliczalności”
Wizja Artigasa zakłada zarządzanie sztuczną inteligencją w sposób zgodny z prawem międzynarodowym i prawami człowieka oraz zapewniający wszystkim krajom – niezależnie od ich pozycji technologicznej – równy dostęp do korzyści, jakie może przynieść sztuczna inteligencja. Obejmuje to zapewnienie niezbędnych narzędzi i zasobów krajom obecnie wykluczonym z rozwoju sztucznej inteligencji, aby mogły nadrobić zaległości. Zauważa, że sektor prywatny i środowisko akademickie również odgrywają rolę w demokratyzacji dostępu do technologii sztucznej inteligencji.
Artigas zwraca jednak uwagę, że same wytyczne etyczne nie wystarczą. Choć wiele firm opracowało swoje wewnętrzne ramy etyczne, jej zdaniem są one często dobrowolne i niewykonalne. Jej zdaniem prawdziwe zarządzanie musi wykraczać poza zwykłe wytyczne i obejmować mechanizmy rozliczalności. Bez wyraźnych konsekwencji dla nieetycznego rozwoju lub wdrażania sztucznej inteligencji ryzyko niewłaściwego użycia i szkód – szczególnie w przypadku bezbronnych grup społecznych – pozostaje wysokie.
Jedną z kluczowych kwestii podnoszonych przez Artigasa jest rola sztucznej inteligencji w pogłębianiu przepaści cyfrowej. Jeśli sztuczna inteligencja nie zostanie odpowiednio uregulowana, może jeszcze bardziej utrwalić istniejące nierówności, w wyniku czego bogatsze kraje zyskają większą siłę gospodarczą i technologiczną, podczas gdy biedniejsze kraje pozostaną w tyle. Jej zdaniem celem zarządzania sztuczną inteligencją musi być zamknięcie tego podziału, a nie jego pogłębienie. „Sztuczna inteligencja ma potencjał, aby świetnie wyrównywać szanse, ale tylko wtedy, gdy zapewnimy równy podział korzyści z niej płynących” – podkreśla.
Koncentracja Artigasa na włączaniu i koordynacji w zarządzaniu sztuczną inteligencją odzwierciedla rosnące uznanie, że sztuczna inteligencja jest problemem globalnym wymagającym globalnych rozwiązań. Jej wezwanie do ujednoliconego podejścia – w ramach którego istniejące agencje współpracują w celu zarządzania sztuczną inteligencją – podkreśla potrzebę bardziej włączającego, etycznego i odpowiedzialnego systemu, który przyniesie korzyści całej ludzkości, a nie tylko kilku wybranym.
Równowaga między innowacjami i regulacjami
Dana Nechityszef gabinetu posła do Parlamentu Europejskiego Dragos Tudorache i główny negocjator techniczny unijnej ustawy o sztucznej inteligencji wnoszą pragmatyczną, ale przyszłościową perspektywę do dyskusji na temat zarządzania sztuczną inteligencją. Jako jedna z kluczowych postaci odpowiedzialnych za unijną ustawę o sztucznej inteligencji Nechita podkreśla znaczenie zrównoważenia innowacji z potrzebą solidnych przepisów zapewniających bezpieczne opracowywanie i wykorzystywanie technologii sztucznej inteligencji.
Zdaniem Nechity, Ustawa UE o sztucznej inteligencji ma na celu określenie jasnych zasad dotyczących systemów sztucznej inteligencji, zwłaszcza tych uznawanych za obarczone wysokim ryzykiem, takich jak sztuczna inteligencja stosowana w opiece zdrowotnej, edukacji, egzekwowaniu prawa i innych krytycznych sektorach. „Nie chodzi tylko o uregulowanie samej technologii” – wyjaśnia Nechita. „Chodzi o ochronę praw podstawowych i zapewnienie, że sztuczna inteligencja nie zaostrzy istniejących problemów społecznych, takich jak dyskryminacja lub naruszenia prywatności”.
Jedną z wyróżniających się cech unijnego aktu prawnego dotyczącego sztucznej inteligencji jest jego nacisk na zarządzanie ryzykiem. Nechita wyjaśnia, że systemy sztucznej inteligencji są klasyfikowane na podstawie poziomu ryzyka, jakie stwarzają, przy czym systemy o najwyższym ryzyku podlegają najsurowszym regulacjom. To wielopoziomowe podejście zapewnia elastyczność, umożliwiając Europie utrzymanie wiodącej pozycji w zakresie innowacji w zakresie sztucznej inteligencji, zapewniając jednocześnie dokładne uregulowanie najbardziej wrażliwych aplikacji. Dla Nechity ta równowaga między innowacjami a regulacjami ma kluczowe znaczenie dla utrzymania konkurencyjności Europy w globalnym krajobrazie sztucznej inteligencji.
Nechita przyznaje jednak, że wdrażanie unijnej ustawy o sztucznej inteligencji to złożony i ciągły proces. Jednym z wyzwań jest zapewnienie tego wszystkich 27 państw członkowskich UEz których każdy ma własne krajowe priorytety i strategie, przestrzegają jednolitych ram regulacyjnych. Aby zapewnić powodzenie unijnej ustawy o sztucznej inteligencji, wymagana jest współpraca między rządami, liderami branży i organami regulacyjnymi. „Wspieramy ciągłą pętlę informacji zwrotnych między firmami a organami regulacyjnymi, zapewniając bezpieczną ewolucję systemów sztucznej inteligencji, zachowując jednocześnie zgodność w miarę pojawiania się nowych technologii” – wyjaśnia Nechita. „Nie tylko przekazujemy firmom zbiór zasad i odchodzimy. Prosimy ich, aby stale z nami współpracowali, testowali swoje systemy, zgłaszali problemy i zapewniali zgodność”.
„Sztuczna inteligencja zmieni świat i musimy poprowadzić go w kierunku, który przyniesie korzyści wszystkim”
Nechita zwraca także uwagę, że unijna ustawa o sztucznej inteligencji nie polega jedynie na tworzeniu statycznych przepisów. Ustawa zawiera postanowienia dotyczące ciągłych aktualizacji i zmian w miarę rozwoju technologii AI. Twierdzi, że to dynamiczne podejście jest niezbędne, ponieważ sztuczna inteligencja to dziedzina, która szybko się zmienia, a regulacje muszą dotrzymywać kroku nowym zmianom. Dlatego też unijny akt dotyczący sztucznej inteligencji zachęca do ciągłego dialogu między twórcami sztucznej inteligencji a organami regulacyjnymi, wspierając relacje, w których mogą współistnieć zarówno innowacja, jak i bezpieczeństwo.
Nechita ma jednak na uwadze szerszy kontekst globalny. Chociaż UE przyjęła proaktywne stanowisko w sprawie regulacji dotyczących sztucznej inteligencji, inne regiony, zwłaszcza USA i Chiny, mają odmienne podejście. W USA regulacje dotyczące sztucznej inteligencji są bardziej rozdrobnione, a przedsiębiorstwa w dużej mierze dokonują samoregulacji, podczas gdy w Chinach kontrolowany przez państwo rozwój sztucznej inteligencji przedkłada interesy narodowe nad prawa jednostki. Nechita przyznaje, że osiągnięcie globalnego konsensusu w sprawie zarządzania sztuczną inteligencją będzie trudne, ale widzi potencjał współpracy w takich obszarach jak Bezpieczeństwo, zrównoważony rozwój i standardy etyczne AI.
Nechita przewiduje model zarządzania sztuczną inteligencją, który równoważy innowacje z bezpieczeństwem publicznym. Uważa on, że unijna ustawa o sztucznej inteligencji, skupiająca się na zarządzaniu ryzykiem, przejrzystości i ciągłej współpracy, oferuje model podejścia innych regionów do regulacji dotyczących sztucznej inteligencji. Jednocześnie podkreśla potrzebę globalnej współpracy, zwłaszcza w zakresie rozwiązywania etycznych i społecznych konsekwencji sztucznej inteligencji.
W miarę kształtowania się unijnego aktu prawnego dotyczącego sztucznej inteligencji Nechita pozostaje optymistą co do jego potencjału w zakresie ustanowienia globalnego standardu zarządzania sztuczną inteligencją: „Sztuczna inteligencja zmieni świat i musimy się upewnić, że zmieni się na lepsze” – podsumowuje. Jego podejście odzwierciedla zróżnicowane zrozumienie nadchodzących wyzwań i silną wiarę w siłę regulacji, które mogą pokierować rozwojem sztucznej inteligencji w kierunku korzystnym dla społeczeństwa.
Jednolita wizja przyszłości sztucznej inteligencji
Spostrzeżenia Wendy Hall, Carme Artigas i Dana Nechity odzwierciedlają kluczowy punkt zwrotny w zarządzaniu sztuczną inteligencją, gdy obserwujemy ewolucję sztucznej inteligencji w niespotykanym dotąd tempie. Ich perspektywy zbiegają się w jednej niezaprzeczalnej prawdzie: sztuczna inteligencja to nie tylko przełom technologiczny; jest to siła, którą należy zdecydowanie odwrócić od przynoszenia korzyści nielicznym kosztem wielu.
O pilnej potrzebie budowania globalnego potencjału i kontroli etycznej sztucznej inteligencji wzywa również Wendy Hall, która zwraca się do nas o wypełnienie rosnącej luki między możliwościami w tej dziedzinie między krajami rozwiniętymi i rozwijającymi się. Jednakże skupienie się Camre Artigas na włączaniu i odpowiedzialności przypomina nam, że egzekwowanie prawa poprzedzające jakiekolwiek zarządzanie powinno być nieodłączną częścią. Ustawa UE o sztucznej inteligencji jest godnym przykładem równoważenia innowacji z bezpieczeństwem, a tym samym tego, w jaki sposób inne regiony mogą podejść do zarządzania sztuczną inteligencją.
Razem te głosy tworzą całościowy obraz tego, co jest potrzebne do kształtowania przyszłości sztucznej inteligencji: skupienie się na współpracy, ochronie praw człowieka i solidnych ramach zachęcających do innowacji przy jednoczesnej ochronie interesów publicznych. Przed nami niesamowicie trudna droga, ale jednocześnie pełna ogromnego potencjału. Przyszłość sztucznej inteligencji nadeszła teraz i od nas zależy, czy stanie się to właściwe.