Trwa nowa faza starań administracji Trumpa o zmniejszenie służby cywilnej, koncentrując się na użyciu generatywnej sztucznej inteligencji do automatyzacji zadań pracy wcześniej obsługiwanych przez pracowników federalnych. Generalna Administracja Usług (GSA) testuje chatbot z 1500 pracownikami i może rozszerzyć swoje wykorzystanie na ponad 10 000 pracowników zarządzających ponad 100 miliardami dolarów w kontraktach i usługach, zgodnie z Przewodowe.
Testy GSA AI Chatbot w celu zautomatyzowania zadań federalnych w związku z zmniejszaniem
GSA Leadership określa bota jako narzędzie do zwiększania wydajności. Thomas Shedd, dyrektor ds. Transformacji technologii (TTS) w GSA, wyróżniony na ostatnim spotkaniu All Hands, że agencja realizuje „strategię AI-PIRST”. Stwierdził: „Gdy zmniejszamy [the] Ogólny rozmiar rządu federalnego… wciąż istnieje mnóstwo programów, które muszą istnieć, co jest ogromną szansą na technologię i automatyzację, aby uzyskać pełną siłę. ” Shedd wspomniał również o potencjalnym wprowadzeniu „agentów kodujących” w całym rządzie, odnosząc się do programów AI zdolnych do pisania i stosowania kodu.
Inicjatywa Chatbot rozpoczęła się podczas kadencji prezydenta Joe Bidena od małego zespołu technologicznego GSA o nazwie 10X, który początkowo zaprojektował ją jako platformę testową AI, a nie narzędzie produktywności. Jednak sojusznicy Doge, Departamentu Rządu, naciskali na przyspieszony rozwój i rozmieszczenie w związku z masowymi zwolnieniami federalnymi. Program, wcześniej znany jako „GSAI”, a teraz nazywany „GSA Chat”, ma na celu pomóc w opracowywaniu wiadomości e -mail, pisaniu kodu i innych funkcji. Ostatecznie będzie dostępny dla innych agencji rządowych, potencjalnie pod nazwą „ai.gov”.
Zach Whitman, główny oficer AI GSA, opisał chatbota jako sposób dla pracowników federalnych do pracy „skuteczniej i wydajniej”. Interfejs przypomina interfejs CHATGPT, w którym użytkownicy przesyłają podpowiedzi i otrzymują odpowiedzi. System obecnie wykorzystuje modele licencjonowane z meta i antropika. Chociaż przesyłanie dokumentów nie są jeszcze dozwolone, plany sugerują, że ta funkcja może być dostępna w przyszłości. Pracownicy GSA przewidują korzystanie z chatbota do różnych zadań, w tym planowania projektu na dużą skalę i analizę federalnych repozytoriów danych.
Rzecznik GSA Will Powell potwierdził, że agencja dokonuje przeglądu swoich zasobów IT i przeprowadza testy w celu weryfikacji skuteczności i niezawodności dostępnych narzędzi. Jednak eksperci wskazują, że wprowadzenie Chatbota może odzwierciedlać szerszy trend, a nie znacznie zmieniający się operacje rządowe. Pojawiły się raporty, że doradcy Doge wykorzystali sztuczną inteligencję do analizy wydatków agencyjnych na cięcia i decydowania o zatrzymaniu pracy w całym rządzie.
Podczas ostatniego spotkania TTS Shedd spodziewał się, że dywizja wkrótce się zmniejszy o „co najmniej 50 procent”. Ponadto potencjalne wykorzystanie sztucznej inteligencji rozciągają się na wrażliwe zastosowania, takie jak ocena postów w mediach społecznościowych posiadaczy studenckich przez Departament Stanu w celu zidentyfikowania linków do wyznaczonych grup terrorystycznych.
Wdrożenie generatywnej AI zawiera ustalone ryzyko, w tym uprzedzenia, faktyczne niedokładności, wysokie koszty i złożone działanie wewnętrzne. GSA rozpoznała te problemy podczas inicjowania pracy nad chatbotem zeszłego lata, ustanawiając „10x AI Sandbox” w celu bezpiecznego i opłacalnego eksploracji aplikacji AI. Jednak motywacje do szybkiego wydania Chatbota mogą przeoczyć potencjalne obawy dotyczące jego zastosowań. Były pracownik GSA zauważył ryzyko związane z poleganiem na AI w celu analizy oszustw, podkreślając potencjał fałszywych pozytywów. Ostrzeżenia dotyczące takich problemów, jak „halucynacja” i stronnicze odpowiedzi są zawarte na stronie pomocy dla wczesnych użytkowników, ale metody egzekwowania pozostają nieokreślone.
Agencje federalne testują generatywne sztuczną inteligencję od miesięcy, a GSA wcześniej zarabia Google w celu oceny potencjału AI w zakresie zwiększenia wydajności i współpracy. Inne agencje, takie jak departamenty bezpieczeństwa wewnętrznego, zdrowia i usług ludzkich oraz spraw weteranów, również badały narzędzia AI przed inauguracją. Mimo to szczególne wdrożenie Chatbota mogło nie być nieuniknione w obecnej formie.
Administracja Biden podjęła ostrożne podejście do AI, podkreślając rygorystyczne testy i przejrzystość za pośrednictwem zarządzenia wykonawczego. Jednak uchylenie tego rozkazu pierwszego dnia urzędu Trumpa oznaczało zmianę postawy regulacyjnej, potencjalnie umożliwiając agencjom federalnym na wykorzystanie bardziej spekulacyjnych zastosowań technologii AI.
Wyróżniony obraz obrazu: Katie Moum/Unsplash