Dataconomy PL
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy PL
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Czy AI ma zamiar zastąpić tysiące pracowników rządowych?

byKerem Gülen
11 marca 2025
in Artificial Intelligence, News
Home Artificial Intelligence

Trwa nowa faza starań administracji Trumpa o zmniejszenie służby cywilnej, koncentrując się na użyciu generatywnej sztucznej inteligencji do automatyzacji zadań pracy wcześniej obsługiwanych przez pracowników federalnych. Generalna Administracja Usług (GSA) testuje chatbot z 1500 pracownikami i może rozszerzyć swoje wykorzystanie na ponad 10 000 pracowników zarządzających ponad 100 miliardami dolarów w kontraktach i usługach, zgodnie z Przewodowe.

Testy GSA AI Chatbot w celu zautomatyzowania zadań federalnych w związku z zmniejszaniem

GSA Leadership określa bota jako narzędzie do zwiększania wydajności. Thomas Shedd, dyrektor ds. Transformacji technologii (TTS) w GSA, wyróżniony na ostatnim spotkaniu All Hands, że agencja realizuje „strategię AI-PIRST”. Stwierdził: „Gdy zmniejszamy [the] Ogólny rozmiar rządu federalnego… wciąż istnieje mnóstwo programów, które muszą istnieć, co jest ogromną szansą na technologię i automatyzację, aby uzyskać pełną siłę. ” Shedd wspomniał również o potencjalnym wprowadzeniu „agentów kodujących” w całym rządzie, odnosząc się do programów AI zdolnych do pisania i stosowania kodu.

Inicjatywa Chatbot rozpoczęła się podczas kadencji prezydenta Joe Bidena od małego zespołu technologicznego GSA o nazwie 10X, który początkowo zaprojektował ją jako platformę testową AI, a nie narzędzie produktywności. Jednak sojusznicy Doge, Departamentu Rządu, naciskali na przyspieszony rozwój i rozmieszczenie w związku z masowymi zwolnieniami federalnymi. Program, wcześniej znany jako „GSAI”, a teraz nazywany „GSA Chat”, ma na celu pomóc w opracowywaniu wiadomości e -mail, pisaniu kodu i innych funkcji. Ostatecznie będzie dostępny dla innych agencji rządowych, potencjalnie pod nazwą „ai.gov”.

Zach Whitman, główny oficer AI GSA, opisał chatbota jako sposób dla pracowników federalnych do pracy „skuteczniej i wydajniej”. Interfejs przypomina interfejs CHATGPT, w którym użytkownicy przesyłają podpowiedzi i otrzymują odpowiedzi. System obecnie wykorzystuje modele licencjonowane z meta i antropika. Chociaż przesyłanie dokumentów nie są jeszcze dozwolone, plany sugerują, że ta funkcja może być dostępna w przyszłości. Pracownicy GSA przewidują korzystanie z chatbota do różnych zadań, w tym planowania projektu na dużą skalę i analizę federalnych repozytoriów danych.

Rzecznik GSA Will Powell potwierdził, że agencja dokonuje przeglądu swoich zasobów IT i przeprowadza testy w celu weryfikacji skuteczności i niezawodności dostępnych narzędzi. Jednak eksperci wskazują, że wprowadzenie Chatbota może odzwierciedlać szerszy trend, a nie znacznie zmieniający się operacje rządowe. Pojawiły się raporty, że doradcy Doge wykorzystali sztuczną inteligencję do analizy wydatków agencyjnych na cięcia i decydowania o zatrzymaniu pracy w całym rządzie.

Podczas ostatniego spotkania TTS Shedd spodziewał się, że dywizja wkrótce się zmniejszy o „co najmniej 50 procent”. Ponadto potencjalne wykorzystanie sztucznej inteligencji rozciągają się na wrażliwe zastosowania, takie jak ocena postów w mediach społecznościowych posiadaczy studenckich przez Departament Stanu w celu zidentyfikowania linków do wyznaczonych grup terrorystycznych.

Wdrożenie generatywnej AI zawiera ustalone ryzyko, w tym uprzedzenia, faktyczne niedokładności, wysokie koszty i złożone działanie wewnętrzne. GSA rozpoznała te problemy podczas inicjowania pracy nad chatbotem zeszłego lata, ustanawiając „10x AI Sandbox” w celu bezpiecznego i opłacalnego eksploracji aplikacji AI. Jednak motywacje do szybkiego wydania Chatbota mogą przeoczyć potencjalne obawy dotyczące jego zastosowań. Były pracownik GSA zauważył ryzyko związane z poleganiem na AI w celu analizy oszustw, podkreślając potencjał fałszywych pozytywów. Ostrzeżenia dotyczące takich problemów, jak „halucynacja” i stronnicze odpowiedzi są zawarte na stronie pomocy dla wczesnych użytkowników, ale metody egzekwowania pozostają nieokreślone.

Agencje federalne testują generatywne sztuczną inteligencję od miesięcy, a GSA wcześniej zarabia Google w celu oceny potencjału AI w zakresie zwiększenia wydajności i współpracy. Inne agencje, takie jak departamenty bezpieczeństwa wewnętrznego, zdrowia i usług ludzkich oraz spraw weteranów, również badały narzędzia AI przed inauguracją. Mimo to szczególne wdrożenie Chatbota mogło nie być nieuniknione w obecnej formie.

Administracja Biden podjęła ostrożne podejście do AI, podkreślając rygorystyczne testy i przejrzystość za pośrednictwem zarządzenia wykonawczego. Jednak uchylenie tego rozkazu pierwszego dnia urzędu Trumpa oznaczało zmianę postawy regulacyjnej, potencjalnie umożliwiając agencjom federalnym na wykorzystanie bardziej spekulacyjnych zastosowań technologii AI.


Wyróżniony obraz obrazu: Katie Moum/Unsplash

Tags: AiGSA

Recent Posts

  • Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem
  • Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność
  • Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach
  • AI YouTube wie, kiedy masz kupić
  • Soundcloud CEO przyznaje, że warunki AI nie były wystarczająco jasne, wydaje nowe zastaw

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.