W artykule badawczym z września 2025 r. Google Deepmind przedstawił swoją strategię bezpiecznego rozwoju sztucznej inteligencji ogólnej (AGI). Ramy badań i struktury zarządzania zaprojektowane w celu rozwiązania znacznego ryzyka potężnych systemów AI. Artykuł, zatytułowany „Podejście do technicznego bezpieczeństwa i bezpieczeństwa AGI„Koncentruje się na niebezpieczeństwie„ niewspółosiowej ”sztucznej inteligencji, w której cele systemu AI konfliktu z ludzkimi wartościami i dobrobytem. Taki konflikt może spowodować powszechną szkodę, nawet jeśli sztuczna inteligencja wydaje się poprawnie funkcjonować z technicznej perspektywy. Strategia Deepmind łączy bezpieczeństwo techniczne, ocenę ryzyka i współpracę z szerszą społecznością badawczą do zarządzania tymi wyzwaniami.
Frontier Bezpieczeństwo
Kluczową częścią strategii DeepMind jest ramy bezpieczeństwa Frontier. Protokół ten został zaprojektowany w celu proaktywnej identyfikacji i łagodzenia poważnego ryzyka z zaawansowanych modeli AI, zanim zostaną one w pełni rozwinięte lub szeroko wdrożone. Ramy ustanawiają wyraźne protokoły oceny możliwości modeli w obszarach wysokiego ryzyka, takich jak cyberbezpieczeństwo, autonomia i szkodliwe manipulacje.
Wewnętrzne zarządzanie i nadzór
DeepMind ustanowił również wewnętrzne organy zarządzania w celu nadzorowania rozwoju AI. Rada odpowiedzialności i bezpieczeństwa współpracuje z Radą Bezpieczeństwa AGI w celu nadzorowania badań i rozwoju, zapewniając systematycznie rozwiązywane ryzyko etyczne, techniczne i bezpieczeństwa. Badania firmy podkreślają, że przejrzystość i współpraca zewnętrzna są niezbędne dla odpowiedzialnego rozwoju AGI. Artykuł służy jako wezwanie do działania globalnej społeczności badawczej AI do współpracy nad zarządzaniem złożonym ryzykiem związanym z coraz bardziej potężnymi systemami sztucznej inteligencji w celu zapobiegania niezamierzonym negatywnym wynikom.




