Google opublikowany Raport techniczny na temat najnowszego modelu AI, Gemini 2.5 Pro, tygodnie po jego uruchomieniu, ale eksperci twierdzą, że w raporcie brakuje kluczowych szczegółów bezpieczeństwa, co utrudnia ocenę ryzyka modelu.
Raport jest częścią wysiłków Google o zapewnienie przejrzystości na temat jego modeli AI, ale różni się od jego rywali tym, że publikuje tylko raporty techniczne dla modeli, które uważa za wykroczenie poza etap eksperymentalny. Google zastrzega również niektóre wyniki oceny bezpieczeństwa osobnego audytu.
Eksperci, w tym Peter Wildeford, współzałożyciel Instytutu Polityki i Strategii AI oraz Thomas Woodside, współzałożyciel Secure AI Project, wyrażone rozczarowanie rzadością raportu, zauważając, że nie wspomina o ramach bezpieczeństwa Frontier Google (FSF), wprowadzony w zeszłym roku w celu zidentyfikowania potencjalnych zagrożeń AI.
Wildeford powiedział, że minimalne informacje raportu, opublikowane tygodnie po publicznym uruchomieniu modelu, uniemożliwia weryfikację publicznych zobowiązań Google w zakresie bezpieczeństwa i bezpieczeństwa. Woodside zakwestionował również zaangażowanie Google w terminowe oceny bezpieczeństwa, wskazując, że ostatni raport firmy na temat niebezpiecznych testów zdolności miał miejsce w czerwcu 2024 r., W przypadku modelu ogłoszonego w lutym 2024 r.
Co więcej, Google nie opublikował raportu dla Gemini 2.5 Flash, mniejszy model ogłoszony w zeszłym tygodniu, chociaż rzecznik powiedział, że „wkrótce”. Thomas Woodside ma nadzieję, że Wskazuje, że Google rozpocznie publikowanie częstszych aktualizacji, w tym oceny modeli, które nie zostały jeszcze wdrożone publicznie.
Sędzia zasady Google posiada nielegalny monopol reklamowy
Inne laboratoria AI, takie jak Meta i Openai, również spotkały się z krytyką za brak przejrzystości w ich ocenach bezpieczeństwa. Kevin Bankston, starszy doradca ds. Zarządzania AI w Center for Democracy and Technology, opisał trend sporadycznych i niejasnych raportów jako „wyścig na dno” w zakresie bezpieczeństwa AI.
Google stwierdził, że przeprowadza testy bezpieczeństwa i „przeciwnika czerwonego zespołu” dla swoich modeli przed wydaniem, nawet jeśli nie jest szczegółowo opisany w raportach technicznych.