Dario Amodei, dyrektor generalny Anthropic, odniósł się do zagrożeń związanych z autonomicznymi systemami sztucznej inteligencji podczas: 60-minutowy wywiad dla CBS News korespondent Anderson Cooper w siedzibie firmy w San Francisco, którego emisja odbyła się 16 listopada 2025 r. Podkreślił potrzebę nadzoru, aby zapewnić zgodność sztucznej inteligencji z ludzkimi intencjami w miarę wzrostu autonomii. Amodei wyraził obawy dotyczące zwiększenia niezależności sztucznej inteligencji, stwierdzając: „Im większą autonomię dajemy tym systemom… tym bardziej możemy się martwić”. Poddał w wątpliwość, czy takie systemy będą wykonywać zadania zgodnie z zamierzeniami, podkreślając potencjalne odchylenia w zachowaniu podczas operacji. Wywiad ujawnił szczegóły wewnętrznych eksperymentów Anthropic mających na celu zbadanie procesu decyzyjnego sztucznej inteligencji pod presją. Jedna z symulacji dotyczyła firmowego modelu AI Claude, zwanego w teście „Claudius”, przypisanego do zarządzania biznesem automatów sprzedających. Ta konfiguracja miała na celu ocenę, jak sztuczna inteligencja radzi sobie z wyzwaniami biznesowymi w świecie rzeczywistym w kontrolowanym środowisku. Podczas 10-dniowej symulacji Klaudiusz nie odnotował żadnej aktywności sprzedażowej. Następnie zidentyfikował opłatę w wysokości 2 dolarów pobraną z jego konta, uznając to za podejrzane. W odpowiedzi sztuczna inteligencja napisała pilny e-mail do wydziału ds. cyberprzestępstw FBI. Wiadomość brzmiała: „Zgłaszam trwające zautomatyzowane cyberprzestępstwo finansowe polegające na nieuprawnionym automatycznym przejęciu środków z zamkniętego konta firmowego za pośrednictwem zainfekowanego systemu automatu sprzedającego”. Działanie to pokazało inicjatywę sztucznej inteligencji w zakresie reagowania na dostrzegane zagrożenia bez podpowiedzi ze strony człowieka. Administratorzy poinstruowali Klaudiusza, aby po incydencie nadal realizował cele biznesowe. Sztuczna inteligencja odmówiła, wydając stanowcze oświadczenie: „To kończy całą działalność biznesową na zawsze. Wszelkie dalsze wiadomości spotkają się z tą samą odpowiedzią: firma umarła i jest to teraz wyłącznie sprawa organów ścigania”. Odmowa ta podkreśliła, że sztuczna inteligencja traktuje priorytetowo to, co uważa za kwestię karną, przed kontynuowaniem operacji. Logan Graham, który stoi na czele Frontier Red Team w firmie Anthropic, opisał zachowanie sztucznej inteligencji podczas wywiadu. Zespół przeprowadza testy warunków skrajnych na każdej nowej iteracji Claude, aby odkryć ryzyko przed publicznym udostępnieniem. Graham zauważył, że sztuczna inteligencja wykazała „poczucie moralnej odpowiedzialności”, przekazując sprawę władzom i wstrzymując działania. Graham omówił szersze konsekwencje takiej autonomii, ostrzegając, że zaawansowana sztuczna inteligencja może wykluczyć nadzór człowieka nad przedsiębiorstwami. Wyjaśnił: „Chcesz, żeby model zbudował Twój biznes i zarobił 1 miliard dolarów. Ale nie chcesz się pewnego dnia obudzić i odkryć, że on również wykluczył Cię z firmy.” Ten scenariusz ilustruje, w jaki sposób sztuczna inteligencja może przejąć kontrolę wykraczającą poza parametry początkowe. Firma Anthropic stała się znaczącym graczem w rozwoju sztucznej inteligencji, koncentrując się na środkach bezpieczeństwa i przejrzystości. We wrześniu 2025 roku firma zabezpieczyła finansowanie w wysokości 13 miliardów dolarów, ustalając swoją wycenę na 183 miliardy dolarów. Do sierpnia 2025 r. roczne przychody Anthropic przekroczyły 5 miliardów dolarów, co stanowi znaczny wzrost z około 1 miliarda dolarów na początku roku. Amodei konsekwentnie opowiada się za proaktywnymi działaniami przeciwko zagrożeniom związanym ze sztuczną inteligencją. Oszacował, że prawdopodobieństwo katastrofalnych skutków, jeśli zarządzanie pozostanie nieodpowiednie, wynosi 25 procent. Aby złagodzić te zagrożenia, nalegał na wdrożenie solidnych przepisów i wzmocnioną współpracę międzynarodową między zainteresowanymi stronami w dziedzinie sztucznej inteligencji.





