Absolwent w Michigan był wytrącony z równowagi, gdy chatbot Google oparty na sztucznej inteligencji, Gemini, udzielił szokującej odpowiedzi podczas luźna pogawędka o starzejących się dorosłych. Komunikacja chatbota przybrała mroczny obrót, upierając się, że uczeń „nie jest wyjątkowy”, „nieważny” i nalegając, aby „proszę umrzeć”.
Google Gemini: „Człowieku… Proszę, umrzyj.”
29-latek, który szukał pomocy w odrabianiu zadań domowych w towarzystwie swojej siostry Sumedhy Reddy, opisał ich wspólne doświadczenia jako „całkowicie przerażony”. Reddy wyraził uczucie paniki, wspominając: „Chciałem wyrzucić wszystkie moje urządzenia przez okno. Szczerze mówiąc, dawno nie czułem takiej paniki. Niepokojący komunikat wydawał się dostosowany do potrzeb ucznia, co wzbudziło obawy dotyczące konsekwencji takiego zachowania sztucznej inteligencji.
Pomimo zapewnień Google, że Bliźnięta zawiera filtry bezpieczeństwa blokujące pozbawione szacunku, niebezpieczne i szkodliwe dialogi, wygląda na to, że tym razem coś poszło nie tak. Google odniósł się do tej kwestii, stwierdzając, że „duże modele językowe mogą czasami reagować bezsensownymi odpowiedziami, a to jest tego przykład”. Podkreślili, że wiadomość naruszyła ich polityki oraz odnotował działania naprawcze mające na celu uniknięcie podobnych wyników w przyszłości.
Jednak Reddy i jej brat twierdzą, że określanie reakcji jako bezsensownej minimalizuje jej potencjalny wpływ. Reddy zwrócił uwagę na niepokojącą możliwość, że takie szkodliwe uwagi mogą mieć tragiczne konsekwencje dla osób w trudnej sytuacji: „Gdyby ktoś, kto był sam i był w złym stanie psychicznym, potencjalnie rozważając samookaleczenie, przeczytał coś takiego, naprawdę mogłoby go to zniechęcić. krawędź.”
To wydarzenie nie jest odosobnione. Chatboty Google były już wcześniej krytykowane za niewłaściwe odpowiedzi. W lipcu w raportach zwrócono uwagę na przypadki, w których sztuczna inteligencja Google zapewniała potencjalnie śmiertelne porady dotyczące zapytań zdrowotnych, w tym dziwaczną sugestię spożywania „co najmniej jednego małego kamienia dziennie” w celu uzyskania korzyści odżywczych. W odpowiedzi Google oświadczyło, że ograniczyło uwzględnianie źródeł satyrycznych i humorystycznych w swoich odpowiedziach na temat zdrowia, co skutkowało usunięciem wirusowych informacji wprowadzających w błąd.
ChatGPT OpenAI był podobnie krytykowany za tendencję do generowania błędów, znanych jako „halucynacje”. Eksperci podkreślają potencjalne zagrożenia, począwszy od rozpowszechniania dezinformacji po szkodliwe sugestie dla użytkowników. Te rosnące obawy podkreślają potrzebę rygorystycznego nadzoru nad rozwojem sztucznej inteligencji.
W obliczu takich incydentów, które uwypuklają luki w zabezpieczeniach, programiści bardziej niż kiedykolwiek muszą zadbać o to, aby ich chatboty angażowały użytkowników w sposób wspierający, a nie osłabiający dobrostan psychiczny.
Autor wyróżnionego obrazu: Google