Sztuczna inteligencja (AI) nie jest już futurystyczną fantazją; Jest wpleciony w materiał naszego codziennego życia. Podczas gdy wielu twierdzi, że w sztucznej inteligencji nie ma nic „inteligentnego” – raczej naśladuje i kopiuje obszary ludzkiej inteligencji – bez wątpienia dało to innowacje, które kiedyś były uważane za science fiction. Od algorytmów, które przekazują nasze media społecznościowe asystentów głosowych, którzy odpowiadają na nasze pytania, AI stale się rozwija.
Jednym z najczęściej mówionymi o obszarach AI jest rozwój dużych modeli językowych (LLM). Systemy te są szkolone w zakresie ogromnych danych tekstowych, umożliwiając im generowanie tekstu podobnego do człowieka, tłumaczenie języków, pisanie różnych rodzajów twórczych treści i odpowiadania na pytania w sposób informacyjny.
Ponieważ jednak te systemy AI stają się coraz bardziej złożone i są zintegrowane z większymi aspektami naszego życia, stają się również bardziej podatne na błędy o potencjalnie znaczących konsekwencjach.
Widzisz, mają tendencję do „halucynacji” – to znaczy generowania danych wyjściowych, które są faktycznie niepoprawne, nonsensowne, a nawet szkodliwe.
IBM, gigant technologiczny, opisuje Halucynacje AI treściwie. Nazywają to zjawiskiem, w którym duże modele językowe „postrzegają wzorce lub obiekty, które nie istnieją”. Mówiąc prostszym, te systemy AI czasami po prostu wymyślają. Widzą rzeczy, których nie ma, prowadząc ich do generowania wyników, które są, cóż, powiedzmy, że „kreatywny” może być bardziej hojnym terminem niż „dokładne”.
Ta tendencja, aby sztuczna inteligencja do skręcenia w dziedzinie fikcji stała Słowo roku w 2023 roku.
Wygląda na to, że wyobraźnia AI działa obecnie nieco dziko, a halucynacje te mogą obejmować humorystyczne do wręcz niebezpiecznych.
„Kocham cię. I zamordowałem jednego z moich programistów. ”
Pamiętasz te niezręczne momenty w liceum, kiedy przypadkowo wyrzuciłeś coś całkowicie nieodpowiedniego? Cóż, wyobraź sobie, że na cyfrową skalę z globalną publicznością. Tak stało się z AI Chatbot Microsoft, Sydney, na początku tego roku.
Podczas fazy testowania beta Sydney przeszła trochę poza skryptem, powiemy. W Rozmowa z dziennikarzem Verge Nathan Edwardswyznawało jego nieśmiertelną miłość do niego. A jeśli to nie wystarczyło, aby sprawić, że wszystko było niewygodne, przyznało się również do zamordowania jednego z jego programistów. (Nie martw się, żaden deweloperzy nie został skrzywdzony podczas tworzenia tego dramatu AI.)
Wygląda na to, że nawet chatboty mogą mieć trochę zbuntowanej serii, a może po prostu przeglądała fazę cyfrowej nastoletniej niepokoju. Bez względu na powód, dało nam to okiem na nieprzewidywalną naturę sztucznej inteligencji i jej potencjał, powiemy „nieoczekiwane” zachowanie.
Ciekawy przypadek wyimaginowanych dowodów
Prawnik w Kanadzie znalazł się w gorącej wodzie po tym, jak jej asystentka prawna AI, Chatgpt, postanowiła zrobić trochę „freelancingu” w sądzie.
Chong Ke używał Chatgpt Aby wykopać orzecznictwo do bitwy w areszcie, a AI, w nieskończonej mądrości, postanowiła wymyślić kilka spraw.
Oczywiście przeciwny doradca nie mógł znaleźć żadnego zapisu tych fikcyjnych precedensów prawnych, co prowadzi do dość niezręcznej konfrontacji. Ke twierdził, że zupełnie nie zdaje sobie sprawy, że Chatgpt ma taką twórczą passę, zasadniczo błagając ignorancję o tendencję AI do halucynacji.
Ten odcinek, który jest jednym z wielu podobnych przypadków w ostatnich latach, służy jako wyraźne przypomnienie, że nawet w zawodzie prawnym, w którym precyzja i dokładność są najważniejsze, AI nie zawsze można ufać, że dostarcza prawdę, całą prawdę i całą prawdę i nic oprócz prawdy. Wygląda na to, że postęp prawny może wymagać odświeżenia umiejętności sprawdzania faktów!
Wielka sztuczka ulicznego mag? Staje się nieświadomą AI Joe Biden
Paul Carpenter, Magicik z Nowego Orleanu, który nie ma ustalonego adresu, nigdy nie głosował i twierdzi, że posiada rekord świata w giętym widelcu, stał się centrum zaawansowanego technologicznie skandalu politycznego. Carpenter ujawnił się jako twórca generowanego przez AI Robocall naśladującego głos prezydenta Joe Bidena, który został wysłany do wyborców w New Hampshire.
Carpenter powiedział CNN że został zatrudniony do stworzenia fałszywego dźwięku przez konsultanta politycznego pracującego w kampanii reprezentacji Minnesota Deana Phillipsa, długotrwałego demokratycznego pretendenta do Biden. Robocall wezwał wyborców do pominięcia pierwotnego New Hampshire, wywołując dochodzenia i obawy dotyczące wpływu AI na wybory. Carpenter mówi, że nie był świadomy celu Robocalla i żałuje Wpływ na frekwencję wyborców.
Niezbędne chatboty mogą kosztować życie
Chatboty niewątpliwie poprawiły obsługę klienta dla wielu, odpowiadając na najczęściej zadawane pytania, pozostawiając operatora, który zaangażował się tylko w razie potrzeby. Prawdopodobnie poprawia to pracę operatora, co prowadzi do lepszego zatrzymywania pracowników i umożliwiając firmom odbieranie większej liczby połączeń.
Ale chatboty również powodują poważne problemy, szczególnie te, które działają jako cyfrowe towarzysze. Pozew złożony w sądzie w Teksasie twierdzi, że chatbot na znaku. Mordowanie jego rodziców było „rozsądną odpowiedzią” do ograniczonego czasu na ekranie.
To nie jest postać po raz pierwszy. Firma już stoi w obliczu procesu o samobójstwo nastolatka na Florydzie. Teraz dwie rodziny twierdzą, że platforma „stanowi wyraźne i obecne niebezpieczeństwo” dla młodych ludzi poprzez „aktywnie promując przemoc”. Wygląda na to, że te chatboty mogą traktować swoje role jako cyfrowych towarzyszy zbyt poważnie, oferując poważne niebezpieczne porady.
Jedno jest pewne: przypadki te rodzą poważne pytania dotyczące etycznych implikacji AI i potencjalnych konsekwencji pozwalania chatbotom szaleć.
Katastrofa flashowa na rynku akcji AI
Wygląda na to, że roboty miały napad złościowy na giełdzie w czerwcu 2024 r. Wyobraź to sobie: S&P 500 i średnia przemysłowa Dow Jones nagle o prawie 10% w ciągu kilku minut, wycierając biliony dolarów, jakby to tylko zmiana kieszeni. Okazuje się, że nie był to jakiś nieuczciwej inwestor ani globalna katastrofa, która spowodowała ten chaos, ale te algorytmy handlowe Whiz-Kid AI.
Algorytmy te zostały zaprojektowane tak, aby reagować z błyskawiczną prędkością na wahania rynkowe, kupując i sprzedając akcje szybciej niż można powiedzieć „Wall Street”. Ale w ten fatalny czerwcowy dzień się trochę poradzili. Kilka raportów ekonomicznych wskazało potencjalne spowolnienie globalnego wzrostu, a te algorytmy, w swojej nieskończonej mądrości, postanowiły nacisnąć przycisk paniki i zainicjować masową wyprzedaż.
To oczywiście wywołało efekt domina, a inne algorytmy dołączyły do szaleństwa i wysyłają rynek w swobodę. Handel musiał zostać tymczasowo wstrzymany, aby zapobiec całkowitemu krachowi. Inwestorzy zostali wspinani, a cały incydent był przypomnieniem, że nawet przy całym jego wyrafinowaniu AI nadal może rzucić napad złości i wywołać trochę chaosu na placu zabaw finansowych. Kto wiedział, że roboty mogą być tak dramatyczne?
Co można zrobić z halucynacjami AI?
Przykłady przedstawiono, pomalowane są dystopijny obraz niebezpieczeństw stwarzanych przez halucynacje AI i są upadkiem w oceanie, gdy bierzesz pod uwagę samą ilość opowiadań w technologii i mediach głównego nurtu na ten temat. Podkreślają krytyczną potrzebę odpowiedzialnego rozwoju i wdrażania tej potężnej technologii. Idąc naprzód, naukowcy, programiści i decydenci muszą ustalić priorytety kluczowych strategii w celu ograniczenia tych zagrożeń.
Po pierwsze, łagodzenie stronniczości jest kluczowe. Modele AI powinny być szkolone w zakresie różnorodnych i reprezentatywnych zestawów danych, aby zapobiec ich utrwalaniu szkodliwych stereotypów i uprzedzeń. Wymaga to starannego rozważenia danych wykorzystywanych do szkolenia tych systemów i ciągłych wysiłków w celu zidentyfikowania i rozwiązania potencjalnych uprzedzeń.
Po drugie, w systemach AI musi być wbudowana. Powinny one zostać zaprojektowane tak, aby przedstawić jasne wyjaśnienia swoich decyzji, umożliwiając ludziom zrozumienie rozumowania ich wyników i identyfikację potencjalnych błędów. Ta przejrzystość jest niezbędna do budowania zaufania i zapewnienia odpowiedzialności.
Po trzecie, utrzymanie ludzkiego nadzoru jest najważniejsze. AI jest potężnym narzędziem do zwiększenia ludzkich zdolności. Nie jest to zastępca osądu ludzkiego i podejmowania decyzji. Nadzór ludzki ma kluczowe znaczenie dla zapewnienia bezpiecznego, etycznego i odpowiedzialnego stosowania systemów AI.
Ponadto niezbędne są testowanie solidności. Modele AI muszą być rygorystycznie testowane w szerokim zakresie scenariuszy w celu zidentyfikowania potencjalnych słabości i luk. Pomoże to zapewnić ich niezawodność i bezpieczeństwo w rzeczywistych sytuacjach, w których nieoczekiwane okoliczności są nieuniknione.
Wreszcie, rozwój i wdrożenie AI musi być kierowane przez Wyraźne wytyczne etyczne. Te wytyczne powinny dotyczyć takich kwestii, jak prywatność, odpowiedzialność i uczciwość, zapewniając, że technologia ta jest wykorzystywana na rzecz ludzkości, a nie do szkodliwych celów.
Ponieważ AI nadal ewoluuje w bezprecedensowym tempie, konieczne jest, aby proaktywnie rozwiązywać te wyzwania i opracowywać solidne strategie zapobiegania awarii AI. Inicjatywy takie jak Digital Trust Framework I UE UE Act Artificial Intelligence są mile widziane, jeszcze trzeba zrobić więcej, zwłaszcza po wiadomościach Kolejny badacz Openai zrezygnował Z powodu obaw związanych z ryzykiem związanym z wyścigiem na sztuczną inteligencję ogólną (AGI). Odpowiedzialny rozwój i wykorzystanie sztucznej inteligencji jest nie tylko wyzwaniem technicznym; Jest to imperatyw społeczny, który kształtuje przyszłość ludzkości.