W miarę postępu technologii sztucznej inteligencji środowisko cyfrowe wciąż nas zadziwia…
Sztuczna inteligencja może teraz przechodzić testy identyfikacji obrazu reCAPTCHAv2
Można by rzec, że najbardziej oczywisty rozwój sytuacji, który dowodzi, dlaczego tak jest, nastąpił, gdy naukowcom z ETH Zurich w Szwajcarii udało się wytrenować model sztucznej inteligencji rozwiązać problem Google’a reCAPTCHAv2 testy identyfikacji obrazu. Te testy reCAPTCHA, znane wielu użytkownikom sieci, zazwyczaj prezentują obrazy sygnalizacji świetlnej, pojazdów i innych przedmiotów codziennego użytku w celu odsiania botów lub zautomatyzowanych systemów.
„Nasza praca bada skuteczność stosowania zaawansowanych metod uczenia maszynowego do rozwiązywania captcha z systemu reCAPTCHAv2 firmy Google. Oceniamy skuteczność zautomatyzowanych systemów w rozwiązywaniu captcha, wykorzystując zaawansowane modele YOLO do segmentacji i klasyfikacji obrazów. Naszym głównym wynikiem jest to, że możemy rozwiązać 100% captcha, podczas gdy poprzednie prace rozwiązały tylko 68-71%. Ponadto nasze ustalenia sugerują, że nie ma znaczącej różnicy w liczbie wyzwań, które ludzie i boty muszą rozwiązać, aby przejść captcha w reCAPTCHAv2. Oznacza to, że obecne technologie AI mogą wykorzystywać zaawansowane captcha oparte na obrazach. Przyjrzeliśmy się również pod maskę reCAPTCHAv2 i znaleźliśmy dowody na to, że reCAPTCHAv2 w dużej mierze opiera się na danych z plików cookie i historii przeglądarki podczas oceny, czy użytkownik jest człowiekiem, czy nie. Kod jest dostarczany wraz z tym dokumentem”, stwierdzili badacze.
Odpowiednio, sztuczna inteligencja została nazwana YOLO, co oznacza „Patrzysz tylko raz”. Została wytrenowana wyłącznie na obrazach używanych w wyzwaniach reCAPTCHA.
Wyniki okazały się spektakularne: model sztucznej inteligencji przeszedł testy ze stuprocentową skutecznością.
To ogromny krok naprzód w porównaniu z wcześniejszymi próbami AI, które mogły rozwiązać tylko około 68-71% tych wyzwań. Oznacza to, że ta sztuczna inteligencja może naśladować ludzkie zachowanie w takim stopniu, że konsekwentnie uchodzi za prawdziwą osobę w tych testach bezpieczeństwa.

To odkrycie ma większe konsekwencje dla bezpieczeństwa Internetu jako całości. CAPTCHA, skrót od „Completely Automated Public Turing test to tell Computers and Humans Apart” (Całkowicie zautomatyzowany publiczny test Turinga, który odróżnia komputery od ludzi), został opracowany przede wszystkim w celu zapobiegania botom, scraperom i innym niepożądanym aktorom. Z upływem czasu reCAPTCHA przeszła od wyzwań tekstowych bez zniekształceń do zadań rozpoznawania obrazów, a nawet „niewidocznych” kontroli śledzących zachowania użytkowników, takich jak ruchy myszy.
Cel zawsze był ten sam: odróżnić ludzi od maszyn.
Ale ta nowa zdolność AI podważa ten cel. Jeśli AI będzie w stanie doskonale rozwiązać reCAPTCHA, system bezpieczeństwa, na którym polega wiele stron internetowych, zostanie podważony. Implikacje tego wykraczają poza zwykłą podstawową warstwę uwierzytelniania użytkownika, aby zapobiec spamowi, automatycznemu scrapowaniu treści i różnym innym formom cyberataków.
Ponieważ AI nadal przechytrza systemy CAPTCHA, eksperci sugerują, że rozwiązaniem może być utrudnienie testów. Jednak stwarza to własny zestaw wyzwań. Trudniejsze CAPTCHA mogą zaostrzyć problemy z dostępnością, szczególnie dla osób z wadami wzroku, które już mają problemy z wizualną naturą testów.
Czy AI jest kreatywna?:Odpowiadanie na pytanie, na które nie ma odpowiedzi
Jednak przynajmniej wielkie firmy technologiczne na razie nie panikują. Na przykład Google poszło naprzód i odeszło od CAPTCHA opartych na obrazach w dużej mierze w zakresie swojej ochrony. Później, w 2018 r., wprowadziło reCAPTCHAv3, który działa bardziej niewidocznie, analizując zachowania użytkowników, takie jak ruch kursora. Prywatne tokeny dostępu zostały również opracowane przez Apple jako część iOS 16. To pomija potrzebę CAPTCHA, gdy ta oparta na urządzeniu metoda uwierzytelniania jest stosowana.
Podczas gdy CAPTCHA nadal stanowi przysłowiową przeszkodę dla istnienia wielu stron internetowych, rozwój AI pokazuje tylko, jak szybko maszyny dostosowują się do systemów bezpieczeństwa zaprojektowanych w celu ich powstrzymania. Wraz z pojawieniem się odcisków palców urządzeń, analizy behawioralnej i innych jako potencjalnych następców, sposoby oddzielania botów od ludzi stają się coraz bardziej wyrafinowane. Wraz ze wzrostem możliwości AI granica między aktywnością człowieka i maszyny w sieci staje się coraz bardziej niewyraźna, a internet jest zmuszony dostosować się do zautomatyzowanej rzeczywistości.
A w tej nowej erze cyfrowej wydaje się, że nawet roboty potrafią przekonać inne roboty, że nie są robotami…
Źródła obrazów: Kerem Gülen/Środek podróży