Mastodon
Zdjęcie okładkowe wpisu AI napisało exploita na zero-day. Google go złapało, bo… był zbyt „grzeczny”

AI napisało exploita na zero-day. Google go złapało, bo… był zbyt „grzeczny”

0
Dodane: 3 godziny temu

Google Threat Intelligence Group (GITG) wspólnie z ekipą Mandiant poinformowało o wykryciu pierwszego w historii exploita typu zero-day, który został stworzony przy wyraźnym wsparciu modelu językowego (LLM).

Hakerzy użyli sztucznej inteligencji, by uderzyć w popularne narzędzie administracyjne typu open-source i ominąć uwierzytelnianie dwuskładnikowe (2FA).

Zbyt pilny uczeń zdradza hakera

To, co w tej sprawie jest najbardziej fascynujące, to fakt, że sztuczna inteligencja „wsypała” swoich twórców przez… nadmierną staranność. Eksperci Google’a zidentyfikowali udział AI w tworzeniu złośliwego kodu po kilku specyficznych cechach, które nie występują w „tradycyjnym” malwarze (w sensie: tym tworzonym przez ludzi). Co zdradziło autorstwo AI?

  • Podręcznikowy styl: skrypt w Pythonie był napisany niezwykle czysto, niemal w sposób akademicki.
  • Nadgorliwe komentarze: kod zawierał mnóstwo edukacyjnych opisów modułów, co jest typowe dla odpowiedzi generowanych przez chatboty, a zbędne dla hakerów.
  • „Halucynacje” w kodzie: AI dodało do skryptu zmyślone punktacje CVSS (system oceny groźności luki), których hakerzy nigdy by tam nie umieścili.
  • Estetyka ponad wszystko: skrypt zawierał rozbudowane menu pomocy i klasy kolorowania tekstu w konsoli (ANSI color), co sugeruje, że haker poprosił AI o „ładny i profesjonalny program”.

Chiny i Korea Północna na „promptach”

Raport Google’a rzuca też światło na to, jak państwowe grupy hakerskie „jailbreakują” modele AI, by służyły im do brudnej roboty.

Chińska grupa UNC2814 stosuje technikę „persony”: każą sztucznej inteligencji wcielić się w rolę „starszego audytora bezpieczeństwa”, co pozwala ominąć filtry blokujące generowanie złośliwego kodu. Z kolei koreańska grupa APT45 zalewa modele tysiącami powtarzalnych zapytań o analizę znanych podatności (CVE), traktując AI jako darmowego stażystę do żmudnej roboty przy wyszukiwaniu luk w zabezpieczeniach.

Co to oznacza dla nas?

Nie doczekaliśmy się jeszcze „Terminatora”, który sam wymyśla broń masowej zagłady, ale jesteśmy świadkami narodzin ery „Script Kiddie 2.0”. AI po prostu bardzo obniża próg wejścia w zaawansowaną cyberprzestępczość. Zamiast lat nauki pisania exploitów, wystarczy sprytny zestaw promptów i odrobina wiedzy, by „uzbroić” nową lukę w systemie.

Dobra wiadomość? Na razie AI pisze kod tak charakterystyczny, że systemy obronne (również oparte na AI) potrafią go wyłapać właśnie przez tę jego „podręcznikowość”. Pytanie brzmi: ile czasu hakerzy będą potrzebowali, by kazać chatbotom pisać kod w sposób „brudny i ludzki”?

Google Finanse z AI trafiają do Polski. Nowa wersja ma pomóc inwestorom w analizie rynku

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .