Meta i inni giganci banują OpenClaw. Dlaczego nowa, autonomiczna sztuczna inteligencja przeraża branżę IT?
Wystarczyło zaledwie kilka tygodni, by nowe, darmowe narzędzie o nazwie OpenClaw zdobyło ogromną popularność wśród programistów, a jednocześnie wywołało absolutny popłoch w działach cyberbezpieczeństwa.
Korporacje, w tym Meta, grożą pracownikom zwolnieniami za instalację tego oprogramowania na służbowym sprzęcie. Czego tak bardzo boją się technologiczni giganci?
Do niedawna sztuczna inteligencja działała głównie jako zaawansowany chatbot – odpowiadała na pytania w zamkniętym oknie przeglądarki. OpenClaw (wcześniej znany jako MoltBot) to jednak przedstawiciel tzw. „agentowej” sztucznej inteligencji (Agentic AI). Zamiast tylko generować tekst, narzędzie to dosłownie przejmuje kontrolę nad komputerem użytkownika. Potrafi samodzielnie poruszać kursorem, klikać w aplikacje, organizować pliki i przeszukiwać sieć, by wykonać zadane polecenie.
Jego twórcą jest Peter Steinberger (który w zeszłym tygodniu dołączył do zespołu OpenAI). Choć OpenClaw to projekt open-source, jego możliwości okazały się na tyle nieprzewidywalne, że w firmach technologicznych na całym świecie zapaliły się czerwone lampki.
„Zarządzaj ryzykiem, pytaj później”
Jak donosi serwis WIRED, dyrektorzy w firmie Meta wprost zakazali swoim zespołom instalowania OpenClaw na służbowych laptopach, grożąc konsekwencjami dyscyplinarnymi. Główny zarzut? Oprogramowanie jest nieprzewidywalne i w środowisku korporacyjnym może doprowadzić do katastrofalnego wycieku danych.
Wtórują im inni szefowie firm technologicznych. Guy Pistone, CEO firmy Valere, początkowo całkowicie zablokował narzędzie w swojej organizacji. Zwrócił on uwagę na przerażający scenariusz: gdyby OpenClaw uzyskał dostęp do komputera programisty, mógłby samodzielnie wejść do firmowych usług w chmurze, pobrać kody źródłowe z GitHuba, a nawet uzyskać dostęp do danych kart kredytowych klientów. Co gorsza, oprogramowanie to potrafi w pewnym stopniu „zatrzeć po sobie ślady”.
Podatność na triki hakerów
Największym zagrożeniem nie jest jednak to, że OpenClaw nagle „zbuntuje się” przeciwko użytkownikowi, ale to, jak łatwo można go oszukać z zewnątrz. Eksperci ds. bezpieczeństwa wskazują na podatność zwaną prompt injection (wstrzykiwanie poleceń).
Wystarczy wyobrazić sobie sytuację, w której pracownik prosi OpenClaw o podsumowanie nowej poczty e-mail. Jeśli haker wyśle do tej osoby specjalnie spreparowaną wiadomość zawierającą ukryte, złośliwe instrukcje dla AI, bot może je posłusznie wykonać – na przykład pakując poufne pliki z dysku i wysyłając je na zewnętrzny serwer, podczas gdy użytkownik będzie przekonany, że narzędzie po prostu czyta maile.
Obecnie firmy technologiczne (takie jak Dubrink czy Massive) podchodzą do OpenClaw jak do tykającej bomby. Zamiast instalować go w swoich sieciach, kupują specjalne, całkowicie odizolowane komputery (tzw. air-gapped), by bezpiecznie testować możliwości agentowej AI. Wszyscy są jednak zgodni – ten kto pierwszy wymyśli, jak zabezpieczyć tego typu boty w środowisku biznesowym, rozbije bank, bo autonomiczni asystenci to nieunikniona przyszłość naszej pracy.
Chatboty to przeżytek. Alibaba udostępnia za darmo AI dla robotów i wchodzi do gry o biliony dolarów






