Daliśmy AI „ręce”, ale zapomnieliśmy o hamulcach. Deloitte ostrzega: wdrażacie agentów za szybko
Jeszcze nie opadł kurz po zachwytach nad tym, że sztuczna inteligencja zaczyna „klikać” za nas w systemach, a eksperci od bezpieczeństwa już biją na alarm.
Najnowszy raport Deloitte pokazuje niebezpieczny trend: firmy rzucają się na tzw. Agentic AI (agentów autonomicznych) szybciej, niż są w stanie je kontrolować. Efekt? Za dwa lata 74% firm będzie miało armię cyfrowych pracowników, ale tylko garstka będzie wiedziała, co oni tak naprawdę robią.
Prędkość zabija (biznes)
Liczby z raportu są brutalne. Obecnie 23% firm używa agentów AI, ale za dwa lata ma to być już 74%. Problem w tym, że tylko 21% organizacji wdrożyło jakiekolwiek sensowne procedury nadzoru. Mamy więc klasyczną sytuację „najpierw strzelaj, potem pytaj”.
Firmy przenoszą projekty z fazy pilotażowej do produkcji w ekspresowym tempie, zapominając, że tradycyjne bezpieczniki w IT były projektowane dla ludzi, a nie dla autonomicznych botów, które potrafią wykonać tysiąc operacji na sekundę.
Kiedy „stażysta” dostaje uprawnienia admina
Ali Sarrafi, CEO firmy Kovant cytowany w raporcie, zwraca uwagę na kluczowy problem: kontekst. „Kiedy agent dostanie zbyt szeroki kontekst lub zakres działań naraz, staje się podatny na halucynacje i nieprzewidywalne zachowanie”. W świecie czatbotów halucynacja oznaczała, że AI zmyśliła np. fakt historyczny. W świecie agentów, którzy mają dostęp do API bankowego, CRM-a czy systemów logistycznych, halucynacja może oznaczać „kaskadowe błędy” – serię złych decyzji, których nikt nie zauważy, dopóki nie będzie za późno.
Ubezpieczyciel powie „nie”
To bardzo ważny wątek, rzadko poruszany w mediach. Deloitte zauważa, że bez transparentnych logów (rejestrów zdarzeń) firmy stają się nieubezpieczalne.
Ubezpieczyciele boją się „czarnych skrzynek”. Jeśli agent AI narobi szkód, a firma nie będzie w stanie pokazać „krok po kroku”, dlaczego podjął taką decyzję (bo system był nieprzejrzysty), nikt nie wypłaci odszkodowania. Dlatego kluczem staje się „governed autonomy” – agent musi być jak pracownik:
- Ma jasne granice.
- W sytuacjach wysokiego ryzyka musi pytać człowieka o zgodę.
- Każdy jego ruch jest logowany.
Schemat bezpieczeństwa według Deloitte
Raport sugeruje, by traktować AI jak nowego, zdolnego, ale nieopierzonego pracownika. Wdrażanie powinno odbywać się etapami:
- Poziom 1: Agent tylko patrzy i sugeruje rozwiązania (człowiek klika).
- Poziom 2: Agent wykonuje akcje, ale każda wymaga zatwierdzenia.
- Poziom 3: Pełna autonomia, ale tylko w wąskich obszarach o niskim ryzyku.
Wniosek jest prosty: w wyścigu o Agentic AI wygrają nie ci, którzy wdrożą technologię najszybciej, ale ci, którzy będą w stanie udowodnić (klientom i ubezpieczycielom), że panują nad tym, co ich cyfrowa załoga robi w systemach po godzinach.






