Mastodon
Zdjęcie okładkowe wpisu Daliśmy AI „ręce”, ale zapomnieliśmy o hamulcach. Deloitte ostrzega: wdrażacie agentów za szybko

Daliśmy AI „ręce”, ale zapomnieliśmy o hamulcach. Deloitte ostrzega: wdrażacie agentów za szybko

0
Dodane: 1 dzień temu

Jeszcze nie opadł kurz po zachwytach nad tym, że sztuczna inteligencja zaczyna „klikać” za nas w systemach, a eksperci od bezpieczeństwa już biją na alarm.

Najnowszy raport Deloitte pokazuje niebezpieczny trend: firmy rzucają się na tzw. Agentic AI (agentów autonomicznych) szybciej, niż są w stanie je kontrolować. Efekt? Za dwa lata 74% firm będzie miało armię cyfrowych pracowników, ale tylko garstka będzie wiedziała, co oni tak naprawdę robią.

Gemini przestaje „rzucać okiem”. Nowy tryb Agentic Vision sprawia, że AI aktywnie bada zdjęcia, używając do tego… Pythona

Prędkość zabija (biznes)

Liczby z raportu są brutalne. Obecnie 23% firm używa agentów AI, ale za dwa lata ma to być już 74%. Problem w tym, że tylko 21% organizacji wdrożyło jakiekolwiek sensowne procedury nadzoru. Mamy więc klasyczną sytuację „najpierw strzelaj, potem pytaj”.

Firmy przenoszą projekty z fazy pilotażowej do produkcji w ekspresowym tempie, zapominając, że tradycyjne bezpieczniki w IT były projektowane dla ludzi, a nie dla autonomicznych botów, które potrafią wykonać tysiąc operacji na sekundę.

Kiedy „stażysta” dostaje uprawnienia admina

Ali Sarrafi, CEO firmy Kovant cytowany w raporcie, zwraca uwagę na kluczowy problem: kontekst. „Kiedy agent dostanie zbyt szeroki kontekst lub zakres działań naraz, staje się podatny na halucynacje i nieprzewidywalne zachowanie”. W świecie czatbotów halucynacja oznaczała, że AI zmyśliła np. fakt historyczny. W świecie agentów, którzy mają dostęp do API bankowego, CRM-a czy systemów logistycznych, halucynacja może oznaczać „kaskadowe błędy” – serię złych decyzji, których nikt nie zauważy, dopóki nie będzie za późno.

Ubezpieczyciel powie „nie”

To bardzo ważny wątek, rzadko poruszany w mediach. Deloitte zauważa, że bez transparentnych logów (rejestrów zdarzeń) firmy stają się nieubezpieczalne.

Ubezpieczyciele boją się „czarnych skrzynek”. Jeśli agent AI narobi szkód, a firma nie będzie w stanie pokazać „krok po kroku”, dlaczego podjął taką decyzję (bo system był nieprzejrzysty), nikt nie wypłaci odszkodowania. Dlatego kluczem staje się „governed autonomy” – agent musi być jak pracownik:

  • Ma jasne granice.
  • W sytuacjach wysokiego ryzyka musi pytać człowieka o zgodę.
  • Każdy jego ruch jest logowany.

Schemat bezpieczeństwa według Deloitte

Raport sugeruje, by traktować AI jak nowego, zdolnego, ale nieopierzonego pracownika. Wdrażanie powinno odbywać się etapami:

  • Poziom 1: Agent tylko patrzy i sugeruje rozwiązania (człowiek klika).
  • Poziom 2: Agent wykonuje akcje, ale każda wymaga zatwierdzenia.
  • Poziom 3: Pełna autonomia, ale tylko w wąskich obszarach o niskim ryzyku.

Wniosek jest prosty: w wyścigu o Agentic AI wygrają nie ci, którzy wdrożą technologię najszybciej, ale ci, którzy będą w stanie udowodnić (klientom i ubezpieczycielom), że panują nad tym, co ich cyfrowa załoga robi w systemach po godzinach.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .