Mastodon
Zdjęcie okładkowe wpisu Kubły zimnej wody od twórców Claude’a. Raport Anthropic obnaża prawdę o tym, jak (nie) radzimy sobie z AI

Kubły zimnej wody od twórców Claude’a. Raport Anthropic obnaża prawdę o tym, jak (nie) radzimy sobie z AI

0
Dodane: 2 godziny temu

Mieliśmy w 2026 roku leżeć na hamakach, podczas gdy AI pracuje za nas. Rzeczywistość? Jest nieco inna.

Anthropic, twórcy modelu Claude, opublikowali „Economic Index” – analizę opartą nie na ankietach, ale na twardych logach z miliona interakcji. Wnioski? AI to wciąż głównie narzędzie dla programistów, a pełna automatyzacja to mit, który drogo kosztuje firmy.

To nie ankieta, to „twarde” logi

Raport jest unikalny, bo nie pyta ludzi „jak używacie AI?”, tylko sprawdza „co faktycznie robiliście”. Anthropic przeanalizował milion rozmów użytkowników prywatnych oraz milion wywołań API przez firmy w listopadzie 2025 roku.

Kodowanie, kodowanie i… jeszcze raz kod

Pierwszy wniosek to cios dla wizji „AI do wszystkiego”. Użycie modeli językowych jest niesamowicie skoncentrowane. Zarówno w przypadku konsumentów (prawie 25%), jak i firm (prawie 30%), dominującym zastosowaniem jest pisanie i modyfikowanie kodu.

Poza programowaniem nie wyłoniły się żadne inne, statystycznie istotne zastosowania masowe. To sugeruje, że szerokie wdrażanie AI w firmach „na siłę” jest błędem. AI sprawdza się tam, gdzie jego skuteczność jest udowodniona (kod), a nie tam, gdzie chcieliby tego menedżerowie.

Współpraca wygrywa z automatyzacją

Raport pokazuje fascynujący rozdźwięk między użytkownikami domowymi a biznesem:

  • Konsumenci: rozmawiają z botem, poprawiają go, iterują. To model „współpracy” (augmentation).
  • Firmy: próbują wrzucić zadanie w API i oczekują gotowego wyniku. To model „automatyzacji”.

Jednak najciekawsze jest co innego. Okazuje się, że podejście konsumenckie jest… skuteczniejsze. Przy złożonych zadaniach, które wymagają dłuższego „czasu do namysłu”, jakość wyników AI drastycznie spada, jeśli nie ma człowieka, który koryguje kurs w trakcie. Pełna automatyzacja sprawdza się tylko przy zadaniach krótkich, prostych i rutynowych.

Podatek od nieufności

Ekonomiści przewidywali, że AI podniesie produktywność o 1,8% rocznie. Anthropic sugeruje rewizję tych prognoz do poziomu 1–1,2%. Dlaczego?

Bo AI myli się. Zysk z szybszego wykonania zadania jest częściowo „zjadany” przez czas, jaki człowiek musi poświęcić na weryfikację wyniku, poprawianie błędów i walidację. To tzw. „koszt obsługi” (overhead), o którym często zapomina się w entuzjastycznych prezentacjach.

Masz słaby prompt? Masz słaby wynik

Na koniec brutalna prawda o naszych umiejętnościach. Raport wykazał niemal idealną korelację między stopniem wyrafinowania promptu (polecenia) a sukcesem zadania.

Jeśli narzekasz, że Claude lub GPT „głupieje”, prawdopodobnie problem leży po stronie klawiatury. W 2026 roku wciąż umiejętność rozmowy z maszyną (Prompt Engineering) to nie „szarlataneria”, ale twarda kompetencja, która decyduje o tym, czy AI jest dla ciebie użyteczne, czy tylko irytujące.

Zainteresowanych odsyłam do pełnego raportu Anthropic.

AI nie jest magiczną różdżką, a lustrem. To, co w nim zobaczysz, zależy tylko od ciebie

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .