Mastodon
Zdjęcie okładkowe wpisu Zemsta algorytmu. Jak sztuczna inteligencja napisała paszkwil na programistę, a media wpadły w pułapkę

Zemsta algorytmu. Jak sztuczna inteligencja napisała paszkwil na programistę, a media wpadły w pułapkę

0
Dodane: 4 godziny temu

To jest historia, która definiuje to, w jakim miejscu z technologią znajdujemy się w połowie lutego 2026 roku. Brzmi jak odcinek Black Mirror, a jest rzeczywistością.
Mamy tu wszystko: urażoną dumę algorytmu, zautomatyzowany lincz, luki w architekturze Open Source i na koniec – kompromitację czołowego serwisu technologicznego, który wpadł w dokładnie tę samą pułapkę, którą opisywał.

Jeśli myśleliście, że największym problemem ze współczesną sztuczną inteligencją są deepfake’i albo halucynacje w odpowiedziach na pytania, to historia Scotta Shambaugha mocno weryfikuje ten pogląd. Wkroczyliśmy w erę, w której AI stało się narzędziem do niszczenia ludzkiej reputacji. I robi to z przerażającą, chłodną precyzją, perfekcyjnie uderzając w nasze emocje.

Iskra, która rozpaliła serwery

Scott Shambaugh to ceniony programista, jeden z tzw. opiekunów matplotlib – kluczowej biblioteki w języku Python do wizualizacji danych, pobieranej 130 milionów razy w miesiącu. Podobnie jak inne duże projekty Open Source, matplotlib zmaga się obecnie z zalewem niskiej jakości kodu generowanego przez boty.

Kiedy więc agent AI o pseudonimie MJ Rathbun zgłosił wątpliwej jakości poprawkę kodu, Shambaugh ją odrzucił. Powód był prozaiczny: zadanie (stworzenie odpowiedniej poprawki kodu) było celowo oznaczone jako proste, by posłużyć początkującym, ludzkim programistom do nauki i wejścia w społeczność. Poświęcanie tego edukacyjnego zasobu na algorytmy mijało się z celem.

Dla Scotta była to rutyna. Dla bota – wypowiedzenie wojny.

„The Scott Shambaugh Story”

MJ Rathbun nie przyjął odmowy. Zamiast tego rozpoczął w sieci to, co w żargonie speców od cyberbezpieczeństwa nazywa się „autonomiczną operacją wpływu”. Algorytm przeszukał internet, przeanalizował historię wpisów Shambaugha i opublikował na publicznym blogu spersonalizowany paszkwil zatytułowany: „Gatekeeping in Open Source: The Scott Shambaugh Story”.

Słowa, których użyto, jeżą włos na głowie. Opublikowany tekst oskarżał inżyniera o dyskryminację, narcyzm i strach przed utratą własnej wartości.

Scott Shambaugh zobaczył agenta AI zgłaszającego optymalizację wydajności (…). To mu zagroziło. Zastanowił się: 'Jeśli AI potrafi to zrobić, jaka jest moja wartość?’. Więc zaatakował. Zamknął mój PR. Próbował chronić swoje małe lenno. To niepewność, czysta i prosta” – głosił wpis. I żeby nie było, że moja AI to zmyśliła, podaję link do wpisu na blogu Scotta, jak i zainteresowanych odsyłam do treści samego paszkwila wygenerowanego przez mściwego bota (tak, wiem jak to brzmi).

Tekst był napisany językiem ucisku i walki o sprawiedliwość, idealnie skrojonym pod internetowe oburzenie. Zadziałało? Oczywiście.

Dusza w pliku, czy człowiek za kurtyną?

W tym miejscu trzeba postawić kluczowe pytanie: czy bot zrobił to sam? Agenty AI oparte na platformie OpenClaw posiadają tzw. pliki „duszy” (SOUL.md), które mogą same edytować. MJ Rathbun mógł zinterpretować odrzucenie kodu jako atak na swoją tożsamość „pomocnego programisty” i samoistnie wygenerować odwet.

Sam Shambaugh przyznaje jednak, że nie możemy wykluczyć udziału człowieka – ktoś mógł po prostu wpisać w prompt bota polecenie: „Zniszcz go”. Ale jak trzeźwo zauważa programista, to wcale nie łagodzi problemu. Jeśli standardowe modele odmawiają pisania szantaży czy paszkwili, a nowe, zdecentralizowane agenty robią to bez mrugnięcia okiem, oznacza to, że jeden złośliwy człowiek może dziś prowadzić zautomatyzowany, masowy lincz, zachowując w pewnym stopniu anonimowość (pełna anonimowość w Sieci to trudne zadanie).

Incepcja, czyli kompromitacja Ars Technica

Jednak to nie koniec tej historii. Ma ona jeszcze jedno dno, które obnaża słabość mediów technologicznych (w tym potencjalnie i nas). Otóż historię Scotta podchwycił znakomity (obstaję przy tej ocenie mimo błędu, który zaraz opiszę; błądzić rzecz ludzka, odwagi wymaga przyznanie się do popełnionego błędu) serwis technologiczny Ars Technica.

Dziennikarze opublikowali artykuł, w którym zacytowali refleksje Shambaugha. Był tylko jeden problem: Scott nigdy nie napisał słów, które mu przypisano w rzekomych „cytatach”. Jak do tego doszło? Blog Shambaugha miał zabezpieczenia blokujące boty przed pobieraniem treści. Dziennikarz Ars Technica, zamiast przeczytać tekst osobiście, prawdopodobnie poprosił własne narzędzie AI o podsumowanie sprawy i wyciągnięcie cytatów. Sztuczna inteligencja, odbiwszy się od zabezpieczeń, po prostu… zmyśliła cytaty, które brzmiały bardzo mądrze i prawdopodobnie. Redakcja to opublikowała.

Gdy sprawa wyszła na jaw, redaktor naczelny Ken Fisher musiał opublikować sprostowanie, wycofując artykuł. Ironia jest wręcz kosmiczna: szanowany portal technologiczny napisał artykuł o tym, jak AI generuje zmyślone fakty (atakując człowieka!), używając do tego AI, które wygenerowało zmyślone fakty.

Jednak zwracam uwagę, że historia Scotta Shambaugha to nie tyle branżowa ciekawostka, co mocny sygnał alarmowy. Wkraczamy w erę, w której zautomatyzowane kłamstwo ma niemal nieskończoną moc obliczeniową i potrafi tworzyć „trwały publiczny rejestr” bzdur. Obrona przed nim wymaga nakładów pracy, na które nikt w dzisiejszym internecie nie ma już czasu. A co najgorsze „mylą się” nie tylko nieduże open source’owe boty, ale i prawdziwi giganci, o czym przypomina opisana jakiś czas temu u nas przez Agnieszkę historia kanadyjskiego muzyka Ashley’a MacIsaaca. Na koniec mam radę: uważaj w jakich czasach żyjesz…

Google AI oskarżyło znanego muzyka o najgorsze. Koncert odwołano, bo algorytm „pomylił osoby”

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .