Mastodon
Zdjęcie okładkowe wpisu Facebook to cybernowotwór, który toczy nasze umysły. Czas na radykalną chemioterapię, a nie pudrowanie gangreny [felieton]

Facebook to cybernowotwór, który toczy nasze umysły. Czas na radykalną chemioterapię, a nie pudrowanie gangreny [felieton]

0
Dodane: 10 godzin temu

Mamy rok 2026. Świat płonie, a my wciąż pozwalamy, by algorytmy z Doliny Krzemowej dolewały benzyny do ognia. Nie jestem zwolennikiem cenzury. Jestem zwolennikiem przetrwania cywilizacji. A to, co serwuje nam dziś Meta, to egzystencjalne zagrożenie. I nie, nie przesadzam.

Zacznijmy od konkretu, który przelał czarę goryczy. Jestem dziennikarzem technologicznym, staram się zachować higienę cyfrową. Na Facebooku mam garstkę znajomych – tych prawdziwych, z krwi i kości. Nigdy niczego tam nie komentuję. Nie subskrybuję politycznych fanpage’y. Mimo to, algorytm uznał, że musi mi wcisnąć do gardła wpis, który jest kwintesencją manipulacji.

Oto co zobaczyłem (wpis – co znamienne – zniknął potem samoczynnie, jak wirus, który szukał nosiciela i go nie znalazł, więc poszedł dalej):

„ZEBRAŁEM WSZYSTKIE ZNANE ZABURZENIA PSYCHICZNE DONALDA TRUMPA… ZŁOŚLIWY NARCYZM… OTĘPIENIE… FRONTOTEMPORAL DEMENTIA… Nie czyta dokumentów… Nie słucha ludzi… Pomiędzy decyzją o ataku a jej braku stoi tylko jego otoczenie…”

Brzmi groźnie? Owszem. Jest merytoryczne? W żadnym razie. To pseudomedyczny bełkot. Zbiór teorii spiskowych, półprawd i diagnoz stawianych „na oko” przez ludzi, którzy nie widzieli pacjenta na oczy (łamiąc tym samym Zasadę Goldwatera – jeden z fundamentów etyki lekarskiej). To klasyczna „psychiatryzacja wroga” – metoda znana z ZSRR, służąca do odczłowieczania oponenta. Dla Sowietów każdy dysydent był psychicznie chory.

Ale nie o Trumpa tu chodzi. Chodzi o mechanizm.

Algorytm nie szuka prawdy. Szuka ofiary

Dlaczego ten wpis trafił do mnie? Do osoby, która unika politycznych wojenek? Bo algorytm Meta już od dawna nie jest „społecznościowy”. On jest predykcyjny. Nie reaguje na to, co robisz (bo ja nic nie robiłem). Reaguje na to, kim jesteś statystycznie. Wiek, wykształcenie, lokalizacja, model telefonu. System uznał, że jestem „podatnym gruntem” pod testowanie nowej narracji. Wrzucił mi toksynę, zmierzył czas reakcji (zatrzymanie scrolla), a gdy nie chwyciło – zabrał ją i zaniósł komuś innemu.

To nie jest „wolny rynek idei”. To są testy A/B na żywym organizmie społecznym. Testy, które promują treści skrajne, wywołujące lęk i gniew, bo to one najlepiej sprzedają reklamy. To system masowego testowania reakcji poznawczych. Bez zgody, bez etyki, bez odpowiedzialności.

Szybciej niż bomby – i bez wypowiedzenia wojny

Problem polega na tym, że państwa reagują na zagrożenia militarne, bo są widoczne, mają sprawcę i da się je nazwać agresją. Zagrożenia informacyjne są inne: są rozproszone, bez jasnego autora („to tylko błąd algorytmu”), bez widocznej intencji („to tylko optymalizacja zaangażowania”).

A jednak efekt końcowy jest realny: rozpad zaufania społecznego, erozja demokracji, normalizacja przemocy symbolicznej, podatność na autorytaryzm. To dokładnie ten moment w historii, gdy nowy rodzaj broni wyprzedził język, którym potrafimy go opisać. Jak gaz bojowy w I wojnie światowej. Najpierw był „wynalazek”, potem szok, a dopiero na końcu konwencje genewskie.

My jesteśmy w fazie szoku.

Kłócimy się o to, co wisi na ścianie w klasie, a nie zauważamy, że telefon w kieszeni dziecka jest dziś silniejszym narzędziem indoktrynacji niż jakikolwiek polityk, nauczyciel, katecheta czy podręcznik. Deepfake’i i algorytmy wychowują całe pokolenie – bez programu, bez etyki i bez dorosłych przy stole.

„Ale przecież UE nad tym pracuje…”

Słyszę to ciągle. DSA, DMA, AI Act. Bruksela pisze ustawy, powołuje komisje, nakłada kary, które dla Mety są błędem zaokrąglenia w budżecie. To leczenie nowotworu witaminą C. Gdy pacjent ma złośliwego guza mózgu, nie mówisz mu: „proszę głęboko oddychać, legislacja jest w toku”. Wzywasz neurochirurga, a anestezjolog już czeka…

Mówicie, że „nie da się” wyłączyć Facebooka? Że to zbyt skomplikowane? Że gospodarka? Przypomnijmy sobie lekcję historii. Gdy po ataku na Pearl Harbor USA przystąpiły do II Wojny Światowej, amerykańska gospodarka przestawiła się na tryb wojenny w 72 godziny. Trzy dni. Fabryki lodówek zaczęły robić amunicję. Wolny rynek zawieszono. Wprowadzono racjonowanie. TRZY DNI!

Pearl Harbor to nie jest w tym kontekście metafora wojny. To precedens decyzyjny. USA nie przestawiły gospodarki w 72 godziny dlatego, że wojna była „bardziej realna”, ale dlatego, że uznano ją za zagrożenie systemowe dla państwa.

Dziś algorytmy ingerują w procesy wyborcze, destabilizują relacje społeczne, wpływają na zdrowie psychiczne całych pokoleń i są wykorzystywane w wojnach hybrydowych. To spełnia każde kryterium zagrożenia systemowego. Brakuje tylko decyzji politycznej, by to nazwać po imieniu. Da się.

Czas to powiedzieć głośno: algorytmiczna destabilizacja społeczeństw JEST zagrożeniem egzystencjalnym. Facebook, TikTok i ich pochodne to nie „firmy technologiczne”. To operatorzy infrastruktury poznawczej, pozbawieni jakiejkolwiek odpowiedzialności i napędzani zyskiem, który nie ma moralności.

Plan ratunkowy. Trzy opcje „atomowe”

Nie musimy „zamykać internetu”, tak jak trudno nazwać uśmiercenie pacjenta jego wyleczeniem. Musimy odciąć zasilanie maszynie losującej nastroje społeczne. Oto co można zrobić – nie za 5 lat, ale w miesiąc.

Opcja 1: stan wyjątkowy dla algorytmów

Najczystsza opcja. Decyzją administracyjną (na poziomie UE lub krajowym) nakłada się zakaz stosowania algorytmów rekomendacyjnych dla treści niesubskrybowanych.

Zostaje:

  • Chronologiczny feed od znajomych.
  • Treści, które świadomie zaobserwowałeś.
  • Wyszukiwarka.

Znika:

  • „Sugerowane dla Ciebie”,
  • „Możesz to polubić”,
  • „Wpadnij w króliczą norę”.

Efekt? Zasięgi toksycznych treści spadają o 90%. Wiralowość umiera. Facebook staje się nudnym narzędziem do kontaktu z ciocią. I o to chodzi. Ciocia na pewno się ucieszy, a Twój umysł Ci podziękuje.

Opcja 2: algorytm jako broń (Infrastruktura Krytyczna)

Zmiana definicji prawnej. Systemy rekomendacyjne o zasięgu powyżej X milionów użytkowników zostają uznane za infrastrukturę krytyczną (jak elektrownie czy wodociągi). Skutek?

Obowiązkowe audyty kodu w czasie rzeczywistym (na wzór audytów finansowych i bezpieczeństwa infrastruktury energetycznej) i odpowiedzialność karna zarządów. Nie „firmy”, ale konkretnych ludzi. Oni mają odpowiadać za skutki społeczne. To zmroziłoby Dolinę Krzemową w tydzień.

Zuckerberg dwa razy zastanowiłby się, czy puścić w obieg algorytm promujący nienawiść, gdyby groziło mu za to więzienie, a nie grzywna.

Opcja 3: odcięcie tlenu (zakaz mikrotargetowania)

Model biznesowy Mety opiera się na sprzedawaniu naszych emocji. Wystarczy wprowadzić całkowity zakaz targetowania treści o charakterze politycznym, społecznym i zdrowotnym. Zero boostowania postów o „szczepionkach”, „wyborach” czy „wojnie”. Jeśli nie da się na tym zarobić, farmy trolli i fabryki fake newsów stracą rację bytu.

Czas na decyzję

To nie jest „radykalizm”. Radykalny jest system, który dla zysku napuszcza na siebie sąsiadów, promuje pseudomedycynę i niszczy demokrację. Jesteśmy zmęczeni. Widzimy więcej, niż algorytm by chciał. I mamy prawo żądać, by ktoś w końcu wyciągnął wtyczkę.

Mój felieton nie ugasi pożaru świata. Ale może chociaż przestaniemy udawać, że to, co czujemy – ten ciągły lęk i wkurzenie – to nasza wina. To nie my zwariowaliśmy. To algorytm.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .