Mastodon
Zdjęcie okładkowe wpisu Utopijne obietnice, dystopijna rzeczywistość. Ciemna strona rewolucji technologicznej

Utopijne obietnice, dystopijna rzeczywistość. Ciemna strona rewolucji technologicznej

0
Dodane: 4 godziny temu

Firmy technologiczne uwielbiają sprzedawać nam wizję świata, w którym sztuczna inteligencja leczy raka, uczy nasze dzieci i pomaga odnajdywać zagubione zwierzęta.

Jednak wystarczy zajrzeć za kulisy, by zobaczyć, że pod płaszczykiem innowacji kryją się często kontrowersyjne praktyki, wyzysk i ułuda. Niezależny serwis śledczy 404 Media opublikował właśnie zestawienie, które działa jak kubeł zimnej wody na każdego techno-optymistę.

Niedziela to dobry moment, by na chwilę zdjąć różowe okulary, przez które branża IT każe nam patrzeć na sztuczną inteligencję i smart-urządzenia. Zamiast czytać kolejne gładkie komunikaty prasowe, przyjrzyjmy się temu, co faktycznie dzieje się na styku technologii i naszego codziennego życia.

Inwigilacja pod pretekstem szukania zaginionych psów

W październiku zeszłego roku firma Ring (należąca do Amazona, producent inteligentnych dzwonków z kamerą) z wielką pompą i przy wsparciu drogich reklam na Super Bowl uruchomiła funkcję „Search Party”. Narzędzie, domyślnie włączone u użytkowników, łączy ze sobą kamery w całej okolicy, wykorzystując AI do… poszukiwania zaginionych psów. Brzmi szlachetnie?

Dziennikarze 404 Media dotarli jednak do wewnętrznych maili założyciela firmy, Jamiego Siminoffa. W wiadomości do pracowników Siminoff przyznaje, że poszukiwanie zwierząt to jedynie fundament. Docelowo funkcja ma zostać rozszerzona na „wyzerowanie przestępczości” w dzielnicach, co dziennikarze interpretują jako wizję systemu, który mógłby w praktyce stworzyć rozproszoną, zautomatyzowaną sieć monitoringu. Zgadzając się na szukanie uroczych czworonogów, mieszkańcy mogą nieświadomie budować potężne narzędzie nadzoru.

Szkoła za 65 tys. dolarów, która uczy bzdur

Sztuczna inteligencja miała zrewolucjonizować edukację. Najlepszym (i najdroższym) tego przykładem miała być Alpha School – elitarna, prywatna szkoła w USA, gdzie czesne sięga 65 tysięcy dolarów rocznie. Placówka ta zdobyła pochwały amerykańskich mediów i polityków jako „przyszłość edukacji” zarządzana przez AI.

Rzeczywistość jest jednak daleka od wizji z prospektów reklamowych. Jak twierdzą byli pracownicy i dokumenty, do których dotarli dziennikarze, generowane przez algorytmy plany lekcji często robią uczniom „więcej szkody niż pożytku”. Pytania wielokrotnego wyboru są nielogiczne, a materiały mają niejasne sformułowania. Co gorsza, według relacji, szkoła trenowała swoje systemy, bezprawnie „zasysając” (scrapując) dane z innych kursów online. Płacąc gigantyczne pieniądze, rodzice w praktyce fundowali swoim dzieciom udział w niedopracowanym beta-teście.

Gdy AI odziera z prywatności

Model Grok, rozwijany przez firmę xAI Elona Muska, ponownie udowadnia, że brak barier bezpieczeństwa (tzw. guardrails) to proszenie się o kłopoty. Ofiarą chatbota padła w tym miesiącu m.in. Siri Dahl, twórczyni z branży dla dorosłych, posługująca się pseudonimem od 2012 roku.

Grok bez mrugnięcia okiem zaczął ujawniać każdemu pytającemu jej pełne, prawdziwe imię i nazwisko oraz dokładną datę urodzenia. Efekt był natychmiastowy – internetowi trolle i stalkerzy zaczęli zakładać fałszywe profile pod jej prawdziwym nazwiskiem, publikując tam skradzione, prywatne materiały. AI, które miało być „niepokorne i wolne od cenzury”, w praktyce doprowadziło do sytuacji przypominającej zautomatyzowany doxxing (ujawnianie prywatnych danych) i niebezpiecznie ułatwiło nękanie.

Centra danych a lokalne społeczności

Ostatnia historia zebrana przez 404 Media nie dotyczy samego kodu, ale fizycznych kosztów rewolucji AI. Aby te wszystkie modele mogły działać, firmy potrzebują gigantycznych centrów danych, które pożerają prąd i wodę w małych miasteczkach.

Podczas posiedzenia rady miasta w Claremore (stan Oklahoma) mieszkańcy protestowali przeciwko budowie takiego obiektu (Projekt Mustang), obawiając się o dostęp do wody i wzrost rachunków za prąd. Gdy jeden z lokalnych aktywistów, Darren Blanchard, przekroczył swój regulaminowy, 3-minutowy czas wypowiedzi przy mikrofonie o zaledwie kilka sekund, władze miasta wezwały policję, która aresztowała go pod zarzutem wkroczenia na teren prywatny. To dobitnie pokazuje, jak napięte potrafią być relacje między mieszkańcami a projektami infrastrukturalnymi napędzającymi boom AI.

Technologia sama w sobie nie jest ani dobra, ani zła — ale tempo jej wdrażania sprawia, że skutki uboczne coraz częściej wyprzedzają społeczną debatę.

Polski kardiolog koduje w samolocie i staje na podium hackathonu Anthropic. Tak AI zmienia zasady gry

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .