Mastodon
Zdjęcie okładkowe wpisu „Panikarze od AI są w błędzie”. Daniel Jeffries o ukrytych kosztach strachu przed technologią

„Panikarze od AI są w błędzie”. Daniel Jeffries o ukrytych kosztach strachu przed technologią

0
Dodane: 2 dni temu

W nowym artykule opublikowanym na platformie Substack, analityk i futurysta Daniel Jeffries przypuszcza ostry atak na zwolenników hipotezy o egzystencjalnym zagrożeniu ze strony AI.

Twierdzi, że „panikarze od AI” (AI doomers) są w „katastrofalnym, spektakularnym i niebezpiecznym błędzie”, a ich działania, mające na celu zatrzymanie postępu, mogą przynieść znacznie więcej szkód niż sama technologia, którą próbują powstrzymać.

Jeffries rozpoczyna swój esej od stwierdzenia, że żyjemy w czasach cudów, a rozwój technologiczny w historii ludzkości konsekwentnie prowadził do poprawy jakości życia, spadku ubóstwa i wydłużenia jego trwania. Argumentuje, że nie ma żadnych logicznych podstaw, by sądzić, że sztuczna inteligencja – w przeciwieństwie do innych technologii ogólnego przeznaczenia, jak koło, prasa drukarska czy internet – miałaby ten pozytywny trend odwrócić.

Cud, nie potwór

Autor wprost nazywa zwolenników teorii o zagładzie „współczesnymi Kurczaczkami, krzyczącymi, że niebo się wali” (dosłowny cytat: „AI doomers are modern-day Chicken Littles, screaming about the sky falling”. Wskazuje na ich czołowego ideologa, Eliezera Yudkowsky’ego, cytując jego skrajne wypowiedzi, w których sugerował on, że wstrzymanie rozwoju AI jest ważniejsze niż uniknięcie wojny światowej i dopuszczał możliwość bombardowania „nieautoryzowanych” centrów danych.

Jeffries podkreśla, że „panikarze” od lat przesuwają granicę rzekomo niebezpiecznej mocy obliczeniowej AI, a mimo jej wielokrotnego przekroczenia, cywilizacja wciąż nie upadła.

Ukryte ofiary strachu przed postępem

Najmocniejszym argumentem Jeffriesa jest jednak koncepcja „ukrytych ofiar technofobii”. Twierdzi on, że hamowanie postępu technologicznego z powodu hipotetycznych, przyszłych zagrożeń, ma realne i tragiczne konsekwencje tu i teraz. Jako główny przykład podaje wprowadzone w przeszłości w USA ograniczenia w badaniach nad komórkami macierzystymi.

Argumentuje, że ta decyzja, podjęta ze względów ideologicznych, opóźniła o lata rozwój terapii, które mogły uratować wzrok lub wyleczyć cukrzycę u niezliczonych pacjentów. Według niego, koszt alternatywny – czyli to, co tracimy, nie rozwijając technologii – jest niewidoczny, ale ma jedną z największych „liczb ofiar” w historii. Blokując rozwój AI, ryzykujemy, że nigdy nie powstaną leki na choroby, które dziś są nieuleczalne, oraz narzędzia, które mogłyby rozwiązać największe problemy ludzkości.

Jeffries kończy swój artykuł optymistycznym wezwaniem do działania. W jego wizji, jeśli zbudujemy zaawansowaną AI, nie czeka nas zagłada, a medyczna rewolucja i mądrzejsze, bardziej odporne na kryzysy społeczeństwo. Jeżeli bylibyście zainteresowani lekturą wpisu Jeffriesa, podaję link: If We Build It, Everyone Lives

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .