Grok i fabryka fałszywych aktów. Czy blokada AI wystarczy, gdy prawo jest bezradne?
Skandal z generowaniem milionów fałszywych materiałów pornograficznych przez model Grok wywołał natychmiastową reakcję opinii publicznej: żądania cenzury i nałożenia ograniczeń na sztuczną inteligencję. To zrozumiały odruch, ale eksperci ds. bezpieczeństwa ostrzegają: sama blokada narzędzia to leczenie objawowe, które nie rozwiązuje problemu bezkarności sprawców.
Raport 404 Media ujawnił, że przestępcy wykorzystują brak filtrów w modelu Grok (xAI) do tworzenia fotorealistycznych aktów na bazie zdjęć z Instagrama. Ofiarami są influencerki, jak Kylie Brewer, a celem – wyłudzenie pieniędzy poprzez fałszywe konta na OnlyFans. Sprawa ta obnaża fundamentalną lukę w systemie prawnym. Dyskusja publiczna skupia się na technologii, podczas gdy mechanizm tego procederu to klasyczne oszustwo finansowe i kradzież tożsamości.
Ślady cyfrowe a rzeczywistość operacyjna
W przeciwieństwie do materiałów krążących w darknecie, generowanie obrazów w Groku pozostawia wyraźny cyfrowy ślad. Aby skorzystać z narzędzia, użytkownik musi posiadać konto na platformie X, a często także opłacić subskrypcję Premium.
W teorii daje to organom ścigania potężny oręż:
- Dane konta i adresy IP.
- Historię płatności i dane kart kredytowych.
- Logi aktywności (prompty).
W praktyce sprawa jest znacznie bardziej skomplikowana. Przestępcy rutynowo korzystają z sieci VPN, kradzionych kart płatniczych czy kont „słupów”. Do tego dochodzi paraliż jurysdykcyjny – platforma X może mieć siedzibę w USA, sprawca działać z Azji, a ofiara mieszkać w Europie. Uzyskanie danych przez policję w trybie międzynarodowej pomocy prawnej trwa miesiącami, co w świecie cyfrowym jest wiecznością.
Dylemat: filtr prewencyjny czy nieuchronność kary?
Zwolennicy ścisłej cenzury modeli AI argumentują, że filtry prewencyjne są konieczne, by ograniczyć skalę zjawiska tu i teraz. Mają rację – blokada słów kluczowych czy wykrywanie nagości utrudnia działanie amatorom i zmniejsza wolumen generowanych treści, działając jak „tamowanie krwotoku”.
Jednak poleganie wyłącznie na blokadach programowych tworzy złudne poczucie bezpieczeństwa. Zdeterminowane grupy przestępcze i tak obejdą zabezpieczenia (korzystając z lokalnych modeli open-source), a drakońskie filtry w komercyjnych narzędziach uderzają rykoszetem w legalne zastosowania technologii przez artystów i twórców.
Wnioski legislacyjne
Kluczem do rozwiązania problemu wydaje się zmiana podejścia legislacyjnego. Nowe przepisy, takie jak amerykański „TAKE IT DOWN Act”, skupiają się na usuwaniu treści przez platformy. To krok w dobrą stronę, ale niewystarczający.
Dopóki generowanie deepfake’ów w celu nękania lub oszustwa nie będzie ścigane z taką samą determinacją jak fałszerstwa finansowe, będziemy świadkami wyścigu zbrojeń między moderatorami treści a przestępcami. Ryzyko polega na tym, że w imię walki z patologią możemy drastycznie ograniczyć potencjał twórczy technologii, nie eliminując przy tym zagrożenia ze strony profesjonalnych grup przestępczych.



