Mastodon
Zdjęcie okładkowe wpisu Sztuczna inteligencja zmyśla źródła na Wikipedii. Redaktorzy walczą z masowymi tłumaczeniami

Sztuczna inteligencja zmyśla źródła na Wikipedii. Redaktorzy walczą z masowymi tłumaczeniami

0
Dodane: 4 godziny temu

Internetowa encyklopedia stanęła przed poważnym problemem.

Społeczność redaktorów Wikipedii nałożyła ostre restrykcje na grupę płatnych współpracowników, którzy do masowego tłumaczenia haseł wykorzystywali sztuczną inteligencję. Efekt? Artykuły zalała fala „halucynacji”, fałszywych przypisów i całkowicie zmyślonych informacji.

Jak donosi serwis 404 Media, sprawa dotyczy działań organizacji Open Knowledge Association (OKA) – fundacji, która w ramach wspierania otwartych platform wypłacała comiesięczne stypendia osobom zajmującym się tłumaczeniem haseł na inne języki. Problem w tym, że praca ta w dużej mierze opierała się na kopiowaniu i wklejaniu tekstów do dużych modeli językowych (LLM).

Zmyślone książki i fałszywe cytaty

Zatrudniani przez OKA tłumacze (często rekrutowani w krajach Globalnego Południa za stawki rzędu niespełna 400 dolarów miesięcznie) korzystali z narzędzi takich jak ChatGPT, Gemini czy – do niedawna – Grok od Elona Muska.

Szybko okazało się, że algorytmy wstawiają do encyklopedii treści, które wyglądają wiarygodnie, ale są całkowitą fikcją. Uwagę redaktorów przykuł m.in. artykuł o francuskiej rodzinie królewskiej La Bourdonnaye. Sztuczna inteligencja wygenerowała w nim perfekcyjnie sformatowany przypis do konkretnej strony w książce historycznej. Po weryfikacji okazało się, że na wskazanej stronie nie ma absolutnie żadnej wzmianki o tym rodzie.

Inne śledztwa wykazały kolejne nadużycia:

  • Algorytmy podmieniały źródła miejscami, dopasowując je do błędnych kontekstów.
  • Wstawiano całe akapity informacji, które brzmiały logicznie, ale były całkowicie niezwiązane z tematem (np. w artykule o francuskich wyborach do Senatu z 1879 roku).
  • Masowe generowanie tekstów często psuło natywne formatowanie stron Wikipedii.

Wikipedia mówi „dość”

W obliczu zalewu błędnych danych, społeczność Wikipedii wprowadziła nowe, surowe zasady celujące bezpośrednio w proceder OKA. Jeśli współpracownik organizacji otrzyma w ciągu sześciu miesięcy cztery ostrzeżenia dotyczące wprowadzenia niezweryfikowanych treści, zostanie zablokowany bez dalszych uprzedzeń. Co więcej, wszystkie hasła dodane przez zablokowanego w ten sposób tłumacza mogą zostać z automatu usunięte, chyba że inny, zaufany redaktor weźmie za nie odpowiedzialność.

AI ma kontrolować AI

Prezes OKA, Jonathan Zimmermann, w korespondencji z 404 Media przyznał, że błędy faktycznie miały miejsce, ale zrzucił je na karb „indywidualnego entuzjazmu i pośpiechu” niektórych tłumaczy, a nie presji ze strony fundacji.

Organizacja zapowiedziała wzmocnienie środków ostrożności, jednak wybrane przez nią rozwiązanie budzi kolejne kontrowersje. OKA wdraża obecnie drugi, niezależny krok weryfikacyjny, w którym… inny model AI będzie sprawdzał tekst wygenerowany przez pierwsze AI w poszukiwaniu rozbieżności z oryginałem. Eksperci i dziennikarze od dawna zwracają uwagę, że używanie algorytmów do weryfikacji pracy innych algorytmów (tzw. zjawisko AI-checking-AI) wciąż cechuje się bardzo wysokim współczynnikiem błędu.

OpenAI wdraża ChatGPT-5.3 Instant – AI nie będzie już „lać wody”

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .