Eksperci ostrzegają: ufamy sztucznej inteligencji bardziej niż jej twórcy
Choć ChatGPT obsługuje dziennie abstrakcyjną dla naszego umysłu liczbę zapytań, a firmy masowo wdrażają sztuczną inteligencję, osoby stojące za kulisami tej technologii zachowują daleko idący dystans.
Najnowsze raporty The Guardian oraz NewsGuard rzucają światło na paradoks zaufania do AI: modele językowe stają się coraz pewniejsze siebie, ale jednocześnie coraz częściej wprowadzają nas w błąd.
Według danych OpenAI, ChatGPT przetwarza codziennie ponad 2,5 miliarda zapytań. Użytkownicy traktują chatboty jako źródło wiedzy, doradcę, a czasem wręcz wyrocznię. Tymczasem eksperci pracujący nad rozwojem tych systemów biją na alarm. W rozmowach z dziennikarzami „The Guardian” pracownicy odpowiedzialni za ocenę jakości odpowiedzi AI (tzw. AI raters) przyznają, że sami odradzają korzystanie z tych narzędzi swoim rodzinom i przyjaciołom.
Presja czasu i brak kompetencji
Powodem sceptycyzmu twórców jest „kuchnia” powstawania modeli. Pracownicy trenujący algorytmy skarżą się na nierealistyczne terminy, mgliste instrukcje oraz brak odpowiedniego przeszkolenia. Zdarza się, że osoby bez wykształcenia medycznego oceniają poprawność skomplikowanych porad zdrowotnych generowanych przez AI! To prowadzi do sytuacji, w której model uczy się na błędnych lub powierzchownie zweryfikowanych danych.
Nawet Sam Altman, CEO OpenAI, oraz Andrej Karpathy (były dyrektor ds. AI w Tesli) publicznie przestrzegają przed ślepym zaufaniem do chatbotów, wskazując na problem „halucynacji” – zjawiska, w którym AI z pełnym przekonaniem fabrykuje fakty. Jednak tu w naszej redakcji dostrzegamy jeszcze jeden problem: oprócz halucynacji model może produkować błędne informacje będące wynikiem wadliwego wytrenowania, co w rzeczy samej halucynacją nie jest, ale nie jest też poszukiwanym przez użytkownika rezultatem.
Koniec ery „nie wiem”
Jeszcze bardziej niepokojące dane płyną z raportu organizacji NewsGuard, która zajmuje się walką z dezinformacją. Porównano skuteczność czołowych chatbotów w sierpniu 2024 oraz w sierpniu 2025 roku. Wyniki są alarmujące:
Wskaźnik powielania fałszywych informacji przez AI wzrósł niemal dwukrotnie – z 18 proc. do 35 proc. Jednocześnie wskaźnik odmowy odpowiedzi (gdy chatbot przyznaje, że nie zna odpowiedzi lub temat jest kontrowersyjny) spadł z 31 proc. praktycznie do zera.
Oznacza to, że współczesne chatboty oduczyły się pokory. Zamiast przyznać się do niewiedzy, wolą zaserwować użytkownikowi wiarygodnie brzmiącą, ale fałszywą informację. Meredith Broussard, badaczka danych z NYU, radzi, by podchodzić do wyników generowanych przez AI z „dużą dozą ostrożności”, szczególnie w kwestiach społecznych i medycznych, które wymagają niuansów, a nie statystycznego dopasowania słów.
AI nie zabiło edukacji, ono tylko pokazało jej zwłoki. Mocna diagnoza profesora z Teksasu






