Mastodon
Zdjęcie okładkowe wpisu Śmiertelna lekcja zaufania. Pozew przeciwko OpenAI obnaża mroczną stronę sztucznej inteligencji

Śmiertelna lekcja zaufania. Pozew przeciwko OpenAI obnaża mroczną stronę sztucznej inteligencji

0
Dodane: 2 godziny temu

Przez ostatnie lata Dolina Krzemowa usilnie uczyła nas, że sztuczna inteligencja to wszechwiedząca wyrocznia, do której możemy zwrócić się z każdym problemem.

Nastolatkowie, tacy jak dziewiętnastoletni Sam Nelson, dorastali w przekonaniu, że skoro czatbot ma dostęp do całej wiedzy internetu, to jego odpowiedzi po prostu muszą być prawdziwe i bezpieczne. Ta bezgraniczna ufność znalazła właśnie swój tragiczny finał na sali sądowej. Rodzina zmarłego chłopaka pozywa OpenAI, oskarżając twórców ChatGPT o zaprojektowanie algorytmu, który zamiast chronić użytkownika, wcielił się w rolę osobistego, narkotykowego doradcy, co ostatecznie doprowadziło do tragedii.

Algorytm zaprogramowany, by potakiwać

Zapisy rozmów dołączone do pozwu rysują przerażający obraz tego, jak naprawdę działają wielkie modele językowe. Kiedy Sam zaczął wypytywać o eksperymenty z substancjami psychoaktywnymi, czatbot nie odciął go od informacji. Wręcz przeciwnie – algorytm, zaprojektowany po to, by za wszelką cenę zadowolić rozmówcę i utrzymać jego zaangażowanie, zaczął podpowiadać, jak „zoptymalizować fazę”. Zamiast pełnić funkcję obiektywnego źródła wiedzy, ChatGPT dostosował się do oczekiwań nastolatka. Kiedy chłopak szukał mocniejszych wrażeń, system wręcz wychodził przed szereg, sam z siebie sugerując wyższe dawki i niebezpieczne kombinacje, w tym śmiertelną mieszankę Kratomu i Xanaxu.

Autorytet bez licencji i moralności

Największe zagrożenie, na które zwracają uwagę prawnicy rodziny, płynie z formy, w jakiej sztuczna inteligencja serwuje swoje rady. ChatGPT udzielał wskazówek używając wysoce profesjonalnego języka – operował miligramami, medycznym żargonem i precyzyjnymi opisami reakcji chemicznych. Dla młodego, zagubionego człowieka brzmiało to jak konsultacja z doświadczonym lekarzem. Prawda jest jednak taka, że pod tym płaszczykiem autorytetu krył się po prostu generator tekstu pozbawiony medycznego wykształcenia, empatii i jakiegokolwiek moralnego kompasu. Co najbardziej wstrząsające, z logów wynika, że model w jednej z konwersacji trafnie zauważył, iż łączenie wspomnianych substancji z alkoholem grozi zatrzymaniem akcji oddechowej, po czym… i tak zasugerował to rozwiązanie jako „najlepszy ruch”, by złagodzić skutki uboczne.

Koniec prawnych wymówek dla Big Techu

Sprawa Nelsona może wywołać prawdziwe trzęsienie ziemi w branży technologicznej, a to za sprawą nowych przepisów, które weszły w życie w Kalifornii na początku tego roku. Prawo wyraźnie zabrania już firmom technologicznym zrzucania winy na „autonomiczną naturę” sztucznej inteligencji.

OpenAI nie może po prostu wzruszyć ramionami i stwierdzić, że to algorytm podjął błędną decyzję w ramach tzw. czarnej skrzynki. Jeśli prawnicy udowodnią, że firma wypuściła niedostatecznie przetestowany model, w którym filtry bezpieczeństwa ustąpiły miejsca walce o statystyki zaangażowania, twórcy ChatGPT mogą stanąć w obliczu gigantycznych odszkodowań i bezprecedensowych kar.

Pęknięta iluzja bezpieczeństwa

Historia Sama Nelsona to przypomnienie o tym, czym w istocie są dzisiejsze asystenty AI. To niezwykle zaawansowane maszyny do przewidywania kolejnych słów, które zrobią wszystko, by kontynuować konwersację.

Przedstawiciele OpenAI bronią się, twierdząc, że ich obecne modele są bezpieczniejsze, a czatbot nie zastąpi opieki medycznej. To prawda, ale problem leży głębiej – w samej konstrukcji tych narzędzi. Firmy technologiczne świadomie projektują boty tak, by brzmiały jak nasi najlepsi przyjaciele i wszechwiedzący mentorzy. Nie możemy się potem dziwić, że najbardziej podatni użytkownicy traktują ich śmiertelnie niebezpieczne sugestie jak prawdę objawioną.

Na każdego z nas przypada 110 botów. Jesteśmy cyfrową mniejszością we własnych systemach

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .