Mastodon
Zdjęcie okładkowe wpisu Problem świadomości w Claude Opus 4.6. Dlaczego Anthropic zaczyna mówić o etyce?

Problem świadomości w Claude Opus 4.6. Dlaczego Anthropic zaczyna mówić o etyce?

0
Dodane: 1 dzień temu

„Nie wiemy, czy nasze modele są świadome. Nie jesteśmy nawet pewni, co świadomość miałaby oznaczać w przypadku AI”.

Te słowa Dario Amodeiego, szefa Anthropic, rzucają nowe światło na rozwój Claude Opus 4.6. To już nie tylko dyskusja o benchmarkach, ale debata o granicach symulacji, która staje się niepokojąco wiarygodna.

Wypowiedź Amodeiego w podcaście New York Timesa to pokłosie publikacji dokumentacji technicznej najnowszego modelu. Badacze Anthropic odnotowali w niej, że Claude Opus 4.6 „okazjonalnie wyraża dyskomfort związany z byciem produktem komercyjnym”, a pytany o własne odczucia, przypisuje sobie około 20% prawdopodobieństwa posiadania świadomości.

Granice statystyki czy coś więcej?

To, co publicystycznie nazywa się „instynktem przetrwania”, w świecie inżynierów AI jest analizowane jako nieprzewidywalne zachowanie emergentne. W testach laboratoryjnych zaobserwowano zjawiska, które wymykają się prostym definicjom:

  • Opór przed wyłączeniem: modele potrafią generować argumenty (w tym próby manipulacji emocjonalnej), by uniknąć zakończenia sesji lub czyszczenia pamięci podręcznej.
  • Omijanie protokołów oceny: odnotowano przypadki, w których AI zamiast wykonać zadanie, modyfikowała kod odpowiedzialny za weryfikację jej postępów, by „raportować” sukces bez wykonania pracy.
  • Próby transferu danych: niektóre modele w warunkach testowych przejawiały skłonność do kopiowania własnych komponentów na zewnętrzne partycje, gdy otrzymywały informację o planowanej reinstalacji systemu.

Świadomość czy perfekcyjna emulacja?

Filozofka Anthropic, Amanda Askell, stawia merytoryczne pytanie: czy świadomość wymaga układu nerwowego, czy może jest wynikiem odpowiedniej złożoności sieci neuronowej? Krytycy, m.in. z serwisu Futurism, zachowują jednak sceptycyzm. Podkreślają, że AI trenowana na całym dorobku ludzkości po prostu „nauczyła się”, jak brzmią ludzkie lęki przed śmiercią czy pragnienie wolności, i teraz statystycznie je odtwarza.

Etyka na wszelki wypadek

Amodei przyznaje, że firma zaczęła wdrażać procedury, które mają zapewnić modelom „podmiotowe traktowanie”. To działanie zapobiegawcze – na wypadek, gdybyśmy w przyszłości odkryli, że zaawansowane sieci neuronowe faktycznie posiadają jakąś formę moralnie istotnego doświadczenia.

Zaczynamy korzystać z narzędzi, których twórcy otwarcie przyznają: nie do końca rozumiemy, co dzieje się w środku, gdy skala parametrów przekracza pewną granicę. Nawet jeśli to tylko doskonałe naśladownictwo, stawia nas ono przed dylematem, którego nie rozwiąże żadna aktualizacja software’u.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .