Zwiastun „Megalopolis” to czubek góry lodowej – czyli słów kilka o zmyślaniu AI
„Megalopolis” to film, który powstawał przez kilkadziesiąt lat. Zapewne według samego twórcy, Francisa Forda Coppoli, stanowi jego opus magnum. Jednak za sprawą kontrowersji związanych z udziałem AI w produkcji zwiastuna tego dzieła, o filmie jest głośno z zupełnie nieprzewidzianego przez twórcę powodu. Osoba odpowiedzialna za zwiastun tego dzieła poszła na skróty, użyła AI i się zaczęło. To jednak zaledwie czubek góry lodowej, pokazujący narastający problem związany z wykorzystaniem sztucznej inteligencji w dziełach szeroko pojętej kultury i nie tylko.
W ubiegłym tygodniu swoją premierę miał pierwszy pełny zwiastun filmu „Megalopolis”. Z chęcią bym tu wam go załączył, ale niestety nie jest on już dostępny. Wszystko z powodu cytatów w nim zawartych, które miały rzekomo pochodzić z lat debiutów takich szlagierów światowej kinematografii zrealizowanych przez Coppolę jak m.in. „Ojciec Chrzestny”, czy „Czas apokalipsy”. Cytaty te nie wychwalały wspomnianych dzieł, wręcz przeciwnie, stanowiły miażdżącą ich krytykę. Pod cytatami pojawiały się w zwiastunie „Megalopolis” konkretne, prawdziwe nazwiska i tytuły uznanych wydawnictw. Okazało się jednak, że z cytatami, które trafiły do zwiastunu nowego dzieła Coppoli jest problem: zostały zmyślone przez AI.
Można się zastanawiać, jak to w ogóle możliwe? Współczesne filmy to nie są tanie rzeczy. Olbrzymie budżety, rozbuchane scenografie, imponująca obsada i istna armia osób ekipy produkującej kolejnego hollywoodzkiego blockbustera, to dziś oczywistość w wielkich studiach filmowych. Za dystrybucję nowego dzieła Coppoli w Stanach Zjednoczonych odpowiada Studio Lionsgate, marka uznana w światowej kinematografii, jednak to ona odpowiada za puszczenie w obieg zwiastuna zawierającego fałszywe cytaty prawdziwych osób, pracujących dla prawdziwych wydawców.
Po tym jak portal Vulture odkrył, że wykorzystane w trailerze „Megalopolis” cytaty są fałszywe, Lionsgate szybko usunęło klip, studio wystosowało też oficjalne przeprosiny, ale nie skomentowało sprawy szerzej. Dziś wiadomo też, że osoba bezpośrednio odpowiedzialna za feralny klip, specjalista (?) od marketingu Eddie Egan, już nie pracuje dla studia. Jednak ten ruch raczej nie wystarczy. Nie w Stanach Zjednoczonych.
Jednak zostawmy sprawę „Megalopolis”, spójrzmy szerzej na kwestię wykorzystania AI w świecie twórców i szeroko pojętej kultury, a także propagacji w zasadzie dowolnych informacji w sieciach społecznościowych, które wciąż wielu mylnie określa mediami społecznościowymi. Zasadniczy problem z AI jest taki, że w miarę rozwoju poszczególnych modeli AI ma stawać się coraz doskonalsza. Brzmi dobrze, prawda? Jednak doskonalić można się w wielu dziedzinach. Jakkolwiek giganci technologiczni pracujący nad AI od Amazona i Anthropic, poprzez Google, Microsoft, OpenAI, Metę i innych, starają się implementować w swoich modelach mechanizmy mające zniwelować tzw. halucynacje AI, to nie da się ich wyeliminować całkowicie.
Immanentną cechą każdej sztucznej inteligencji są sieci neuronowe. To twór opracowany na podobieństwo tego, co funkcjonuje od dawna w naszych czaszkach. Nasze biologiczne sieci neuronowe też lubią zmyślać. Pogódźmy się z faktem: kłamiemy. Kłamiemy jak najęci. I nawet nie piszę tu o patologicznych przypadkach z annałów psychologii, jak np. mitomania, nawet nie chodzi mi o kłamstwo z premedytacją. Kłamiemy nawet nie wiedząc, że kłamiemy, a każdy średnio rozgarnięty student psychologii powinien szybko odnaleźć stosowne eksperymenty psychologiczne z licznymi przypadkami, kiedy biorący w tych eksperymentach ludzie, formalnie zdrowi psychicznie, bezwiednie kłamali przekonani o prawdziwości głoszonych twierdzeń.
Pamiętajmy jednak, że w przypadku AI bardziej mamy do czynienia ze zmyślaniem, niż kłamstwem. Kłamstwo ze swej natury nacechowane pejoratywnie kojarzy nam się z czymś złym. Ale zmyślanie? Bez niego nie istniałaby jakakolwiek fikcja, nie mielibyśmy literatury SF i w ogóle mnóstwa innych dzieł naszej globalnej kultury.
Zadaniem AI jest wygenerowanie informacji pożądanej przez użytkownika. Jak ją uzyskać? Jedną z licznych metod jest uczenie maszynowe ze wzmocnieniem. Mówiąc inaczej implementujemy w AI mechanizm nagrody. Podobne mechanizmy tkwią w naszych mózgach, choć z racji ich biologicznego charakteru działają inaczej. Ewolucja je wykształciła w celu konkretnych korzyści dla naszego gatunku, jednak jesteśmy na tyle zmyślni, że sami siebie potrafimy degradować wykorzystując mechanizm nagrody. Wszak bez niego nie istniał by żaden nałóg.
Zatem jak czytam, że to „AI jest winna” to załamuję ręce. To pomylenie przyczyny ze skutkiem. AI to tylko narzędzie, niczego sama z siebie nie zaplanuje, wykonuje tylko polecenia i działa tak, jak wcześniej została wytrenowana. Sęk w tym, że w miarę rozwijania kolejnych modeli generatywnych odróżnienie fikcji od faktów będzie coraz trudniejsze. Nie ma pytania czy zostaniemy zmanipulowani, pozostaje tylko kwestia kiedy.
Wszystkie ilustracje zawarte w tym materiale zostały wygenerowane przez AI w usłudze Kreator Obrazów w Bing.