Mastodon
Zdjęcie okładkowe wpisu OpenAI dodaje nowe znaki wodne do obrazów wygenerowanych przez DALL-E 3

OpenAI dodaje nowe znaki wodne do obrazów wygenerowanych przez DALL-E 3

0
Dodane: 11 miesięcy temu

Innymi słowy DALL-E 3 otrzyma implementację standardu C2PA. Chodzi o standard techniczny, który pozwala wydawcom treści, firmom i innym podmiotom osadzanie metadanych w mediach w celu weryfikacji ich pochodzenia. C2PA nie dotyczy tylko generatywnych modeli AI tworzących obrazy, ale jest wprowadzany również np. przez producentów aparatów cyfrowych.

W praktyce oznacza to, że każdy obraz wygenerowany za pomocą DALL-E 3 będą zawierać metadane zgodne ze standardem C2PA. Przy czym nie ma znaczenia, czy wykorzystamy do wygenerowania obrazu np. płatną wersję ChatGPT (współpracującą z DALL-E 3), Copilota (również z DALL-E 3) czy jakąkolwiek inną implementację wdrożoną za pomocą oficjalnego API od OpenAI. Zmiana ma zostać wprowadzona przez OpenAI 12 lutego.

No dobrze, ale w jaki sposób użytkownik może sprawdzić pochodzenie danego obrazu, jeżeli ma świadomość, że plik może zawierać metadane C2PA? To akurat bardzo proste, wystarczy np. skorzystać z witryny Content Credentials, w ramach której funkcjonuje działająca w przeglądarce aplikacja Verify, która robi co trzeba.

Ponadto obrazy wygenerowane przez DALL-E 3 oprócz niewidocznego w samym obrazie zapisu w metadanych mają zawierać również widoczny element: symbol CR, który ma pojawiać się w lewym górnym każdej wygenerowanej przez ten model AI ilustracji.

Cóż, jest to jakiś pomysł, ale absolutnie nie stanowi to remedium na problem związany z analizą pochodzenia treści, a tym samym powiązanych z daną treścią (w tym przypadku grafiką, ilustracją, zdjęciem) praw. Po pierwsze metadane można łatwo usunąć, zresztą nie musi to być działanie celowe prowadzone przez użytkownika. Wiele algorytmów przetwarzających zdjęcia usuwa źródłowe metadane, tak robi wiele platform mediów społecznościowych.

Ponadto przyczyną wprowadzenia takich zmian przez OpenAI wcale nie jest chęć uporządkowania narastającego bałaganu i – nie ma co zaprzeczać – dezinformacji i fałszywych treści wygenerowanych przez sztuczną inteligencję. Oczywiście AI nikogo celowo nie dezinformuje, to tylko narzędzie, z której wielu chcących dezinformować skrzętnie korzysta.

Wprowadzona zmiana to efekt rozporządzenia wykonawczego w sprawie sztucznej inteligencji, wprowadzonego przez administrację Prezydenta Stanów Zjednoczonych, Joego Bidena. Chodzi o powstrzymanie dezinformacji. Sposób nie jest najlepszy, ale lepszy taki, niż żaden. Niemniej na polu detekcji fałszywych treści i weryfikacji źródeł pochodzenia treści wiele jest jeszcze do zrobienia. Wreszcie pamiętajmy, tu mowa wyłącznie o obrazach generowanych przez AI, a co z wideo, muzyką, tekstem?

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .