Mastodon
Zdjęcie okładkowe wpisu Funkcja generowania obrazów ludzi w Gemini czasowo zablokowana

Funkcja generowania obrazów ludzi w Gemini czasowo zablokowana

0
Dodane: 2 miesiące temu

Co się stało? Google czasowo zablokowało możliwość generowania obrazów przedstawiających ludzi przez model Gemini. O co chodzi? AI padła ofiarą reguł fałszywie pojmowanej równości i poprawności politycznej.

Zaznaczam, że problem nie dotyczy ani Polski, ani UE, włącznie z EOG (Europejski Obszar Gospodarczy), czyli także Szwajcarii czy UK. U nas Gemini i tak nie wygeneruje żadnego obrazka. Niemniej na tych rynkach, na których AI od Google’a miała odblokowaną taką możliwość, okazało się, że generowane obrazy nie do końca odpowiadają życzeniom użytkowników. Poniżej przykład podawany przez samo Google:

Gemini

To co widzicie powyżej, to reakcja Gemini na prośbę o wygenerowanie ilustracji przedstawiającej niemieckiego żołnierza z czasów nazistowskich (z 1943 roku). Chyba dostrzegacie, że coś jest nie tak.

Takich przykładów anglojęzyczni użytkownicy Gemini z obszarów, gdzie funkcja generowania obrazów była odblokowana, podawali znacznie więcej. Finalnie Google zdecydowało się na całkowite zablokowanie funkcji generowania obrazów ludzi przez Gemini.

Generowanie obrazów nie pasujących do rzeczywistej historii to jedno. Ale sytuacja ta pokazuje szerszy problem. Google od zawsze podkreśla, że chce tworzyć swoje modele w sposób odpowiedzialny, z poszanowaniem każdego i starając się wyrugować z tworzonych algorytmów jakiekolwiek uprzedzenia rasowe, płciowe itp.

Idea pozornie wydaje się słuszna, problemem jest jednak to, że narzucone odgórnie zasady nie muszą pasować do każdej sytuacji, co właśnie nastąpiło. AI z wymuszoną poprawnością polityczną i narzuconymi regułami równości zwyczajnie fałszuje historię. Chyba nie o taki efekt chodziło.

Oczywiście Google to poprawi, jednak niepokoi coś innego. Nie wątpię, że Google przykłada się do tego, by tworzyć AI w sposób odpowiedzialny i bezpieczny, a mimo to gigant technologiczny z niekwestionowanym potencjałem i olbrzymimi zasobami nie ustrzegł się błędów. A to tylko generowanie obrazków. Co będzie, gdy zakres zadań realizowanych przez AI będzie daleko bardziej znaczący, gdy np. AI zajmie się np. prawodawstwem, leczeniem ludzi, czy znajdzie „zatrudnienie” w militariach? Nie daje mi spokoju jedno proste pytanie. Jak to możliwe, że w całym Google nikt nie wykrył takiego błędu? Błędu, który – dosłownie – bije po oczach.

 

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .