Izrael korzysta z AI o nazwie Lavender do identyfikacji i zabijania celów w Strefie Gazy
Czyż nie tego się spodziewaliśmy? Że prędzej czy później, AI weźmie udział w działaniach zbrojnych na szczeblu decyzyjnym? Problem w tym, że opracowana na potrzeby izraelskiej armii AI preferuje szybkość podejmowania decyzji, nad dokładność. Tylko, że to nie zabugowana gra komputerowa, to prawdziwa wojna i prawdziwe, niewinne ofiary.
Już wcześniej były sygnały, że istnieje broń autonomiczna samodzielnie wybierająca i zabijająca cele. Choćby w 2020 roku ONZ ujawniła raport informujący o operującym na terenie Libii tureckim autonomicznym dronie, który podejmował decyzje o zabiciu wrogich oddziałów bez udziału człowieka. To istotne rozróżnienie, nie chodzi o drony zdalnie sterowane, w których czerwony przycisk odpalenia pocisku czy rakiety i zniszczenia celu wciska ludzki operator. Decyzję podjął algorytm.
Jednak obecnie Izrael wzniósł ideę autonomicznej broni wręcz na masową skalę. Jednak tym razem nie chodzi o tzw. efektory. AI nie jest jakąś autonomiczną armatą, czy dronem. Ujawniony przez niezależne izraelskie media projekt Lavender jest sztuczną inteligencją, która ma wytyczać cele i podejmować decyzje o ich zniszczeniu w pełni autonomicznie. Innymi słowy wygląda to tak, że izraelscy lotnicy czy artylerzyści otrzymują de facto rozkaz od maszyny.
Jeszcze większym problemem jest to, że twórcy tego zabójczego algorytmu tak bardzo chcą wyeliminować Hamas, że przedłożyli szybkość podejmowania decyzji nad dokładność wyznaczania celów. Efekt? System Lavender oznaczył ok. 37 tysięcy Palestyńczyków, które zdaniem algorytmu stanowią zbrojne ramię Hamasu, współpracują z nim lub z Palestyńskim Islamskim Dżihadem. Formalnie decyzje podejmował człowiek, ale jego rola sprowadzała się do pięczątki odpowiedniego oficera pod rozkazem likwidacji wygenerowanym przez maszynę.
Jednak nie to jest najgorsze. System ma podobno działać z 90-procentową skutecznością. Tak, dobrze czytacie. Lavender ma aż 10-procentowy margines błędu, co przy skali w jakiej funkcjonuje operacyjnie ten system sprawia, że potencjalnych ofiar w ogóle nie związanych z Hamasem mogą być nawet tysiące.
Nie macie dosyć? To wciąż nie wszystko. Według rewelacji ogłoszonych przez wspomniane, izraelskie źródła, Algorytm został tak zaprojektowany, by naloty odbywały się najczęściej w nocy, gdy wyznaczone cele, potencjalni, rzekomi członkowie Hamasu, przebywali w swoich domach. Z całymi rodzinami. Przy takiej konfiguracji zaczynam mieć wątpliwość, czy ów margines błędu to tylko 10 procent.
Czy los Damiana Sobóla, polskiego wolontariusza, który wespół z sześcioma innymi wolontariuszami został zabity w izraelskim ataku na konwój humanitarny nie wynikał właśnie z tak dużego marginesu błędu? Pozostaje mieć nadzieję, że zapowiedziane przez polski rząd działania prokuratury wyjaśnią tę sprawę. Nie zmienia to faktu, że życia ofiarom to nie przywróci.