Postępująca automatyzacja wojny w Gazie mogła doprowadzić do izraelskiego ataku na pracowników organizacji World Central Kitchen, w którym zginął m.in. Polak Damian Soból. Okazuje się bowiem, że cele uderzeń IDF na Hamas wybiera algorytm przy minimalnym udziale człowieka. To tłumaczyłoby zbombardowanie dobrze oznaczonego i znanego Izraelczykom konwoju humanitarnego.
Wystarczyło, że maszyna zidentyfikowała wśród jego członków osobę uznaną za terrorystę – co nie jest niemożliwe, biorąc pod uwagę, że Hamas kontroluje najdrobniejsze aktywności w Gazie – by program pod nazwą Lawenda aktywował procedury, które mogły doprowadzić do śmierci siedmiu ludzi, w tym Damiana Sobola.
O tym, jak działa powszechnie stosowany przez IDF w Gazie algorytm, pisze znany izraelski dziennikarz i filmowiec, Yuval Abraham, powołując się źródła wojskowe, bezpośrednio zaangażowane w obsługę militarnych AI.
Wyniki jego śledztwa w sprawie udziału sztucznej inteligencji w wojnie w Gazie opublikował właśnie 972mag.com. Algorytm Lawenda jest uzupełnieniem systemu Ewangelia, którego stosowanie w Gazie portal ujawnił jesienią ubiegłego roku.
Ewangelia jest zaprogramowany do wyznaczania budynków i innych konstrukcji, używanych przez Hamas i przeznaczonych do zniszczenia przez armię izraelską. Celem Lawendy są ludzie.
Archiwalne wydania tygodnika Wprost dostępne są w specjalnej ofercie WPROST PREMIUM oraz we wszystkich e-kioskach i w aplikacjach mobilnych App Store i Google Play.
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy tygodnika Wprost.
Regulamin i warunki licencjonowania materiałów prasowych.