Израелската армия използва изкуствен интелект, за да помогне с идентифицирането на цели за бомбардировки в Газа, съобщи CNN, цитирайки разследване на +972 Magazine, Local Call и шестима служители на израелското разузнаване, според които човешката намеса при подбора на цели е "минимален".

Длъжностните лица, цитирани в обширно разследване от онлайн изданието, управлявано съвместно от палестинци и израелци, казаха, че базираният на ИИ (изкуствен интелект/AI) инструмент се нарича "Lavender" и е известно, че има 10% грешки.

На въпрос за доклада на списание +972, Израелската армия (IDF) не оспори съществуването на инструмента, но отрекоха AI да се използва за идентифициране на заподозрени терористи. Но в пространно изявление се подчертава, че "информационните системи са просто инструменти за анализаторите в процеса на идентифициране на целта" и че Израел се опитва да "намали щетите за цивилни до степента, осъществима при оперативните обстоятелства по време на удара".

От IDF казаха, че "анализаторите трябва да проведат независими проверки, при които проверяват дали идентифицираните цели отговарят на съответните определения в съответствие с международното право и допълнителните ограничения, посочени в директивите на IDF".

Въпреки това, един служител каза на +972, "че човешкият персонал често служи само като "гумен печат" за решенията на машината" и обикновено посвещава само около 20 секунди на всяка цел - като се увери, че са мъже - преди да разреши бомбардировка.

Нетаняху призна, че Израел е убил 7 хуманитарни работници в Газа

Нетаняху призна, че Израел е убил 7 хуманитарни работници в Газа

WCM каза, че нейният конвой е бил ударен "въпреки координирането на движенията с израелската армия"

Разследването идва на фона на засиления международен контрол върху военната кампания на Израел, след като израелски въздушни удари убиха няколко чуждестранни хуманитарни работници, доставящи храна в палестинския анклав.

Израелската обсада на Газа е убила повече от 32 916 души, според Министерството на здравеопазването в Газа.

Авторът на разследването, Ювал Абрахам, каза по-рано през януари каза пред CNN за работата си, която проучва как израелската армия "силно разчита на изкуствен интелект, за да генерира мишени за такива убийства с много малко човешко наблюдение".

Израелската армия "не използва система с изкуствен интелект, която идентифицира терористични оперативни лица или се опитва да предскаже дали даден човек е терорист", се казва в изявлението на израелската армия в сряда. Но нейните анализатори използват "база данни, чиято цел е да направи кръстосани препратки към разузнавателни източници, за да създадат актуални слоеве информация за военните агенти на терористичните организации".

След това човешките офицери са отговорни за проверят, "дали идентифицираните цели отговарят на съответните определения в съответствие с международното право и допълнителните ограничения, посочени в директивите на IDF", според изявлението на израелската армия, процес, описан също от +972.

Списанието също така съобщава, че израелската армия "систематично атакува" цели в домовете им, обикновено през нощта, когато присъстват цели семейства.

"Резултатът, както свидетелстват източниците, е, че хиляди палестинци - повечето жени и деца или хора, които не са участвали в битките - са били унищожени от израелските въздушни удари, особено през първите седмици на войната, поради решенията на програмата за изкуствен интелект", се казва още в изданието.

Израелските военни се подготвят за възможна ескалация след атентата в Дамаск

Израелските военни се подготвят за възможна ескалация след атентата в Дамаск

Израел прекъсна отпуските за всички бойни части в четвъртък, след убийството на ирански генерали в Дамаск тази седмица