[IMI-List] [0655] IMI-Studie Rheinmetall / KI im Gaza-Krieg / Material 1. Mai

IMI-JW imi at imi-online.de
Di Apr 16 10:47:45 CEST 2024


----------------------------------------
Online-Zeitschrift "IMI-List"
Nummer 0655 – 27. Jahrgang
----------------------------------------


Liebe Freundinnen und Freunde,

in dieser IMI-List findet sich

1.) Die soeben veröffentlichte IMI-Studie: Rheinmetall: Vom 
Schmuddelkind zur Systemrelevanz;

2.) eine IMI-Analyse mit neuen Erkenntnissen zur Anwendung künstlicher 
Intelligenz im Gaza-Krieg.

Zuvor noch kurz ein weiterer Hinweis: Anlässlich des nahenden 1. Mais 
haben wir den Artikeln zum „Schulterschlusspapier“ von SPD, IG Metall 
und Rüstungslobby als PDF zum Auslegen auf Büchertischen etc. 
gelayoutet: https://www.imi-online.de/2024/02/14/schulterschluss-ruestung/

Wer sonst noch Material sucht, kann gerne kostenlos beim DFG-VK 
Materialshop unsere Factsheets „Rüstung“ bestellen: 
https://shop.dfg-vk.de/?product=factsheet-ruestung-februar-2024 (das 
Factsheet Klima & Krieg gibt es bei den Naturfreunden Berlin)


1.) IMI-Studie: Rheinmetall: Vom Schmuddelkind zur Systemrelevanz

Rüstungskonzerne sind in aller Munde, insbesondere in den Medien, wo der 
wohl am häufigsten genannte Name der deutsche Rheinmetall-Konzern ist.

Die neue IMI-Studie „Vom Schmuddelkind zur Systemrelevanz“ untersucht 
die Darstellung von Rheinmetall in den Medien vor und nach dem 
russischen Angriff auf die Ukraine.

Dafür wurden 750 Artikel der sogenannten Leitmedien ausgewertet, um so 
den Veränderungen der Berichterstattung auf die Spur zu kommen.

IMI-Studie 2024/01
Von der Schmuddelecke in die Systemrelevanz
Die mediale Zeitenwende im öffentlichen Diskurs über Rheinmetall
https://www.imi-online.de/2024/04/16/von-der-schmuddelecke-in-die-systemrelevanz/ 

Jonas Uphoff (16. April 2024)

Inhaltsverzeichnis
Einleitung: Eine schwindelerregende Aufstiegsgeschichte
Die Rolle der Medien
Herausforderung für Politik und Industrie: Das negative Image der Rüstung
Untersuchung der Diskursverschiebung
Die wichtigsten Veränderungen im Diskurs
1. Deutlich weniger Kritik
2. Der Zweck rechtfertigt die Mittel
3. Dynamische Wirtschaft, lahme Politik
4. Technologiebegeisterung
5. Armin Papperger: „Vom Underdog zum Held der Stunde“
Doku „Inside Rheinmetall“: Rüstungsindustrie zum Anfassen
Fazit: Gekommen, um zu bleiben
Anmerkungen

Gesamte Studie hier: 
https://www.imi-online.de/2024/04/16/von-der-schmuddelecke-in-die-systemrelevanz/ 




2.) IMI-Analyse: KI im Gaza-Krieg

IMI-Analyse 2024/22
„Assistenz“ beim Bombardement in Gaza
Was bedeutet „Künstliche Intelligenz“ im urbanen Krieg?
https://www.imi-online.de/2024/04/15/assistenz-beim-bombardement-in-gaza/
Christoph Marischka (15. April 2024)


Erste Veröffentlichung: Habsora

Bereits Ende November 2023 hatte der israelische Journalist Yuval 
Abraham im +972Mag und der hebräischen Zeitung Local Call einen 
vielbeachteten Bericht veröffentlicht, wonach die israelische Armee 
(IDF) in großem Maßstab Künstliche Intelligenz (KI) einsetze, um Ziele 
zu identifizieren, die anschließend in Gaza bombardiert werden.[1] Im 
Mittelpunkt stand damals ein System namens „Habsora“, auf Englisch meist 
mit “The Gospel” übersetzt. Der Beitrag basierte im Wesentlichen auf 
Aussagen aktiver und ehemaliger israelischer Militärs, die im weiteren 
Sinne mit der Zielauswahl beschäftigt waren und angaben, „Habsora“ 
basiere auf KI und ermögliche es, in großer Geschwindigkeit Ziele zu 
„produzieren“. Die Anwendung von Habsora und anderen datenverarbeitenden 
Systemen hat demnach dafür gesorgt oder dazu beigetragen, dass der IDF 
bei ihrer massiven Luftkampagne über dicht besiedeltem Gebiet nicht die 
Ziele ausgingen und dieses massive Bombardement in seiner Intensität 
überhaupt durchgeführt werden konnte. Zugleich habe es dazu geführt, 
dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog. 
„Power Targets“ (mehrstöckige zentrale Wohngebäude oder 
Verwaltungsgebäude) überhaupt ausgeführt worden seien. Bereits damals 
wurde der Vorwurf geäußert und mit Zitaten unterlegt, wonach die 
automatisch generierten Ziele zwar nochmal von Menschen bestätigt, dafür 
aber jeweils nur sehr kurze Zeit aufgewendet worden wären. Die 
Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele, 
die in der ersten Woche täglich auf einer Fläche angegriffen wurden, 
welche nur etwas größer ist, als das Gebiet der Stadt München. Nach 
weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen 
Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit 
22.000 angegeben.

Völkerrechtlich wären die IDF bei jedem Angriff, bei dem auch mit 
zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren 
militärischen Nutzen mit den erwartbaren zivilen Opfern in ein 
Verhältnis zu setzen und abzuwägen. Diese Verpflichtung dürfte bei 
nahezu allen Zielen bestanden haben und ihre Einhaltung lässt sich 
angesichts der schieren Masse angegriffener Ziele kaum plausibel 
darstellen – es sei denn, die Abwägung wäre auf der Grundlage 
automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen 
erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die 
Informationsstelle Militarisierung hat deshalb Mitte Dezember 
vermutet,[2] dass die IDF sogar ein Interesse daran gehabt haben 
könnten, dass der großflächige Einsatz von KI bei der Zielfindung 
bekannt wird, um ihrem Vorgehen zumindest oberflächlich den Anstrich 
einer – neuartigen – völkerrechtlichen Legitimität zu verleihen, wonach 
große Teile der gebotenen „Abwägung“ an vermeintlich „intelligente“ 
datenverarbeitende Systeme delegiert wurden. Die Opferzahlen, die zum 
Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich 
kaum von denen, die bei einer vollkommen willkürlichen Bombardierung 
eines dicht besiedelten Gebietes erwartbar wären. Der Autor Yuval 
Abraham bezifferte diese bis zum Waffenstillstand vom 23. November auf 
14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die IDF 
hingegen schätzten die Zahl der getöteten Militanten etwa zum gleichen 
Zeitpunkt auf 1.000 bis 3.000.

Lavendar und „Daddy's Home?“

In einer weiteren Publikation vom 3. April 2024 in Kooperation mit dem 
britischen Guardian beschrieb Yuval Abraham basierend auf den Aussagen 
von sechs Beteiligten der IDF zwei weitere Systeme, die an der 
Zielauswahl der IDF beteiligt sein sollen.[3] Dabei handelt es sich 
einerseits um ein System namens „Lavender“ (Lavendel), welches Listen 
vermeintlicher militanter Angehöriger der Hamas und des Islamischen 
Dschihads erstelle, andererseits eine Software mit dem ausgesprochen 
zynischen Namen „Daddy's Home?“ welches Alarm schlage, wenn solche 
Personen die ihnen zugeordnete Wohnung beträten. Lavender arbeite 
demnach KI-basiert und werte die Daten aus, die der israelische 
Geheimdienst in einem System der Massenüberwachung über die meisten der 
2,3 Mio. Bewohner*innen Gazas gesammelt habe. Mithilfe Maschinellen 
Lernens werde jeder dieser Personen ein Wert zwischen eins und 
einhundert zugeordnet, der die Wahrscheinlichkeit ausdrücke, nach der es 
sich um ein militantes Mitglied der beiden Organisationen handele. Nach 
wechselnden Vorgaben erzeugte das System auf dieser Grundlage Listen so 
genannter Human Targets, die in der Spitze 37.000 Menschen umfasst habe, 
die dann als legitime Ziele für gezielte Angriffe gegolten hätten, 
selbst wenn dabei auch Zivilisten getötet würden. Auszüge dieser Listen 
mit hunderten Identitäten seien dann in Systeme wie Daddy's Home? 
eingespeist worden, wodurch die mit ihnen assoziierten Wohneinheiten in 
dem Moment als Ziele vorgeschlagen worden seien, wo sie diese 
(vermeintlich) betraten. Inwiefern diese beiden nun benannten Systeme 
mit Habsora interagieren, das v.a. Gebäude für die Bombardierung 
identifiziert haben soll, bleibt dabei etwas unklar.

Der Umfang und die jeweilige Auswahl von Identitäten, die so als 
potentielle Ziele definiert wurden, sei nicht auf Führungsebene erfolgt, 
sondern recht freihändig von einzelnen Beteiligten. Demgegenüber scheint 
es so, als sei die militärische Führung dafür verantwortlich gewesen, 
wechselnde Zahlen festzulegen, die angaben, wie viele Zivilisten bei der 
Tötung eines einfachen Zieles in Kauf genommen werden dürften. In der 
ersten Woche des Krieges hätten hier keine Restriktionen bestanden, 
später habe diese Zahl mal 20 und manchmal auch fünf betragen. Für 
hochrangige, persönlich bekannte Ziele seien jedoch in einzelnen, 
dokumentierten Fällen auch drei und gelegentlich gar vierstellige 
Opferzahlen in Kauf genommen worden. Etwas unklar bleibt, auf welcher 
Grundlage die Zahl potentieller ziviler Opfer geschätzt wurde. Der 
Journalist Yuval Abraham zitiert zumindest eine seiner Quellen mit der 
Aussage, man habe die Menschen nicht wirklich gezählt, weil man nicht 
gewusst habe, wer zuhause ist und wer nicht. Später wird etwas 
ausführlicher ein System beschrieben, welches auf Berechnungen basierte, 
die eine Software vor dem Krieg angestellt habe, um zu schätzen, wie 
viele Personen in einem Gebäude leben. Diese Zahl sei dann jeweils mit 
einem Faktor multipliziert worden, der den Anteil derjenigen schätzte, 
die insgesamt bereits aus dem jeweiligen Gebiet geflohen seien. „Dieses 
Modell hatte keinen Bezug zur Realität“ wird eine der Quellen zitiert. 
Mehrere Quellen hätten bestätigt, dass anders als in früheren Kriegen 
das jeweilige Ziel nicht genauer beobachtet worden wäre, um zu einer 
seriöseren Schätzung der (anwesenden) Zivilisten zu kommen.

Einblicke in die Technik und ihre Anwendung

Bei der Software zur Zielerkennung handelt es sich natürlich um 
komplizierte und hochgradig sensible Informationen, sodass auch die 
ausführliche Darstellung Abrahams auf der Grundlage anonymer Quellen nur 
bedingte Schlussfolgerungen erlaubt. Teilweise bleibt unklar, ob sich 
die jeweiligen Angaben auf Lavender, Daddys Home? oder andere Systeme 
beziehen, die – mit ihnen verbunden oder nicht – in ähnlichen Funktionen 
zum Einsatz kommen. Für Lavender wird allerdings recht eindeutig 
nahegelegt, dass es auf Künstlicher Intelligenz im engeren Sinne des 
Maschinellen Lernens beruhe und mit Daten über individuell dem 
Geheimdienst „bekannte“ Mitglieder der Hamas und des Islamischen 
Dschihad „trainiert“ worden sei. Später sei jedoch einer Quelle zufolge 
die Entscheidung getroffen worden, auch Angestellte des (von der Hamas 
geführten) Ministeriums für innere Sicherheit einzubeziehen, bei denen 
es sich um Polizisten oder Mitglieder der Zivilverteidigung handeln 
kann, die nicht als „Militante“ und auch im völkerrechtlichen Sinne 
nicht als Kombattanten betrachtet werden könnten. Später sei das so 
trainierte System dann mit den verfügbaren Daten mehr oder weniger auf 
die gesamte Bevölkerung angewandt worden, um tausende Menschen zu 
identifizieren, die damit buchstäblich zum Abschuss freigegeben wurden.

In den ersten zwei Wochen des Krieges sei ein „zufälliges Sample von 
mehreren hundert“ so identifizierten Zielen „händisch“ geprüft worden, 
woraus sich eine Zuverlässigkeit von 90% ergeben hätte. Seit dem sei das 
System großflächig bei der Zielfindung zum Einsatz gekommen und seine 
Ausgabe habe quasi die Funktion eines militärischen Befehls gehabt – 
ohne jede Verpflichtung, die zugrunde liegenden Rohdaten oder die 
Variablen, auf denen die Einschätzung basierte, zu prüfen. Die einzige 
Überprüfung, die das Protokoll vor der Anordnung eines Luftschlags 
vorgesehen habe, sei die Bestätigung gewesen, dass es sich bei der 
Zielperson (nicht den erwartbaren Kollateral-Opfern) tatsächlich um eine 
männliche Person handelt. Dieser Prozess habe nach verschiedenen Angaben 
„nur wenige Sekunden“ bzw. „20 Sekunden“ in Anspruch genommen und meist 
darin bestanden, dass man in eine mit dieser Person assoziierte 
Audio-Aufnahme hineingehört und auf diese Art das Geschlecht „bestimmt“ 
habe.

Zugleich schockierend, wie auch plausibel sind die Angaben, die zum 
Battle Damage Assessment (BDA) gemacht werden, also zur einem Angriff 
üblicherweise folgenden Überprüfung des angerichteten Schadens bzw. 
militärischen Erfolges. Sie ermöglicht eine Einschätzung, ob das 
militärische Ziel erreicht wurde und wie viele zivile Opfer dabei 
getötet oder verwundet wurden. Dies fand bei den Luftschlägen in Gaza 
wohl flächendeckend kaum statt. Plausibel ist dies aus verschiedenen 
Gründen, darunter die stark schwankenden und ungenauen Angaben der IDF 
zur Zahl getöteter Hamas-Kämpfer einerseits wie auch die schiere 
Unmöglichkeit angesichts der großflächigen Zerstörung. Es mag dies auch 
ein Grund sein, warum Israel auch vor internationalen Gerichten den 
meist von den Hamas-Behörden stammenden Angaben zur Zahl der Getöteten, 
Verwundeten und Vermissten keine eigenen, seriösen Schätzungen 
entgegenhalten kann. Am Rande erfahren wir im Beitrag Abrahams auch, wie 
dieses Assessment früher erfolgt ist: Durch das Abhören von Telefonaten 
der Verwandten der anvisierten Zielpersonen.

Überhaupt scheint sich viel der vermeintlich fortschrittlichen 
Überwachungstechnologie neben Drohnenaufnahmen letztlich im Orten, 
Abhören und Analysieren von Mobilfunkdaten zu erschöpfen. So werden als 
konkrete Quellen für die Einstufung durch Lavender genannt: “visuelle 
Informationen, Mobilfunkdaten, Verbindungen bei den Social Media, 
Informationen vom Schlachtfeld, Telefonkontakte, Fotos“. Etwas 
deutlicher wird dies noch bei den Angaben einer Quelle zu möglichen 
Fehleinschätzungen durch Lavender, da häufig Mobiltelefone ausgetauscht 
und verliehen würden. Auch die Einschätzung des Anteils der Bevölkerung, 
der bereits aus einem Gebiet geflohen sei, beruht demnach auf der 
Auswertung von Mobilfunkdaten. Es gibt auch keine Hinweise darauf, dass 
es sich bei Daddy's Home? um viel mehr handelt als eine Handy-Ortung, 
die Alarm schlägt, wenn der Verdächtige (oder eine andere Person) mit 
seinem Gerät an den Koordinaten erfasst wird, die als seine Wohnung 
verzeichnet ist. Das bedeutet: fast alles, was Israel hier vorgeworfen 
wird, scheint weniger von besonders fortgeschrittener Technologie 
abzuhängen als dem Willen, überall vorhandene Daten für eine umfassende 
Kriegführung einzusetzen – und natürlich dem umfassenden Zugriff auf 
Informationen, den Israel in Gaza hat.

Besonders brutale Kriegführung

Während in diesem Beitrag der Einsatz dieser Technologien durch Israel 
in Gaza im Mittelpunkt steht, offenbart der Artikel von Abraham andere 
Aspekte der israelischen Kriegführung, die rechtlich wahrscheinlich noch 
deutlich schwerwiegender sind und deren Zusammenhang mit den verwendeten 
Technologien zumindest kein unmittelbarer ist. Dies gilt v.a. für die 
politisch definierten Einsatzregeln auf verschiedenen Ebenen. So wurden 
in den vergangenen militärischen Auseinandersetzungen (vermeintliche) 
Militante niederen Ranges von Israel angeblich nicht als Ziele 
definiert, die jenseits konkreter militärischer Auseinandersetzungen ins 
Visier genommen werden und auch um den Preis ziviler Opfer getötet 
werden konnten. Eine der Quellen benutzt hierfür den Begriff eines 
„Müll-Ziels“, dessen militärische Relevanz so gering sei, dass es den 
Einsatz einer Bombe gar nicht wert wäre. Gerade deshalb, so ein weiteres 
Zitat, sei für solche Ziele „dumme“, ungelenkte Munition eingesetzt 
worden, die wesentlich billiger sei, aber eben auch gleich das ganze 
Gebäude zerstöre und demnach erwartbar mehr zivile Opfer fordere. Am 
Rande wird hier auch ein Grund genannt, welcher diesen oft kritisierten, 
großflächigen Einsatz ungelenkter, aber sehr schwerer Munition jenseits 
der damit verbundenen und vermutlich auch beabsichtigten Grausamkeit 
begründet. Die teurere, präzisere Munition sollte für den Fall „gespart“ 
werden, falls doch noch andere, militärisch schlagkräftigere Akteure aus 
der Region in größerem Stil in den Konflikt eingreifen sollten.

Völkerrechtlich besonders problematisch erscheint eine Entscheidung, 
welche die israelische Armeeführung getroffen habe und die im 
Zusammenhang mit Daddy's Home? zu stehen scheint. Mehrere Quellen hätten 
demnach angegeben, dass identifizierte Ziele systematisch und 
absichtlich nicht in militärisch genutzten Räumlichkeiten angegriffen 
worden seien, während sie sich (zumindest mutmaßlich) an der 
militärischen Auseinandersetzung beteiligt hätten, sondern eben wenn sie 
ihre privaten Unterkünfte betreten hätten, weil dies einfacher sei. Der 
Vorwurf, dass damit eine Absicht verbunden wäre, die ganze Familie zu 
bestrafen und auszulöschen, wird in diesem Zusammenhang nicht erhoben - 
er drängt sich jedoch auf.

Gegendarstellung der IDF

Der Artikel von Yuval Abraham zu Lavender und Daddy's Home? wurde in 
Kooperation mit dem britischen Guardian veröffentlicht, der am selben 
Tag seinerseits einen Beitrag über die Recherchen von Abraham 
herausbrachte und eine Stellungnahme der IDF veröffentlichte.[4]

Am deutlichsten weisen die israelischen Streitkräfte darin den Vorwurf 
zurück, dass irgendeine Richtlinie („policy“) existiere „zehntausende 
Menschen in ihren Wohnungen zu töten“. Der Existenz der Software 
„Daddy's Home?“ und auch einer weit verbreiteten Praxis, vermeintliche 
Militante unter Inkaufnahme ziviler Opfer in ihrer Wohnstätte zu töten, 
wird damit jedoch genau genommen nicht widersprochen. Es wird jedoch 
ausführlich versichert, dass die IDF ihren völkerrechtlichen 
Verpflichtungen nachkämen und ihre Protokolle vorschreiben würden, dass 
„für jedes Ziel eine individuelle Bewertung des angestrebten 
militärischen Vorteils und der erwarteten Kollateralschäden“ vorgenommen 
würde. „Die IDF führen keine Angriffe durch, wenn die erwarteten 
Kollateralschäden in einem exzessiven Verhältnis zum militärischen 
Nutzen stehen… Die IDF überprüfen Ziele vor der Durchführung eines 
Angriffs und wählen die angemessene Munition in Übereinstimmung mit 
operationellen und humanitären Erwägungen unter Berücksichtigung der 
Einschätzungen zu strukturellen und geografischen Eigenschaften des 
Ziels, der Umgebung des Ziels, möglichen Auswirkungen auf Zivilisten und 
kritische Infrastrukturen in der Nähe und weiteren [Variablen].“ Diese 
Formulierungen sind nahezu deckungsgleich mit den völkerrechtlichen 
Vorgaben. Wie glaubwürdig sie angesichts des Ausmaßes der Zerstörungen 
und der vagen Angaben über getötete Kombattanten sind, wird freilich 
unterschiedlich bewertet und beschäftigt gerade unterschiedliche 
internationale Gerichte.

Ausführlicher ist die Stellungnahmen auch zum Einsatz von KI bei der 
Zielfindung: „Anders als behauptet wird, nutzen die IDF kein KI-System, 
das Terroristen identifiziert oder vorhersagt, ob eine Person ein 
Terrorist ist. Informations-Systeme sind lediglich Werkzeuge für 
Analysten im Prozess der Zielidentifikation. Unserer Richtlinien sehen 
vor, dass Analysten unabhängige Untersuchungen durchführen, um zu 
verifizieren, dass die Ziele den relevanten Definitionen entsprechen in 
Übereinstimmung mit dem internationalen Recht und weiteren 
Einschränkungen, die in unseren Richtlinien festgelegt wurden.“

Bei dem angesprochenen „System“ (gemeint ist vermutlich Lavender) handle 
es sich „nicht um ein System, sondern einfach um eine Datenbank, deren 
Zweck darin besteht, Aufklärungsdaten miteinander zu verknüpfen und 
aktuelle Ebenen von Informationen zu militärischen Angehörigen 
terroristischer Organisationen zu erzeugen. Es stellt keine Liste mit 
bestätigten militärischen Angehörigen dar, die für Angriffe autorisiert 
wären.“

Tatsächlich kann hier an einigen Punkten beides wahr sein: Darstellung 
und Gegendarstellung. Die Grenzen zwischen einer Datenbank, die 
Informationen „verknüpft“ bzw. aufarbeitet und einer Künstlichen 
Intelligenz sind eine Frage der Definition und tw. so fließend, wie die 
Grenze zwischen einem System, das eine Datenbank ist und einer KI, die 
auf diese zugreift. Wie gesagt legt auch der Beitrag von Abrahams nicht 
unbedingt nahe, dass hier grundlegend neue Technologien zum Einsatz 
kommen. Der Knackpunkt ist allerdings das unscheinbare Wort 
„unabhängig“. Wenn die Informationssysteme Werkzeuge sind, welche die 
Informationen aufbereiten, ist unwahrscheinlich, dass die Analysten 
wirklich „unabhängig“ von diesen entscheiden. Ob bereits bei 20 Sekunden 
oder auch drei Minuten auf der Grundlage dieser (und anderer) Werkzeuge 
von einer „unabhängigen Überprüfung“ gesprochen werden kann, ist 
wiederum Definitionsfrage. Diese Definitionen werden gerade verschoben 
und ausgehandelt. Das Verhältnis zwischen den Eigendynamiken der Technik 
und der vermeintlichen menschlichen Kontrolle ist prekär und mit jedem 
Krieg und jedem Massaker verändert es sich weiter zulasten des gesunden 
Menschenverstandes.

Anmerkungen

[1] Yuval Abraham: ‘A mass assassination factory’ - Inside Israel’s 
calculated bombing of Gaza, 30.11.2023, 
https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

[2] Christoph Marischka: Gaza - KI-basierte Bombardierung, 
IMI-Standpunkt 2023/049, 8.12.2024, 
https://www.imi-online.de/2023/12/08/gaza-ki-basierte-bombardierung/.

[3] Yuval Abraham: ‘Lavender’ - The AI machine directing Israel’s 
bombing spree in Gaza, 3.4.2024, 
https://www.972mag.com/lavender-ai-israeli-army-gaza/.

[4] IDF via theguardian.com: Israel Defence Forces’ response to claims 
about use of ‘Lavender’ AI database in Gaza, 3.4.2024, 
https://www.theguardian.com/world/2024/apr/03/israel-defence-forces-response-to-claims-about-use-of-lavender-ai-database-in-gaza.



Mehr Informationen über die Mailingliste IMI-List