Seit dem Ende der Waffenruhe hat Israel wieder mutmassliche Hamas-Häuser und Tunnel im Gazastreifen angegriffen. Was bislang kaum bekannt war: Wie Israel seine Ziele auswählt. Zum einen hören die Militärs und Geheimdienste natürlich den Funkverkehr der Terroristen ab, zum anderen gibt es Spione, die verdächtige Bewegungen melden. Viel wichtiger ist aber offenbar ein anderes Werkzeug: «Gospel».
Dabei handelt es sich um ein System mit den hebräischen Namen «Habsora», auf Englisch eben Gospel, das mögliche Ziele vorschlägt. Es wird von Künstlicher Intelligenz gesteuert, und das mit atemberaubender Geschwindigkeit, wie der britische Guardian in einer aufwändigen Recherche zusammen mit dem Magazin «+972» und der Zeitung «Local Call» herausgefunden hat. Anfang November erklärte die israelische Armee, mehr als 12'000 Angriffsziele im Gazastreifen identifiziert zu haben. Gospel spielte dabei wohl eine erhebliche Rolle: Konnten früher etwa 50 Ziele im Jahr im Gazastreifen ausgemacht werden, sind es mittlerweile dank KI 100 Ziele an nur einem Tag.
Israels Armee (IDF) hat nach eigener Darstellung seit dem Ende der Feuerpause am Freitag bereits wieder Hunderte Ziele im Gazastreifen angegriffen. Dabei dürfte Gospel erneut geholfen haben. IDF erklärte dem «Guardian» zufolge, dass das System «durch die schnelle und automatische Extraktion von Informationen» Empfehlungen erstellt, «mit dem Ziel einer vollständigen Übereinstimmung zwischen der Empfehlung der Maschine und der von einer Person durchgeführten Identifizierung».
Die KI soll in den vergangenen Jahren eine Datenbank von 30'000 bis 40'000 Personen aufgebaut haben, die als mögliche Gegner Israels gelten.
Aviv Kochavi, der bis Januar Chef der israelischen IDF war, hatte schon vor dem Angriff der Hamas die KI-Systeme gelobt. Es handele sich um «eine Maschine, die effizienter als jeder Mensch riesige Datenmengen produziert und sie in Angriffsziele umwandelt». Als sie aktiviert wurde, konnte sie bereits vor zwei Jahren bis zu 100 Ziele am Tag ausspucken. Die Hälfte davon werde auch angegriffen.
«Die IDF im Jahr 2023 unterscheidet sich nicht nur von der IDF im Jahr '82 oder '73, sondern auch von der vor einem Jahrzehnt. Jede Brigade verfügt heute über einen ausgeklügelten Geheimdienstapparat, der an den Film ‹The Matrix› erinnert und Informationen in Echtzeit liefert», sagte er. Von allen technologischen Revolutionen werde «die künstliche Intelligenz wahrscheinlich die radikalste sein, im Guten wie im Schlechten», so Kochavi.
Woher die KI ihre Informationen erhält, ist Geheimsache. Laut «Guardian» gehen Experten davon aus, dass Drohnenaufnahmen, abgehörte Gespräche und elektronische Kommunikation sowie andere Datenquellen die Grundlage bilden. Daraus werden dann Muster gebildet, wie und wo sich Verdächtige aufhalten können.
Die KI-Ziele sollen dabei mit grosser Sorgfalt ausgewählt werden, berichten israelische Medien. Die Zeitung «Yedioth Ahronoth» berichtete, dass dadurch zivile Opfer vermieden werden. Eine hochrangige israelische Militärquelle sagte dem «Guardian», dass das Militär eine «sehr genaue» Messung der Zahl der Zivilisten verwenden, die ein Gebäude kurz vor einem Angriff verlassen. «Wir verwenden einen Algorithmus, um festzustellen, wie viele Zivilisten noch übrig sind. Er zeigt uns grün, gelb, rot an, wie eine Ampel.»
Die hohen Zahl der zivilen Opfer, die aus Gaza gemeldet werden, lässt dabei aber Zweifel aufkommen. Selbst wenn man berücksichtigt, dass es die von der Hamas kontrollierte Gesundheitsbehörde ist, von der die Zahlen stammen, sind sie doch sehr hoch. Das hatte selbst Premierminister Benjamin Netanjahu eingestanden.
«Schauen Sie sich die physische Landschaft des Gazastreifens an», sagte Richard Moyes, ein Forscher, der Artikel 36 leitet, eine Gruppe, die sich für die Verringerung von Schäden durch Waffen einsetzt, gegenüber dem «Guardian».
«Wir sehen, wie ein Stadtgebiet mit schweren Sprengstoffwaffen grossflächig dem Erdboden gleichgemacht wird, so dass die Behauptung, es gäbe eine präzise und begrenzte Gewaltanwendung, durch die Fakten nicht bestätigt wird.»
Nach Angaben der IDF seien in den ersten 35 Tagen des Kriegs 15'000 Ziele definiert worden, entsprechend folgten Angriffe. Nach Informationen von «Guardian» und den israelischen Journalisten von «+972» und «Local Call», wüssten die Militärs, sobald ein Ziele ausgewählt sei, wieviel zivile Opfer es geben wird.
Quellen, die die KI-basierte Systeme kennen, sagten, dass solche Werkzeuge den Prozess der Zielerstellung erheblich beschleunigt hätten.
«Wir bereiten die Ziele automatisch vor und arbeiten nach einer Checkliste», sagte eine Quelle, die früher in der Zielabteilung arbeitete, gegenüber «+972» und «Local Call». «Es ist wirklich wie in einer Fabrik. Wir arbeiten schnell, und es bleibt keine Zeit, sich eingehend mit dem Ziel zu befassen. Wir werden danach beurteilt, wie viele Ziele wir erreichen können».
Richard Moyes warnt deshlab vor dem Einsatz von KI-System. «Es besteht die Gefahr», sagte er, «dass Menschen, die sich auf diese Systeme verlassen, zu Rädchen in einem mechanisierten Prozess werden und die Fähigkeit verlieren, das Risiko eines zivilen Schadens in einer sinnvollen Weise zu berücksichtigen.»
Verwendete Quellen:
Ich bin sprachlos! WTF!!
Und die 16000+ toten Zivilisten sprechen auch für sich.