contradictio.de

Kritik an Ideologien, Aufklärung über populäre Irrtümer, Kommentare zum Zeitgeschehen

Björn Hendrig: Künstliche Intelligenz – Apocalypse now?

Von • Juli 3rd, 2023 • Kategorie: Allgemein

Björn Hendrig: Künstliche Intelligenz – Apocalypse now?

Nicht mehr Menschen töten im Krieg, sondern Maschinen. Mit KI ist das denkbar. Ihre Schöpfer warnen sogar vor der Auslöschung der Menschheit durch sie. Was kommen kann und was wohl nicht. (Teil 3 und Schluss)

Deutschland hat sich frühzeitig mit dem Thema KI befasst. Bereits 2019 hat eine „Projektgruppe KI und Staat“ in der Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages Überlegungen dazu vorgelegt. Den Augenmerk richteten die Politiker der Bundestagsfraktionen auf drei Bereiche:

1.KI in der öffentlichen Verwaltung, gemeinwohlorientierte Anwendungen, Teilhabe
2.Smart City und Open Data
3.Innere Sicherheit, Äußere Sicherheit/Verteidigung/Militär, IT-Sicherheit

Neben den schon damals als vielversprechend diskutierten Optionen, den Staat noch effizienter zu organisieren, kam auch die militärische Anwendung von KI zur Sprache. Denn was wäre, wenn andere Staaten diese neue Technik für überlegene Gewaltmittel einsetzten?

„Auch im Bereich der Äußeren Sicherheit und Verteidigung sieht die Projektgruppe eine Vielzahl von KI-Anwendungen, deren Einsatz positive Effekte bringen kann und die allgemein nicht umstritten sind. Bei dem kritischen Bereich der Tödlichen Autonomen Waffensysteme („Lethal Autonomous Weapon Systems (LAWS)“) erzielte die Projektgruppe den Konsens, dass diese Waffen international geächtet werden sollen. […]

Die Mehrheit der Projektgruppe sprach sich auch dafür aus, dass bei der sicherheitsrelevanten KI-Forschung eine starke Kooperation im Rahmen der EU vorangetrieben werden soll, um die europäische Position zu stärken und die Technologieführerschaft bei schnellen Innovationen nicht anderen Staaten, beispielsweise den USA oder China, zu überlassen.“
Deutscher Bundestag, Enquete-Kommission Künstliche Intelligenz

Schneller als der Feind sein, seine Bewegungen früher erkennen und die passenden Waffen auf ihn richten und abfeuern: Dazu kann KI eine Menge beitragen. In den modernen Waffensystemen arbeiten seit langem Rechner mit spezialisierten Algorithmen, beispielsweise in Panzern, U-Booten, Raketen, Drohnen, Radaranlagen oder Aufklärungsflugzeugen – die vollständige Liste ist noch viel länger.

Eine KI, die auf Basis der militärischen Aufklärungsdaten und ihrem Lernen im Krieg in der Lage ist, eigenständig Waffen auf den Feind zu richten und ihn zu vernichten, fügte dem Schlachtfeld eine neue Qualität hinzu.

Nun bereitet die Technik nicht nur die beste Situation für die sie anwendende Kriegspartei vor, auf dass der sie benutzende Soldat im richtigen Moment auf den tödlichen Knopf drückt. Sondern der Soldat kann überflüssig werden. Seinen Job übernimmt die Maschine – rasend schnell und eiskalt.

So könnte ein Staat mit deutlich weniger Soldaten als der Feind trotzdem im Krieg bestehen. Sehr interessant für Nationen wie beispielsweise Deutschland, das gegenüber dem aktuellen Feind Russland und dem nächsten großen Gegner China in puncto Menschenmaterial klar das Nachsehen hat…

Dem Opfer kann es zwar ziemlich egal sein, durch wen es umkommt. Aus Sicht der Anwender ergibt sich allerdings mit den Tödlichen Autonomen Waffensystemen ein Problem: Der Regierung kann die Kriegsführung entgleiten. Nicht in dem Sinne, dass es zu Kollateralschäden kommt. Bei Bombardements und Artillerie-Beschuss werden stets auch militärisch unbedeutende Gebäude und Zivilisten getroffen. Das ist brutaler Alltag in modernen Kriegen.

Wenn es schlecht läuft, steuert KI aber auf dem Schlachtfeld kriegerische Aktionen, die dem menschlichen Schlachtplan zuwider laufen. Es werden andere Ziele angegriffen, andere Einheiten des Feindes, unter Einsatz von Mensch und Material, das anderswo vielleicht fehlt usw.

Unter Umständen legt die KI nahe, dass die Zerstörung von Infrastruktur des Feindes – wie Wohngebäude, Kraftwerke, Fabriken – aktuell sehr vorteilhaft ist und konzentriert sich darauf. Das passiert zwar auch menschengemacht in den meisten Kriegen; es wird aber offiziell geächtet.

Nun bereitet die Technik nicht nur die beste Situation für die sie anwendende Kriegspartei vor, auf dass der sie benutzende Soldat im richtigen Moment auf den tödlichen Knopf drückt. Sondern der Soldat kann überflüssig werden. Seinen Job übernimmt die Maschine – rasend schnell und eiskalt.

Das Ideal im Kriegsrecht der Haager Landkriegsordnung und der Genfer Konvention lautet nun einmal: Nur die zum Töten und Zerstören berechtigten Krieger dürfen übereinander herfallen. Die „Nicht-Kombattanten“ sollen außen vor bleiben. Diese Trennung findet tatsächlich nicht statt – und jeder, der sich mit dem Thema befasst, weiß das. Im Krieg zählt nur eins: Den Gegner zu besiegen, und zwar mit allen Mitteln.

Moralisch akzeptabel töten – das können nur Menschen!

Nützliche Apokalypse: KI-Entwickler warnen vor ihrer Schöpfung

„Fluch oder Segen“? Wie bei jeder Technik die falsche Frage

Noch gibt es keine KI, die Entscheidungen autonom trifft, unabhängig von der menschlichen Vorgabe. Indem sie auf Basis des vorliegenden Datenmaterials und ihrer Algorithmen ungeahnte logische Verknüpfungen herstellte, lernte – im Hinblick auf das von Menschen diktierte Ziel jedoch eine falsche Entscheidung treffen könnte. Daran arbeiten allerdings einige KI-Forscher – und dass natürlich mehrheitlich richtige Entscheidungen herauskämen.

Inwieweit sie ihrer Begeisterung für die neue Technik erliegen und sie überschätzen, oder sie tatsächlich so etwas wie eine denkende Maschine erschaffen, ist derzeit nicht abzusehen. Die führenden Staaten beobachten jedenfalls mit Argusaugen, wohin sich das entwickelt und welche Chancen und Risiken sich daraus für den Reichtum ihrer Nation und die darauf basierende Macht ergeben.

Ein „Monster“ ist KI nicht. Vor allem nicht etwas, was wie aus heiterem Himmel über die Menschheit kommt und wahllos nach Anwendungen sucht. Sondern KI hilft Unternehmen und Staaten, ihre Ziele noch besser zu verfolgen. Selbstverständlich muss die Künstliche Intelligenz dazu ganz gezielt und mit möglichst wenigen Fehlern ihre Leistung bringen.

Darum, dass sie dies zuverlässig schafft, kursieren die vielen Bedenken. Wenn das durch entsprechende Verbesserungen funktioniert, steht der Verbreitung von KI nichts im Wege.

Die unterliegende Konkurrenz mag dann vielleicht fluchen, und die Sieger genießen den Segen des Erfolgs. „Fluch oder Segen“ ist aber bei KI, wie bei jeder Technik, die falsche Frage. Sondern es kommt darauf an, wer Technik mit welchem Zweck benutzt. Für Profit und Macht eingesetzt sehen die Folgen halt anders aus als für ein Leben mit wenig Arbeit, viel Genuss und keinen Kriegen.

https://www.telepolis.de/features/Kuenstliche-Intelligenz-Apocalypse-now-9199773.html?seite=all

Comments are closed.