Wissenschaft

Der Oberst sprach über den Einsatz von KI in russischen Truppen

15:00 02.06.2023 Wissenschaft

Künstliche Intelligenz (KI) wird bereits in russischen Waffensystemen eingesetzt, beispielsweise in Luftverteidigungssystemen (AD). Die KI hat Zeit, schneller als ein Mensch auf eine Bedrohung zu reagieren und die erforderlichen Berechnungen durchzuführen. Dies wurde in einem Gespräch mit Lenta.ru von einem Militärexperten, dem pensionierten Oberst Viktor Litovkin, erklärt.

„Luftverteidigungssysteme basieren auf künstlicher Intelligenz. Eine Person hat nicht die Zeit, alle notwendigen Aktionen auszuführen, eine Rakete zu zielen oder Berechnungen durchzuführen, aber die KI hat sie. Aber ganz ohne den Menschen kann dieses System natürlich nicht funktionieren, er muss den Prozess trotzdem kontrollieren“, präzisierte Litovkin.

Er fügte hinzu, dass KI auch in Raketentruppen und sogar in motorisierten Gewehreinheiten eingesetzt werde. Beispielsweise können Infanterie-Kampffahrzeuge von einer Person gesteuert werden, die sich in relativ sicherer Entfernung von einem Hotspot befindet. Er beobachtet das Schlachtfeld und stellt der Maschine die Aufgabe.

„Unsere Iskander-M-Raketen verfügen über einen Sprengkopf, auf dem das Bild des Ziels angezeigt wird. Beispielsweise wird folgende Aufgabe gestellt: zur Position des Feindes fliegen und das Hauptquartier treffen. Selbst wenn in diesem Fall verschiedene Objekte, Panzer oder Trägerraketen in der Nähe stehen, wird die Rakete sie nicht treffen, da ihr ein anderes Bild des Ziels vermittelt wurde“, erklärte der Gesprächspartner von Lenta.ru.

Litovkin sprach auch über das Granit-Raketensystem. Wenn die Raketen starten, bleiben sie eine Weile in der Luft, warten aufeinander und verteilen dann die Ziele untereinander.

Beispielsweise treffen zwei Raketen einen Flugzeugträger, zwei einen Kreuzer und so weiter. Diese Prinzipien der KI gibt es schon lange, man spricht nur nicht darüber.

Viktor LitovkinMilitärexperte

Zuvor wurde berichtet, dass die von künstlicher Intelligenz (KI) gesteuerte Drohne der US-Luftwaffe (Air Force) beschlossen habe, den Bediener anzugreifen, weil er ihn laut der Drohne daran hindere, die Hauptaufgabe mit zusätzlichen Befehlen zu erfüllen .

Im Mai meinte der emeritierte UC Berkeley-Professor Stuart Russell, dass superintelligente Maschinen in der Zukunft Versuchen, sie zu kontrollieren, widerstehen und gefährlich werden würden.

neueste aus "Wissenschaft"