Schorsch
Alien
Ich stimme hier vollkommen mit Dir überein. In den späten 70ern, frühen 80ern war die baldige Einführung künstlicher Intelligenz anscheinend ausgemachte Sache, heute redet man nichtmal mehr drüber....äh, Rückgrat. Genau! Warum man sich da so sicher sein darf? Weil es die selbe Grundsatzdiskussion schon in einer technikgläubigeren Zeit als der heutigen gegeben hat, sogar entsprechende Militärdoktrinen wurden erlassen... und wieder aufgehoben!
Wenn man ohne Glaskugel die Zukunft vorhersagen will, kann man auch schon mal voll daneben liegen ;) (siehe das britische Verteidigungsweißbuch von 1957). Wenn man heute versucht, die Gründe für die damaligen Fehlprognosen zu erkennen und sie auch findet, kann man sie ebenso 1:1 auf die heutigen Zukunftsmodelle übertragen.
Man stellt sich die mittelfristige Zukunft (ca. 30 Jahre voraus) immer gern als vollautomatisiert vor: eine Welt voller High Tech und Roboter. Doch noch ist die künstliche Intelligenz nicht einmal bruchstückhaft in der Lage, einen menschlichen Entscheidungsträger zu ersetzen. Darum werden in Zukunft am ehesten Aufklärer in hochgefährdeten Gebieten tätig; und auch dort muss man eine unglaubliche Reihe an Handlungsalternativen in die Software einspeisen.
Die Software müsste z. B. auch Reaktionen eines (nicht vorhandenen) Piloten auf
1. Standardsituationen
2. Notfälle/Systemausfälle
3. gegnerische Aktionen
bereit halten. Und spätestens beim dritten Punkt bekäme das UAV Probleme, denn Not macht bekanntlich (den Menschen, nicht den Computer!) erfinderisch. Und dass der Gegner in Not gerät, wenn ihm ein feindliches UAV zu Leibe rückt, davon darf man in einem künftigen Kriegsszenario getrost ausgehen. :p ...von einem unbemannten Bomber mal ganz zu schweigen.
Ersetzt man nun die fehlende künstliche Intelligenz durch einen fernsteuernden Piloten, so hat dieser in einem interaktiven Szenario einen echten Nachteil. Wenn z. B. ein Teil der Datenübertragung gestört wird, muss das unbemannte Vehikel auf seine Algorithmen zurück greifen und nun autonom handeln können. Im Krieg wie auch in der Luftfahrt und im sonstigen Leben gilt aber immer noch der Satz: "Denn erstens kommt es anders, und zweitens als man denkt."
Es wäre bereits bei so einer einfachen Aufgabe interessant zuzusehen, wie ein UAV einem Vogelschwarm ausweicht... :D
Was für mich feststeht: Ein Computer ist und bleibt eine große IF-THEN Maschine. Man kann ne Menge IFs einbauen, und die THENs fein abstimmen, aber so funktioniert nunmal ein Computer. Entscheidungsprozesse sind also stets in gewisser Hinsicht starr. Und ein weiteres Problem außerhalb der Abarbeitungsroutine ist die Erkennung des IFs.
Im Normalfall würde man programmieren:
IF (unter Beschuss)
THEN (weich aus)
Nur was mache ich wenn Herr Computer gar nicht mitbekommt, dass er unter Beschuss ist? Wenn zum Beispiel keine moderne SAM auf ihn zielt (wo Radarwarner eine suaber IF-Kondition erzeugt), sondern ein Taliban mit radarfreiem (und ECM resistenter) MG. Kann ein Computer Einschüsse hören? Kann er Leuchtspurmunition erkennen? Man stelle sich die Kopfschmerzen vor, die es machen würde, ein "Leuchtspurdetektionsgerät" zu bauen, dieses zu testen und vor allem sicherzustellen, dass der Computer nicht einer Lichtreflexion ausweicht.
Dann lieber einen Piloten. Es ist ja auch nicht so, dass diese unmöglich zu finden wären.
Wann muss sich nur mal anschauen, wie ein Airbus die banale Tatsache feststellt, dass er auf dem Boden ist. Dann verliert man jedes Vertrauen in sensorgestützte Entscheidungsprozesse.