Wieso zu viel Rechenpower? Was muss man kontrollieren, versteh nicht was du meinst. Hier gehts nicht um rechenintensive (optische) Umgebungsanalysen. Die Sensordaten liegen vor, die muss man "nur" mit korrekter Logik verarbeiten, dazu braucht es keine brachiale Rechenpower. Diese denkbaren Analysen schafft auch ne lahme Rechenkrücke in "Echtzeit". Und zum Thema sicher mit Daten umgehen, wie schon erwähnt ... du musst wissen wo sich der Fehler befindet. Da kann man doch nicht unter dem Strich schreiben, man wisse nicht wo sich der Fehler befunden hat, wenn man es angeblich behoben hat.
Wenn du alle eingehenden Daten jeweils einzeln überprüfen würdest, ob sie zulässig sind (also innerhalb des erwarteten Zahlenbereiches), etc.. dann hast du schlicht aufgrund der Masse der zu überprüfenden Daten ein Problem. Diese Überprüfung muss nicht zentral erfolgen, sondern kann (und wird meist) z.B. schon am Sensor laufen, aber wenn in einem Modul Daten aus mehreren Quellen zusammenlaufen und nur bestimmte Konstellationen das Problem verursachen, dann musst du dies in dem entsprechenden Modul abfangen, also wird dies umfangreicher und benötigt damit mehr Rechenzeit um zum Abschluss des Verarbeitungsvorganges zu kommen.
Richtig übel wird es aber, wenn sich an zentralen Stellen nicht nur Anwendungssoftware, sondern auch noch Firmware und hardwired logic treffen. Solche Nüsse zu knacken ist immer ein kleines Abenteuer, aber doch erstaunlich oft von Erfolg gekrönt. Meist erfolgt dann ein Redesign selbst von "fehlerfreier" Software und Firmware-Updates. Da gibt es dann plötzlich schon fertige, aber nicht publizierte Patches für "weltweit erstmalig aufgetretene Störungen".
Ich gebe dir recht, dass externe Ermittler ohne Zugang zu den Software, Labs, deren Testunterlagen und soweit noch verfügbar den Software-Entwicklern wenig Chancen haben einen solchen Fehler zu finden. Mit den Vorfällen bei AF 447 hat dies aber nichts zu tun.