Editorial

Komplexität zerstört Vertrauen


Artikel erschienen in Swiss IT Magazine 2008/20

     

Das globale Finanzsystem hat uns in den letzten Wochen ein Schulbeispiel dafür geliefert, wie Vertrauen rasch verloren und nur äusserst mühsam wieder aufgebaut werden kann. Dabei liegt der Hauptgrund für den Vertrauensverlust darin, dass die Komplexität dieses Finanzsystems und der darin gehandelten Finanzprodukte auch von den professionellen Beteiligten nicht mehr vollständig durchschaut werden kann. Niemand weiss genau, welche Auswirkungen von welchen Quellen ausgehen. Aus Sicht der Informatik ist an diesem Beispiel besonders interessant, dass bei Finanzprodukten sowohl die Objekte – das Geld – wie auch die Methoden und Werkzeuge ausschliesslich informationstechnische Gebilde sind, somit virtuell und nur in Computern realisiert, aber mit sehr konkreten Auswirkungen auf die reale Welt. Das ist Informa­tionsgesellschaft pur.



Die Informationsgesellschaft basiert auf digitalen Geräten (Hardware) einerseits, auf Programmen und Daten (Software) anderseits. Beide Bereiche haben im letzten halben Jahrhundert eine gewaltige Entwicklung erlebt. Geräteseitig ermöglichte der noch immer andauernde exponen­tielle Leistungszuwachs der Mikroelektronik (Moore’s law) ständig grössere Prozessoren und Speicher. Diese Geräte könnten aber ihre heutigen Leistungen nicht erbringen ohne die zugehörigen Programme. Und in diesen steckt die wohl grösste Gefahr für die Informationsgesellschaft und damit auch für das Vertrauen in deren Funktionsfähigkeit: Es geht um die Komplexität der Software-Lösungen. Gerade weil die Programme selber immateriell sind, gibt es praktisch keine Grenzen für deren Umfang. Professionelle Programmsysteme umfassen Millionen von Elementarbefehlen, deren Fehlerfreiheit niemand mit Sicherheit garantieren kann.




Diese Unsicherheit beschränkt sich nicht auf einzelne Computerprogramme, sondern umfasst infolge der Vernetzungsmöglichkeiten über Internet und andere Netze eine Vielzahl von Teilbereichen und somit weitgehend die ganze globalisierte Welt. Aktuellstes Beispiel für diese komplexitätsbedingten globalen Unsicherheiten ist die bereits genannte Bankenkrise der letzten Wochen. Wir erinnern uns aber auch an die seinerzeitige Angst vor dem «Jahr-2000-Problem». Jene Unsicherheit hat die Informatikdienstleister der ganzen Welt insgesamt etwa 600 Milliarden Dollar an vorauseilenden Reparaturaufwendungen an alten Programmen gekostet.



Was ist daraus zu lernen? Gerade im Bereich der immateriellen Programme und Daten muss Komplexität entschieden bekämpft werden. Niklaus Wirth hat mit seinen Programmiersprachen (Pascal usw.) einfache Werkzeuge bereitgestellt und gleichzeitig «barocke Programmierung» zeitlebens angeprangert. Und ich habe für Informatik-Projekte immer die 80-20-Regel betont: Bei der Entwicklung grosser Programme entfallen etwa 80% des Aufwands auf die Bearbeitung der kompliziertesten 20% aller Fälle. Also lohnt es sich meistens, zuallererst die kompliziertesten Fälle abzubauen.
Komplexe Systeme sind undurchsichtig. Sogar dann, wenn sie fehlerlos arbeiten, belasten sie das Vertrauen. Und ohne Vertrauen kann eine Informa­tionsgesellschaft nicht funktionieren.




Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER