Schon mal über Komplexität nachgedacht?
Auf den ersten Gedanken ist man umgangssprachlich dabei, es mit Kompliziert zu übersetzen.
Frauen sind halt kompliziert, alles was man nicht versteht, ist irgendwie kompliziert. Will heissen: es macht Mühe zu verstehen, oder ich will das auch gar nicht verstehen.
Könnte man also sagen, alles ist komplex was ich nicht verstehen kann.
Dann habe ich einen Mathematiker gefragt, der sieht es ganz anders:
Kompliziert = mit Geduld und Wissen zu berechnen, zu lösen
Komplex = nicht zu berechnen
Das ist mir auch zu kurz gesprungen.
Denn nur weil ich etwas (jetzt, heute, in meiner Situation, mit meinem Vorwissen – oder weil es mich schlicht nicht interessiert) nicht sehe, kann es doch Tiefe darunter geben.
Das Känguruh bei „Horten hört ein Hu“ sagt: „Wenn ich etwas nicht hören, schmecken oder sehen kann, dann ist es nicht da“. Und Horten trabt weiter fröhlich durch die Geschichte und bleibt bei seiner Meinung.
Es gibt für mich einen Unterschied zwischen Unsinn, der nur kompliziert aber nicht wirklich interessant ist – und etwas, was komplex ist, mich vielleicht nur nicht berührt oder interessiert.
Wie dies in der Informationstheorie hergeleitet wird, möchte ich im Folgenden beschreiben.
Gödel, das Lügenparadoxon – Zufall und Ordnung
„Ich lüge“.
Diese (als Lügnerparadoxon bezeichnete) Aussage fasst ein grundlegendes Problem zusammen: ein Lügner, der sagt, er lüge, spricht die Wahrheit. Lügt er, dann lügt er nicht, wenn er sagt, er lüge.
Soweit klar?
Der Mathematiker Kurt Gödel hatte um 1930 die Idee, die Aussage „ich bin nicht beweisbar“ in gleicher Form zu untersuchen: stimmt sie, kann man sie nicht beweisen. Ist sie eine Lüge, kann man sie beweisen; dann hat man etwas bewiesen, was nicht stimmt.
Der große Charme an dieser Feststellung – und ein herzlicher Gruß an alle Menschen, die meinen, alles ist steuerbar, berechenbar oder muss beweisbar sein:
Die Aussage ist also wahr, und nur wahr, wenn sie nicht bewiesen werden kann.
(Siehe dazu Nørretranders, S. 84 ff)
Es gibt also wahre Aussagen, die sich einfach nicht beweisen lassen; Wahrheiten, die sich einer mathematischen und logischen Beweisführung entziehen.
Gödel hatte die einfache und subtile Idee, dass ein logisches System seine Konsistenz, also seinen logischen Zusammenhang, nicht selber begründen kann.
Im selben zeitlichen Zusammenhang schuf Alan Touring die Idee der universellen Maschine, die die Arbeit jeder Maschine übernehmen kann. „Tatsache aber ist, daß Alan Touring die Theorie des Computers in dem Augenblick fand, als er begriff, dass man nicht alles berechnen kann.(…) daß es unmöglich ist, alles Mechanische zu berechnen – das es Fragen gibt, die erst geklärt sind, wenn sie geklärt sind. Nicht vorher.“ (Nørretranders, S. 93)
Die Weiterentwicklung des Gödel’schen Theorems in den 1960er ist die Theorie des algorithmischen Informationsgehalts bzw. algorithmischer Zufälligkeit.
Wir unterscheiden zwischen zufälligen und geordneten Zahlen: das Zufällige lässt sich nicht kürzer schreiben, das Geordnete kann kürzer gesagt werden. Das meinen wir mit Ordnung und Zufall.
Zufall ist also, was sich durch einen Algorythmus, eine Anweisung, nicht kürzer sagen lässt.
Eine Zufallszahl kann nicht kürzer als durch sich selbst ausgedrückt werden.
Bei „geordneten Zahlen“ ist es anders: 3/7 ist eine Rechenanweisung, wie man zur Zahlenreihe 0,4828571 gelangt.
2 plus 2 ist 4. Aber 4 kann auch durch 3 plus 1 – oder 3,518 plus 0,482 entstehen.
Zur Irreversibilität aber an anderer Stelle mehr.
Für jede willkürliche Zahlenreihe gilt (und alle nicht-mathematik-affinen kennen das Gefühl…), dass es immer die Option gibt, eine Anweisung zu finden, die kürzer und geordneter ist. Dann wäre nur bewiesen dass sie nicht-zufällig ist. Aber ob man das sieht, sehen will oder sehen kann: bis dahin müssen wir sie für eine Zufallszahl halten.
Kurzer Einschub
Unser Gehirn ist genau dafür ausgelegt: wir sehen in fast allem einen Zusammenhang und erzeugen ein Erklärungsmuster – auch wenn objektiv keins da ist.
Dann transportieren wir es halt dort rein (siehe Watzlawick, Test zu Zahlenzusammenhängen und im Blog zu Denkfehlern). Wir gehen davon aus, dass da schon irgendwie Sinn dahinter steht. Auch wenn wir ihn grade gar nicht verstehen.
Diese Denkfehler weben unser Erleben, machen die eigene Welt kongruent, geben Sinn und führen zu erstaunlichen Erklärung (wie bei Taleb’s Schwarzen Schwänen) – und dem noch erstaunlicheren Ergebnis von Kahneman, wie wenig wir „Zufall und Glück“ in in unserem Leben akzeptieren wollen.
Darum wird es es aber dann an anderer Stelle in diesem Blog gehen.
Ordnung ist Ordnung. Der Rest ist unentschieden.
Also, wir wissen erst, ob eine Zahl kürzer geschrieben werden kann, wenn man es kann.
Bis zu dem Zeitpunkt ist die Frage offen. „Wir wissen, dass es eine Ordnung gibt, wenn wir sie sehen. Aber wir können nicht wissen, daß es keine Ordnung gibt, wenn wir sie nicht sehen.“ (Siehe Nørretranders, S. 98)
Der Algorithmische Informationsgehalt wird nun als der kürzeste Algorithmus definiert, den es braucht, die betreffende Zahlenreihe zu schreiben.
Das würde bedeuten, dass Zufallszahlen einen größeren Informationsgehalt haben als geordnete?
„Genauso ist es.“ (Nørretranders, S. 99)
„… damit hat die algorithmische Informationstheorie gezeigt, dass daß Unvollständigkeit und Zufall auch in der Mathematik etwas Normales und Allgegenwärtiges sind. Die Mathematik ist offenbar zu wichtig, als daß man sie allein den Mathematikern überlassen könnte.“ (Nørretranders, S. 101)
Was ist Information – und was kostet sie?
Information ist ein Maß für Zufälligkeit. Weil Zufälligkeit ein Maß für Unordnung ist – etwas, das sich schwer beschreiben lässt.
„Information ist ein Maß dafür, wie überrascht wir sind. Und in der Unordnung liegt Überraschung – was ordentlich ist, kann uns nicht überraschen“ schreibt Nørretranders.
Das führt zum nächsten Schritt: Information ist erst definiert, wenn wir erklären, was wir mit Ordnung meinen. Welche Frage wir eigentlich gestellt haben.
Und: Das Problem ist nicht, die Information zu erhalten – sondern alles drum herum los zu werden.
Denn: alles zu vergessen, was sich nicht zu wissen lohnt, verursacht Arbeit.
„Vergessen verursacht Kosten“ wie Nørretranders Wojciech Zurek zitiert.
Ich hole noch ein bisschen weiter aus, um den Begriff Information genau zu erläutern.
Die zwei Sätze der Thermodynamik
Der erste Hauptsatz besagt, die Energie in der Welt sei konstant und könne nicht verbraucht werden.
Die Energie wird ZU etwas gebraucht, das erklärt der 2. Satz der Thermodynamik: Energie tritt in vielen Formen auf – und obwohl sie konstant ist – tritt sie in verschiedenen Qualitäten auf (Nørretranders, S. 30).
Ohne hier weiter auf die Physikalischen Gesetze einzugehen kann man den 2. Hauptsatz der Thermodynamik zusammenfassen:
„Wird Energie umgesetzt (…) dann wird sie weniger zugänglich. Man gewinnt weniger Arbeit aus ihr.“ (Nørretranders, S. 31) – die Entropie (= Unordnung) in der Welt nimmt zu.
Aus der Thermodynamik heraus, mit der Analyse des Maxwell’schen Dämons („was kann ich überhaupt wissen, was kostet es und wie bleiben die physikalischen Grundgesetzt weiter bestehen“) entsteht, auch schon um 1930 daraus das Erforschen des Wissens:
„Verstehens als Teilnehmen, das Kosten verursacht (…), der Erkenntnis als Arbeit – der Thermodynamik des Denkens.“ (Nørretranders, S. 49)
Mit Information verhält es sich genauso – Vergessen verursacht Kosten
„Nicht das Messen, nicht das Heranschaffen von Informationen verursacht die Kosten, sondern das Loswerden der Information. Nicht das Wissen kostet etwas, sondern die Weisheit“ (Nørretranders, S. 49).
Will man Informationen loswerden, in dem man sie aussortiert – löscht – muss man notwendiger Weise mit einer Zunahme von Entropie „bezahlen“. Der Verwaltungsaufwand steigt, die Unordnung nimmt zu, der direkte Zugriff reduziert sich. Das weiß man aus der Thermodynamik.
Es ist also nicht wirklich die verarbeitete Energie interessant, auch nicht die Kosten die dafür entstehen. Es ist das Vergessen, das Reduzieren!
Das dies dem umgangssprachlichen Begriff der Information widerspricht, aber uns heute in unserem Alltag genau so betrifft, an einem Beispiel von Nørretranders/ Charles Bennett beschrieben:
„Wir zahlen, damit wir Zeitungen bekommen, nicht damit man sie uns wegnimmt. (…) Intuitiv erscheint es wertvoll, diese Zeitung zu besitzen. Aber die gestrige Zeitung nimmt wertvollen Platz weg – und den Aufwand, diesen Platz wieder zu beschaffen, neutralisiert den Nutzen, den ich von der Zeitung gestern hatte, als sie aktuell war.
Es gab eine Zeit, da konnten wir den Keller einfach mit alten Zeitungen füllen. Aber auch Information bedarf des Recycling, wenn sie nicht zu umfangreich werden soll, dass alles in ihr ertrinkt und zu einer Flut von Unordnung wird.“
Natürlich können wir Artikel ausschneiden, verschlagworten, gezielt speichern und den Rest löschen.
Dies verursacht aber auch immer Arbeit, immer Kosten.
Wir können die Zeitungen auch hinter der Schlafzimmertür sammeln, bis wir nicht mehr die Tür aufbekommen. Die Arbeit, sie zu entsorgen, werden wir trotzdem irgendwann haben. Plus eine stinksaure Lebenspartnerin. Aber das nur am Rande erwähnt 🙂
Unser Alltagsgefühl von „Information“ stimmt nicht mit der korrekten, naturwissenschaftlichen Beschreibung überein.
„Dennoch, wir alle haben das Gefühl, Information sei ein Gut, ein Ausdruck für Ordnung. (…) So haben wir gelernt, in der Schule in Kladde zu schreiben, und dann für saubere Ergebnisse ins Heft zu übertragen – und die Zettel wegzuwerfen. Wir haben also gelernt, Informationen zu beseitigen. Trotzdem glauben wir heute, in der Informationsgesellschaft sei das Wertvolle die Information.“ (Siehe Nørretranders, S. 59).
Wir verwechseln also das Ergebnis der Arbeit mit unserer Arbeit, die wir alle dazu vorab leisten müssen!
Damit ist also klar, das wir Information im Alltag nicht korrekt definieren.
Der Algorithmische Informationsgehalt wird, wie oben gesagt, als der kürzeste Algorithmus definiert, den es braucht, eine betreffende Zahlenreihe zu schreiben. Das bedeutet, dass Zufallszahlen eine größeren Informationsgehalt haben als geordnete.
Chaos, Entropie und Unordnung haben eine höhere Information. Denn man kann sie nicht kürzer, einfacher ausdrücken.
Nach Nørretranders ist also Entropie ein Maß für die Menge dessen, was wir nicht in Ordnung halten wollen – und stattdessen unter den Teppich kehren, in dem wir einen übergeordneten Begriff benutzen, der ausreichend aussagt, was uns interessiert. (Nørretranders, S. 61f)
Entropie ist ein Maß für Informationen, die uns nicht interessieren.
Was aber ein Durcheinander (also ein zweckmäßiges Nicht-Wissen) ist, ist immer von der aktuellen Situation abhängig:
Wenn ich mich nicht für die verschiedenen Schattierungen von Grau interessiere, reicht es völlig zu sagen „grau“. Nur im Kontext werden tieferliegende Mikrozustände interessant, wollen wir die „Ordnung“untersuchen, die dahinter stehen könnte.
Wenn wir nun aber keine an Lack und Leder interessierten Menschen sind, wird ein „zuviel“ an Informationen uns nicht interessieren. Uns im Gegenteil zumüllen.
Mir reicht ein grau völlig.
Alles lässt sich bis unendlich klein detaillieren – bis hin zum Zufall, der sich nicht kürzer beschreiben lässt. Nur wenn es uns interessiert, bekommt es Bedeutung.
Es ist also Tiefe wichtig – das, was Komplexität ausmacht.
Information ist für uns interessant, wenn sie sich auf etwas bezieht, auf etwas bewusst Weggelassenes verweist. So wie die „Schattierungen von Grau“.
Daran haben wir Freude. Nicht an Informationen.
Diese explizit ausgesonderte Information bezeichnet Nørretranders als Exformation.
Dazu – und zum Wesen der Kommunikation und Informationsübermittlung – mehr im Blog Kopfkino.
Wir leben also eigentlich in einer „Entropie-Gesellschaft“, nicht in einer „Informationsgesellschaft“.
Ich möchte daher Komplexität (mit Sinn) von Kompliziert (ohne Muster und dumm) strikt unterscheiden.
Komplexität zu erkennen und anzuerkennen ist hilfreich, um in unserer heutigen Zeit Strukturen und Abkürzungen zu finden. Tiefe von Informationen zu vermitteln. Bedeutung zu erfahren. Zu verstehen, wie wichtig es ist, wer Informationen filtert oder redigiert.
Welche Fragen wir stellen.