Blog Image

FREI NACH WATZLAWICK:

"MAN KANN NICHT NICHT KOMMUNIZIEREN"

INFORMATIONSGESELLSCHAFT
Kommunikation und Information und dazu der Mensch als Individuum und als soziales Wesen, der darin balanciert.
Diese Bausteine in ihren Grundzügen zu kennen wird immer interessanter, denn Kommunikation ist nicht gleich Information. Und der Mensch ist weit weniger bewusst und individuell als er gerne denkt.

VERHALTENSÖKONOMIK
Hier finden sich Zusammenfassungen der Fachliteratur die sich aus den Bereichen Coaching, Pädagogik, Psychologie hin in die Neurobiologie und die Wirtschaft erstrecken.

COUNSELING
Alles ist guter, alter Wein in neuen Schläuchen.
Die Definition von Counseling baut auf dem gesammelten Wissen der Verhaltensökonomik auf.
Wir unterstützen damit gesunde Menschen mit Rat und Tat, in der Komplexität der Kommunikation und Information die besten Entscheidungen für sich selber zu treffen.

Tiefe und Bedeutung – Komplexität zum Zweiten

Information und Komplexität Posted on 27/08/2016 14:39

Gib mir Bedeutung

Unsere „Informationsgesellschaft“ ist, wie wir im ersten Blog zur Information gesehen haben, im eigentlichen Sinne eine „Entropiegesellschaft“ – eine Gesellschaft der Unordnung.

Der alltagssprachliche Begriff von Information hat hingegen mit „Bedeutung“ zu tun, die wir darin erhoffen (Nørretranders, S.67ff.):
Bedeutung und Information haben (…) wenig miteinander zu tun. Dem entsprechend haben Komplexität und Information wenig miteinander zu tun, wenn man über die physikalische Welt spricht.“ (Nørretranders, S. 112)

bbbbbbbbbbbbb
bbbbbbbbbbbbb
bbbbbbbbbbbbb

Addkhwfjhvuwzefgkurdvvwrifugeckhkwdfhwoufz


Ein völlig geordneter Text enthält sehr wenig Informationen, er lässt sich daher leicht komprimieren. (= 3x13b). Ein völlig ungeordneter Text enthält hingegen eine Menge an Information, er lässt sich nicht kürzer sagen und erfordert dadurch eine sehr genaue Wiedergabe (= ddkhwfjhvuwzefgkurdvvwrifugeckhkwdfhwoufz) – wodurch er allerdings auch nicht interessanter wird.

Das Interessante liegt also dazwischen (es sei denn, man interessiert sich für Dadaismus); und damit kommen wir zum Kern von Kommunikation und allem Zwischenmenschlichen; wir kommen nochmal zur Komplexität.

„Information ist ein interessanter Begriff, aber kein gutes Maß für Komplexität. Selbstverständlich muss eine gewisse Menge an Information vorhanden sein, ehe wir überhaupt von Bedeutung oder Komplexität sprechen können. Die Menge ist aber nicht das Entscheidende. Sondern die Tiefe, die Bedeutung, die eine Information, eine Nachricht ausmacht.“ (Nørretranders, S. 112)

Zufall und identische Komponenten – Komplexität entsteht

Komplexität entsteht durch den Kooperationseffekt vieler, identischer Komponenten. Fundamentale Bausteine sind für sich genommen einfach, das übergeordnete Verhalten aber ist extrem komplex (Nørretranders, S. 116).

Dies zu verdeutlichen reicht bereits der einfache binäre Entscheidungsbaum:
1 blaue, 1 rote Kugel, n-maliges Ziehen und der Baum der Wahrscheinlichkeit wächst.

In der Praxis wäre dies: „möchtest du den Chai Latte mit Soja-, fettarmer oder normaler Milch? In S, M, L? To go, im Becher, in der Tasse, warm, kalt …“
Entscheidungen, Optionen, Chancen oder auch einfach Zufall bestimmen den Weg zu dem einen Ereignis, das uns gerade betrifft oder interessiert.

Dass es nicht die Menge der Information ist, die entscheidend ist, ist uns Menschen eigentlich völlig selbstverständlich: Der Wert einer Information oder einer Nachricht besteht in der Arbeit, die zu wiederholen uns erspart bleibt. Die gesamte Länge an Information zu bekommen, bedeutet, nochmal den Weg komplett durch den Entscheidungsbaum nehmen zu müssen.
Wenn ich doch nur eine Tasse Kaffee trinken will.

Ebenso bei sogenannten „Powerpoint-Schlachten“ im Beruf: „KISS – Keep it straight an simple!“ ist die Aufforderung – was folgt ist oft nur kurz. Nicht tief. Man sieht und spürt, ob Mühe und Gedanken hinter der Präsentation stecken. Ob sich jemand überlegt hat, was er mitteilen will.
Zu einer Strukturierten Aufbereitung komplexer Themen haben die Brüder Hinnen im Buch „Reframe it!“ einen Lösungsansatz in 3 Stufen geliefert, mehr dazu in einem folgenden Blog.

Es geht also immer um Arbeit. Um eine Mühe, die ein anderer bereits (sorgfältig) verrichtet hat, die ich selber nicht mehr aufbringen muss. Dort liegt der Gewinn. Oder der Genuss. Wir sind verzaubert wenn wir erahnen, wie mühsam das Ergebnis erzeugt wurde. Durch üben, durch Kraft, durch Zeit. Wenn wir im Kopfkino haben, was alles weggelassen werden konnte. Dort liegt Kunst, Kultur und ein interessantes Gespräch, das sich befruchtet und bereichert.

Wir können (wie wir im Blog vorab gesehen haben) keine generelle Regel aufstellen, wie sich herausfinden lässt, ob eine Zahl zufällig ist oder nicht, ob sie sich kürzer schreiben lässt (siehe Nørretranders, S.98).

Interessiert uns die Qualität, können wir Information also nicht nach Länge/ Kürze bemessen. Wir müssen sie anhand ihres Wertes, ihrer Tiefe beurteilen.

Komplexität zum Dritten

Ein hoher Informationsgehalt hat – das ist jetzt deutlich – nicht automatisch einen hohen Nachrichtenwert. So definiert Charles Bennett von IBM:
„Der Wert einer Nachricht besteht im Umfang der (…) Arbeit, die von den Urhebern plausibel ausgeführt worden ist und die zu wiederholen dem Empfänger erspart bleibt.“ (Nørretranders, S.127).

„Komplexität ist nicht als Länge einer Nachricht
messbar, sondern als die Arbeit, die ihr vorausgegangen ist.“ (Nørretranders,
S.128), und wird als logische Tiefe in der Informationstheorie bezeichnet.

So ist auch Komplexität mehr ein Ausdruck für den
Produktionsprozess, denn für das Produkt – und in einer gegebenen Aussage kann
sehr viel Arbeit stecken, ohne dass dies zu erkennen ist.

„Es ist schwierig, die Dinge leicht aussehen zu lassen.
Klarheit erfordert Tiefe.“
(Nørretranders, S.130)

Unsinn hat dagegen nicht viel Tiefe. Zufälliges Gerede lässt
sich nicht kürzer ausdrücken, weil kein System darin ist. Bei komplexen Größen
muss es aber möglich sein, sie kürzer zu beschreiben, sie zu komprimieren. Und
damit hat „Komplexität (…) mit Information zu tun, die nicht mehr
vorhanden ist.“ (Nørretranders, S.131).

Und was uns der Rede wert erscheint, sind meist Dinge und
Gedanken von großer Komplexität, von großer Tiefe, aber nicht unbedingt mit
großer Oberfläche. (Nørretranders, S.127). Wir wissen andererseits intuitiv (in den Geschichten von
Schildbürgern, durch Bürokraten und Bert aus der Buchhaltung) dass Einfaches
sehr, sehr kompliziert gemacht werden kann.

„Es besteht die Gefahr, dass Dingen hohe Komplexität
zugeschrieben wird, die nur unnötig kompliziert sind.“ (Nørretranders,
S.133). Leider ist vielen Menschen – Konsumenten – nicht bewusst,
dass dazu immer Arbeit geleistet werden muss.
Zwischen Komplex und Kompliziert zu unterscheiden, ist die
Kunst – und dazu kommt es auf die Fragen an, die man stellt. Oder die Gespräche, die
man führt.

Mehr zur Komplexität und der Kommunikation auch im Blog zum Baum
der Rede.

Das Fazit heute

• Wir
müssen unsere Zeitungs-Artikel ausschneiden, verschlagworten, gezielt speichern
– und den Rest löschen. Dies verursacht immer Arbeit, immer Kosten.

• Wenn wir
dazu die richtigen Fragen stellen, erzeugen wir weniger Information, die wir
damit nicht aussortieren müssen.

• Und wenn
wir als drittes unsere Erkenntnisse teilen, braucht der Andere sie nicht zu
suchen. Wir bekommen ein gemeinsames Bild, wir teilen Gedankenwelten ohne
weitere Kosten zu erzeugen.Damit leben wir die Entropiegesellschaft.

Erst das ermöglicht das kompetente Surfen in Komplexität.

Literatur:

Norretranders, Tor: Spüre die Welt. Die Wissenschaft des
Bewusstseins; 1. Auflage 1994; Rowohlt Verlag

Hinnen & Hinnen: Reframe it! Ein Modell zum Refraimen statt vereinfachen,1. Auflage, 2017, Murmann Publishers



Meine Info, deine Info – Komplexität zum Ersten

Information und Komplexität Posted on 27/08/2016 14:30

Schon mal über Komplexität nachgedacht?

Auf den ersten Gedanken ist man umgangssprachlich dabei, es mit Kompliziert zu übersetzen.

Frauen sind halt kompliziert, alles was man nicht versteht, ist irgendwie kompliziert. Will heissen: es macht Mühe zu verstehen, oder ich will das auch gar nicht verstehen.
Könnte man also sagen, alles ist komplex was ich nicht verstehen kann.

Dann habe ich einen Mathematiker gefragt, der sieht es ganz anders:

Kompliziert = mit Geduld und Wissen zu berechnen, zu lösen
Komplex = nicht zu berechnen

Das ist mir auch zu kurz gesprungen.
Denn nur weil ich etwas (jetzt, heute, in meiner Situation, mit meinem Vorwissen – oder weil es mich schlicht nicht interessiert) nicht sehe, kann es doch Tiefe darunter geben.

Das Känguruh bei „Horten hört ein Hu“ sagt: „Wenn ich etwas nicht hören, schmecken oder sehen kann, dann ist es nicht da“. Und Horten trabt weiter fröhlich durch die Geschichte und bleibt bei seiner Meinung.

Es gibt für mich einen Unterschied zwischen Unsinn, der nur kompliziert aber nicht wirklich interessant ist – und etwas, was komplex ist, mich vielleicht nur nicht berührt oder interessiert.

Wie dies in der Informationstheorie hergeleitet wird, möchte ich im Folgenden beschreiben.

Gödel, das Lügenparadoxon – Zufall und Ordnung

„Ich lüge“.

Diese (als Lügnerparadoxon bezeichnete) Aussage fasst ein grundlegendes Problem zusammen: ein Lügner, der sagt, er lüge, spricht die Wahrheit. Lügt er, dann lügt er nicht, wenn er sagt, er lüge.

Soweit klar?

Der Mathematiker Kurt Gödel hatte um 1930 die Idee, die Aussage „ich bin nicht beweisbar“ in gleicher Form zu untersuchen: stimmt sie, kann man sie nicht beweisen. Ist sie eine Lüge, kann man sie beweisen; dann hat man etwas bewiesen, was nicht stimmt.

Der große Charme an dieser Feststellung – und ein herzlicher Gruß an alle Menschen, die meinen, alles ist steuerbar, berechenbar oder muss beweisbar sein:

Die Aussage ist also wahr, und nur wahr, wenn sie nicht bewiesen werden kann.
(Siehe dazu Nørretranders, S. 84 ff)

Es gibt also wahre Aussagen, die sich einfach nicht beweisen lassen; Wahrheiten, die sich einer mathematischen und logischen Beweisführung entziehen.

Gödel hatte die einfache und subtile Idee, dass ein logisches System seine Konsistenz, also seinen logischen Zusammenhang, nicht selber begründen kann.

Im selben zeitlichen Zusammenhang schuf Alan Touring die Idee der universellen Maschine, die die Arbeit jeder Maschine übernehmen kann. „Tatsache aber ist, daß Alan Touring die Theorie des Computers in dem Augenblick fand, als er begriff, dass man nicht alles berechnen kann.(…) daß es unmöglich ist, alles Mechanische zu berechnen – das es Fragen gibt, die erst geklärt sind, wenn sie geklärt sind. Nicht vorher.“ (Nørretranders, S. 93)

Die Weiterentwicklung des Gödel’schen Theorems in den 1960er ist die Theorie des algorithmischen Informationsgehalts bzw. algorithmischer Zufälligkeit.

Wir unterscheiden zwischen zufälligen und geordneten Zahlen: das Zufällige lässt sich nicht kürzer schreiben, das Geordnete kann kürzer gesagt werden. Das meinen wir mit Ordnung und Zufall.

Zufall ist also, was sich durch einen Algorythmus, eine Anweisung, nicht kürzer sagen lässt.
Eine Zufallszahl kann nicht kürzer als durch sich selbst ausgedrückt werden.
Bei „geordneten Zahlen“ ist es anders: 3/7 ist eine Rechenanweisung, wie man zur Zahlenreihe 0,4828571 gelangt.

2 plus 2 ist 4. Aber 4 kann auch durch 3 plus 1 – oder 3,518 plus 0,482 entstehen.
Zur Irreversibilität aber an anderer Stelle mehr.

Für jede willkürliche Zahlenreihe gilt (und alle nicht-mathematik-affinen kennen das Gefühl…), dass es immer die Option gibt, eine Anweisung zu finden, die kürzer und geordneter ist. Dann wäre nur bewiesen dass sie nicht-zufällig ist. Aber ob man das sieht, sehen will oder sehen kann: bis dahin müssen wir sie für eine Zufallszahl halten.

Kurzer Einschub

Unser Gehirn ist genau dafür ausgelegt: wir sehen in fast allem einen Zusammenhang und erzeugen ein Erklärungsmuster – auch wenn objektiv keins da ist.

Dann transportieren wir es halt dort rein (siehe Watzlawick, Test zu Zahlenzusammenhängen und im Blog zu Denkfehlern). Wir gehen davon aus, dass da schon irgendwie Sinn dahinter steht. Auch wenn wir ihn grade gar nicht verstehen.

Diese Denkfehler weben unser Erleben, machen die eigene Welt kongruent, geben Sinn und führen zu erstaunlichen Erklärung (wie bei Taleb’s Schwarzen Schwänen) – und dem noch erstaunlicheren Ergebnis von Kahneman, wie wenig wir „Zufall und Glück“ in in unserem Leben akzeptieren wollen.
Darum wird es es aber dann an anderer Stelle in diesem Blog gehen.

Ordnung ist Ordnung. Der Rest ist unentschieden.

Also, wir wissen erst, ob eine Zahl kürzer geschrieben werden kann, wenn man es kann.
Bis zu dem Zeitpunkt ist die Frage offen. „Wir wissen, dass es eine Ordnung gibt, wenn wir sie sehen. Aber wir können nicht wissen, daß es keine Ordnung gibt, wenn wir sie nicht sehen.“ (Siehe Nørretranders, S. 98)

Der Algorithmische Informationsgehalt wird nun als der kürzeste Algorithmus definiert, den es braucht, die betreffende Zahlenreihe zu schreiben.

Das würde bedeuten, dass Zufallszahlen einen größeren Informationsgehalt haben als geordnete?
„Genauso ist es.“ (Nørretranders, S. 99)

„… damit hat die algorithmische Informationstheorie gezeigt, dass daß Unvollständigkeit und Zufall auch in der Mathematik etwas Normales und Allgegenwärtiges sind. Die Mathematik ist offenbar zu wichtig, als daß man sie allein den Mathematikern überlassen könnte.“ (Nørretranders, S. 101)

Was ist Information – und was kostet sie?

Information ist ein Maß für Zufälligkeit. Weil Zufälligkeit ein Maß für Unordnung ist – etwas, das sich schwer beschreiben lässt.
„Information ist ein Maß dafür, wie überrascht wir sind. Und in der Unordnung liegt Überraschung – was ordentlich ist, kann uns nicht überraschen“ schreibt Nørretranders.

Das führt zum nächsten Schritt: Information ist erst definiert, wenn wir erklären, was wir mit Ordnung meinen. Welche Frage wir eigentlich gestellt haben.

Und: Das Problem ist nicht, die Information zu erhalten – sondern alles drum herum los zu werden.
Denn: alles zu vergessen, was sich nicht zu wissen lohnt, verursacht Arbeit.
„Vergessen verursacht Kosten“ wie Nørretranders Wojciech Zurek zitiert.

Ich hole noch ein bisschen weiter aus, um den Begriff Information genau zu erläutern.

Die zwei Sätze der Thermodynamik

Der erste Hauptsatz besagt, die Energie in der Welt sei konstant und könne nicht verbraucht werden.

Die Energie wird ZU etwas gebraucht, das erklärt der 2. Satz der Thermodynamik: Energie tritt in vielen Formen auf – und obwohl sie konstant ist – tritt sie in verschiedenen Qualitäten auf (Nørretranders, S. 30).
Ohne hier weiter auf die Physikalischen Gesetze einzugehen kann man den 2. Hauptsatz der Thermodynamik zusammenfassen:
„Wird Energie umgesetzt (…) dann wird sie weniger zugänglich. Man gewinnt weniger Arbeit aus ihr.“ (Nørretranders, S. 31) – die Entropie (= Unordnung) in der Welt nimmt zu.

Aus der Thermodynamik heraus, mit der Analyse des Maxwell’schen Dämons („was kann ich überhaupt wissen, was kostet es und wie bleiben die physikalischen Grundgesetzt weiter bestehen“) entsteht, auch schon um 1930 daraus das Erforschen des Wissens:

„Verstehens als Teilnehmen, das Kosten verursacht (…), der Erkenntnis als Arbeit – der Thermodynamik des Denkens.“ (Nørretranders, S. 49)

Mit Information verhält es sich genauso – Vergessen verursacht Kosten

„Nicht das Messen, nicht das Heranschaffen von Informationen verursacht die Kosten, sondern das Loswerden der Information. Nicht das Wissen kostet etwas, sondern die Weisheit“ (Nørretranders, S. 49).

Will man Informationen loswerden, in dem man sie aussortiert – löscht – muss man notwendiger Weise mit einer Zunahme von Entropie „bezahlen“. Der Verwaltungsaufwand steigt, die Unordnung nimmt zu, der direkte Zugriff reduziert sich. Das weiß man aus der Thermodynamik.

Es ist also nicht wirklich die verarbeitete Energie interessant, auch nicht die Kosten die dafür entstehen. Es ist das Vergessen, das Reduzieren!

Das dies dem umgangssprachlichen Begriff der Information widerspricht, aber uns heute in unserem Alltag genau so betrifft, an einem Beispiel von Nørretranders/ Charles Bennett beschrieben:

„Wir zahlen, damit wir Zeitungen bekommen, nicht damit man sie uns wegnimmt. (…) Intuitiv erscheint es wertvoll, diese Zeitung zu besitzen. Aber die gestrige Zeitung nimmt wertvollen Platz weg – und den Aufwand, diesen Platz wieder zu beschaffen, neutralisiert den Nutzen, den ich von der Zeitung gestern hatte, als sie aktuell war.

Es gab eine Zeit, da konnten wir den Keller einfach mit alten Zeitungen füllen. Aber auch Information bedarf des Recycling, wenn sie nicht zu umfangreich werden soll, dass alles in ihr ertrinkt und zu einer Flut von Unordnung wird.“

Natürlich können wir Artikel ausschneiden, verschlagworten, gezielt speichern und den Rest löschen.
Dies verursacht aber auch immer Arbeit, immer Kosten.

Wir können die Zeitungen auch hinter der Schlafzimmertür sammeln, bis wir nicht mehr die Tür aufbekommen. Die Arbeit, sie zu entsorgen, werden wir trotzdem irgendwann haben. Plus eine stinksaure Lebenspartnerin. Aber das nur am Rande erwähnt 🙂

Unser Alltagsgefühl von „Information“ stimmt nicht mit der korrekten, naturwissenschaftlichen Beschreibung überein.

„Dennoch, wir alle haben das Gefühl, Information sei ein Gut, ein Ausdruck für Ordnung. (…) So haben wir gelernt, in der Schule in Kladde zu schreiben, und dann für saubere Ergebnisse ins Heft zu übertragen – und die Zettel wegzuwerfen. Wir haben also gelernt, Informationen zu beseitigen. Trotzdem glauben wir heute, in der Informationsgesellschaft sei das Wertvolle die Information.“ (Siehe Nørretranders, S. 59).

Wir verwechseln also das Ergebnis der Arbeit mit unserer Arbeit, die wir alle dazu vorab leisten müssen!

Damit ist also klar, das wir Information im Alltag nicht korrekt definieren.

Der Algorithmische Informationsgehalt wird, wie oben gesagt, als der kürzeste Algorithmus definiert, den es braucht, eine betreffende Zahlenreihe zu schreiben. Das bedeutet, dass Zufallszahlen eine größeren Informationsgehalt haben als geordnete.

Chaos, Entropie und Unordnung haben eine höhere Information. Denn man kann sie nicht kürzer, einfacher ausdrücken.

Nach Nørretranders ist also Entropie ein Maß für die Menge dessen, was wir nicht in Ordnung halten wollen – und stattdessen unter den Teppich kehren, in dem wir einen übergeordneten Begriff benutzen, der ausreichend aussagt, was uns interessiert. (Nørretranders, S. 61f)

Entropie ist ein Maß für Informationen, die uns nicht interessieren.
Was aber ein Durcheinander (also ein zweckmäßiges Nicht-Wissen) ist, ist immer von der aktuellen Situation abhängig:
Wenn ich mich nicht für die verschiedenen Schattierungen von Grau interessiere, reicht es völlig zu sagen „grau“. Nur im Kontext werden tieferliegende Mikrozustände interessant, wollen wir die „Ordnung“untersuchen, die dahinter stehen könnte.

Wenn wir nun aber keine an Lack und Leder interessierten Menschen sind, wird ein „zuviel“ an Informationen uns nicht interessieren. Uns im Gegenteil zumüllen.
Mir reicht ein grau völlig.

Alles lässt sich bis unendlich klein detaillieren – bis hin zum Zufall, der sich nicht kürzer beschreiben lässt. Nur wenn es uns interessiert, bekommt es Bedeutung.

Es ist also Tiefe wichtig – das, was Komplexität ausmacht.

Information ist für uns interessant, wenn sie sich auf etwas bezieht, auf etwas bewusst Weggelassenes verweist. So wie die „Schattierungen von Grau“.
Daran haben wir Freude. Nicht an Informationen.

Diese explizit ausgesonderte Information bezeichnet Nørretranders als Exformation.
Dazu – und zum Wesen der Kommunikation und Informationsübermittlung – mehr im Blog Kopfkino.

Wir leben also eigentlich in einer „Entropie-Gesellschaft“, nicht in einer „Informationsgesellschaft“.

Ich möchte daher Komplexität (mit Sinn) von Kompliziert (ohne Muster und dumm) strikt unterscheiden.

Komplexität zu erkennen und anzuerkennen ist hilfreich, um in unserer heutigen Zeit Strukturen und Abkürzungen zu finden. Tiefe von Informationen zu vermitteln. Bedeutung zu erfahren. Zu verstehen, wie wichtig es ist, wer Informationen filtert oder redigiert.

Welche Fragen wir stellen.



« Vorherige