Zurück zum Blog

Der menschliche Stolz auf das Bewusstsein
Die Kunst der Frage
Der Traum von Sicherheit
Werkzeug
Unser eigener Geist

Hindernisse auf dem Weg zur „Definition der Information“

Der menschliche Stolz auf das Bewusstsein

Wenn das Bewusstsein sich aus physikalischen Gegebenheiten erklären lässt, dann ist es „reduzierbar“.

Reduzierbar, deduzierbar, automatisierbar...

dann ist all mein Witz, mein Geist, meine Seele, mein Sein erklärlich – meine Kreativität und Originalität, mein herausragender Intellekt – nur Biochemie.

Das muss einen Fehler haben - und der liegt in der Interpretation. Du kannst zwar alles physikalisch festmachen, nie aber die Interpretationsfähigkeit des menschlichen Geistes. Du siehst zwar Bits und Bytes, Buchstaben und Farben, aber die Welt, die du mithilfe deines Geistes draus machst, die bleibt der erklärenden Physik für immer verborgen.

Da ich die mir persönlich zugestellten Emails nicht zitieren möchte, habe ich ähnlich lautende Begründungen zusammengestellt – auf dem Internet einfach unter „not physical information“ oder ähnlichen Kombinationen gefunden. Und zwar, um das nicht misszuverstehen, von hoch kompetenten Leuten, denen man nicht mit einfachen Argumenten ein X für ein U vormachen kann.

Jetzt also zu den Zitaten nicht-physikalischer Information, die ich mir auf dem Internet zusammengeklaubt habe (s. Vermerk betr. Zitaten im Blog). Für weitere Recherchen bitte dort selbst nachsehen, da ich keines der in den Quellen zitierten Werke jemals zu Gesicht bekam, auch wenn mir die „Fehler“ der Herren Deutsch (Quelle 1) und Eigen (Quelle 4) sehr imponierten:

1) Information and the Turing Principle: Some Philosophical Considerations

C.G.Timpson, The Queen’s College, Oxford, 2 March 2000 (Quelle 03.09.2003, 395KB)

Chapter 5 „Information is Physical?“

S. 75

We may broadly distinguish two types of confusion that lead to the erroneous assimilation of the everyday and technical notions of information. The first is a failure to distinguish between a code and a language or to distinguish between encoding and decoding and translation.

S. 82

But we have here a transparent confusion between physically defined concepts and the non-technical notion of information. It is a person who obtains knowledge as it is only a person who can be said to possess knowledge. For this to be a viable approach to the measurement problem, we would need to come, per impossibile, already armed with an analysis of a person in physical terms....

As a hint, the notion of the qubit requires us to pick out the computational basis in Hilbert space and if we wanted to take qubits as fundamental, we would need to show how the rest of the Hilbert space structure could be recovered.

Besonders gefällt mir dieser Hinweis auf den Hilbert-Raum, der nicht nur demonstriert, dass der Autor sich im Fach auskennt (weitaus mehr als ich, sicher), sondern auch verdeutlicht, warum ich zum Schluss kam, dass die aktuelle Mengenmathematik ein gewisses Problem mit der Veränderlichkeit hat, die der Information wesensmäßig zugrunde liegt.

Denn Hilbert-Räume werden sehr häufig in der Physik verwendet, doch bei genauem Hinsehen sind ihre Voraussetzungen so tief greifend, dass reale Systeme sie niemals erfüllen können. Keine falschen Vermutungen! Jedes Modell ist nur ein Ausschnitt aus der Wirklichkeit...

aber eine der Voraussetzungen, die der Hilbert-Raum bereits von der Menge erbte, ist meines Erachtens untauglich für die Beschreibung von Information. Das freilich ist ein anderes Hindernis.

2) Quantentheorie der Information

Autor, Copyright: Werner Held (Quelle 03.09.2004)

Information muß auch als eine von Materie und Bewußtsein unterschiedene dritte Sache aufgefaßt werden....

Der Geltungsbereich der Theorie ist das prinzipiell empirisch Wißbare

Information ist wohl immer argumentativ mit Bewusstsein verknüpft.

3) Ein Stück Urknall: die Eigenschaften des ultimativen Laptops

Florian Rötzer, 05.09.2000 (Quelle 03.09.2004)

Seth Loyd, Professor am MIT Department of Mechanical Engineering, lässt in diesem Artikel Bemerkungen fallen, die den Zusammenhang zwischen Physik und Information oder die Gesetze der Physik als nicht nur nicht zwingende Voraussetzungen, sondern gar „nicht zuständige“ Voraussetzungen anklingen lassen.

Physikalische Gesetze als Glaubenssache oder gar als verzichtbare Bestandteile menschlichen Geistes, die wie Information keinen Zusammenhang mit der Physik zu haben brauchen?

4) Intelligent Design as a Theory of Information

William A. Dembski, Department of Philosophy, University of Notre Dame, Notre Dame, Indiana, USA (Quelle 03.09.2004)

Information

In his book Steps Towards Life, Manfred Eigen (1992, p. 12) summarizes the task of origins-of-life research as follows: Our task is to find an algorithm, a natural law that leads to the origin of information. This summary of origins-of-life research is at once insightful and misguided. It is insightful because it correctly isolates the central problem facing origins-of-life research, to wit, the origin of information. At the same time, it is misguided because it prescribes an unworkable solution for this problem, to wit, algorithms and natural laws. Algorithms and natural laws are utterly incapable of producing information....

From a mathematical point of view algorithms and natural laws are just functions, that is, relations between two sets, which to every member in one set (called the domain) associates one, and only one, member in the other set (called the range). As such, the functional relationship is fully deterministic

Hier gefällt mir besonders „facing origins-of-life research, to wit, the origin of information“, das ist so meine Rede, dass Information die Basis allen Lebens ist - was hier auch gar nicht in Abrede gestellt wird, wohlgemerkt, nur eben die Tatsache, dass algorithms and natural laws es irgendwie erklären sollten.

Der folgende Hinweis knüpft wieder an den Hilbert-Raum-Einwand von Quelle 1 an und zeigt genau deshalb in dieselbe Richtung: Dass hier möglicherweise eine Gleichsetzung algorithmus – mathematic – natural laws durchgeführt wird, deren Gültigkeit nicht überprüft wird.

Denn obwohl ich die Zweckmäßigkeit eines Hilbert-Raumes oder einfach auch nur der Mengenmathematik mit ihren tatsächlich deterministischen Funktionen auch hinsichtlich ihrer Effektivität, die Definition der Information zu erstellen, bezweifelte, werde ich doch niemals die Mathematik selbst oder gar das Primat der Naturgesetze in Frage stellen.

„utterly incapable of producing information“ - unsere DNA lässt grüßen...

Zurück zum Anfang

Die Kunst der Frage

Gerhard Vollmer: „Gelöste, ungelöste und unlösbare Probleme, Zu den Bedingungen wissenschaftlichen Fortschritts“, Vortrag vom 5.5.1995 im Rahmen der Ringvorlesung "Weltanschauung und Kommuniktion" an der TH Darmstadt (In ders.: Wissenschaftstheorie im Einsatz. Beiträge zu einer selbstkritischen Wissenschaftsphilosophie, Stuttgart: Hirzel 1993, 183-210, S. 200) hat hier wunderbar präzise Fragen gestellt, warum es so furchtbar schwierig ist, Fragen oder gar die „richtigen“ Fragen zu stellen.

Jean Jacques Rousseau:
"Die Kunst des Fragens ist nicht so ein Fach, wie man denkt. Sie ist viel eher eine Kunst der Meister als der Schüler; man muß schon viel wissen. um das erfragen zu können, was man nicht weiß"

Bekanntes sei recht einfach zu prüfen, meint Prof. Dr. Dr. Vollmer, eine einzige seriöse Quelle genüge hier zumeist als Verifikation, was aber bei Unbekanntem? Da müsste das gesamte Wissen aller Menschen gesammelt und durchforstet werden, um belegen zu können, dass dieser spezielle Punkt nicht darin enthalten ist.

Trifft den Nagel auf den Kopf, besonders bei der Definition der Information. Es gibt wohl kaum ein Problem, das (verständlicherweise, wenn du weißt, was Information ist) interdisziplinärer als Information ist. Also gibt es wohl in fast allen Wissenschaftsdisziplinen Experten über Information, die Bücher, Zeitschriften und Internet-Artikel veröffentlichten – die kann niemand alle kennen.

Deshalb, so meint Prof. Dr. Dr. Vollmer, können nur Meister wirklich gut fragen, weil sie den größten Überblick über das gesammelte Wissen haben und darum „näher am Unbekannten“ seien. Und vielleicht auch aus größerem Selbstbewusstsein heraus, weil sie ihre Kompetenz längst unter Beweis stellten.

Meister ist dabei aber sicher nicht nur einfach ein Experte, denn diese leben zumeist nach der Einsicht von Shaw:

George Bernard Shaw, 1856-1950
Eines der traurigsten Dinge im Leben ist, dass ein Mensch viele gute Taten tun muss, um zu beweisen, dass er tüchtig ist, aber nur einen Fehler zu begehen braucht, um zu beweisen, dass er nichts taugt.

Und deshalb lieben es die meisten Experten, sich in ihrem eigenen Fachjargon zu unterhalten – da ist die Gefahr des Missverständnisses, also schlicht und ergreifend der Tatsache, dass dir Fehler unterstellt werden, geringer:

„Dazu müssen die Probleme so formuliert sein, daß auch Fachfremde begreifen, worum es geht. Fachleute sind dazu nicht immer in der Lage:

Sie wissen zu viel; sie kennen die Fallstricke zu gut; sie haben Skrupel zu vereinfachen; sie haben keine Zeit oder keine Lust, für einen großen Leserkreis zu schreiben; sie fürchten den Spott der Kollegen, wenn sie sich an die Öffentlichkeit wenden.“ (Zitat freigegeben für „Physik der Information“, S. 8)

Deshalb braucht es schon einen Meister wie Albert Einstein:

Albert Einstein:
If you can't explain it simply, you don't understand it well enough
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction

Das Problem dabei ist nicht, dass die Experten keine Erfahrung hätten, wie Prof. Dr. Dr. Vollmer so klar ausdrückt („sie kennen die Fallstricke zu gut“), es liegt zum Teil auch darin, dass sie soviel Erfahrung haben, dass es bereits Routine wurde.

Arturo Toscanini, 1867-1957:
Wenn ich eine Oper hundertmal dirigiert habe, dann ist es Zeit, sie wieder zu lernen.

Und Routine hat nicht nur Vorteile. Sie macht auch blind für die „ungelösten Probleme“, weil Routine schon so viele gelöst hat, dass sie alles in „längst bekannte“ Schubladen stopft. Sie muss gar nicht mehr genau hinsehen, kennt alles schon auswendig.

Die Definition der Information ist genau solch eine nicht mehr gefragtes Problem – kennen wir schon, wissen wir schon, ha’m wir alles schon gemacht.

Dabei ist es genau dasselbe wie bei einer Neuinstallation von Software. Da geht fast immer etwas schief, weil nicht daran gedacht worden war. Und keinem ist wirklich etwas vorzuwerfen – die Kunden bezahlen schließlich Berater dafür, das „neue Gehirn“ an ihren Betriebs-Organismus anzudocken und die Berater? Sind entweder zu unerfahren...

oder eben zu erfahren. Wissen alles schon, waren überall schon, kennen alles und brauchen deshalb den unerfahrenen Kunden gar nicht mehr zuzuhören...

und dann noch der Zeitdruck! Da rutscht einem schon mal etwas durch die Finger, was den Betrieb der Kunden dann aufhält.

„Neue Software“ ist doch inzwischen zur Standardausrede jeglichen Fehlverhaltens gegenüber Außenseitern geworden, nicht wahr?

Wenn Mahnungen und Gerichtsvollzieher drohen, tut das weh – bei Software-Installationen merkst du also eine etwaige Voreingenommenheit schnell.

Doch was soll denn wehtun bei der Definition der Information?

Zurück zum Anfang

Der Traum von Sicherheit

Information ist identifizierbare, wiederholbare Wirkung: Sie ist damit immer ein Prozess, immer dynamisch. Sie ändert.

Änderung: Was rot ist, wird grün, was weich ist, wird hart, was lebendig war, stirbt, was gesund war, wird krank, was gut war, wird schlecht...

Änderung: Die Basis allen Lebens und genau deshalb auch sein größtes Problem. Denn wenn Leben es geschafft hat zu leben, möchte es das auch weiterhin tun – aber wie sagte schon Jim Morrison? „No one gets out alive!“ Auch die buddhistische Einsicht weist diesen Weg: „Wenn ein Kind geboren wird, ist nur eins sicher: Entweder seine Eltern sterben vor ihm oder es stirbt vor seinen Eltern.“

Und hat nicht jeder von uns mal den Spruch benutzt: „Ich muss gar nichts außer Sterben“?

Jetzt ändert sich das Klima und je länger wir munter die Augen verschließen, hübsch unsere Energie verschleudern, dicke Autos fahren, Billigflieger uns in tolle Urlaubsgebiete bringen lassen unbeachtlich der Ozon-Schicht, umso schneller wird die globale Erwärmung die Grönland-Gletscher schmelzen und die sibirischen Süßwasserströme mit Regenmassen aufquellen lassen. Schon hat es den Golfstrom beeinflusst: Der sinkende Salzgehalt macht das abgekühlte Wasser leichter und erschwert ihm das Absinken in die Tiefen der Meere, von wo aus es ungehindert zurück in den Süden fließen muss, um die „stehende Welle“ Golfstrom weiterhin Wärme nach Europa leiten zu lassen, um weiterhin die Information zu liefern: Im Frühjahr wird’s wieder warm, auch wenn der Winter kalt war.

Nun ja, Information ist als wiederholbare Wirkung immer an Randbedingungen gebunden, denn Wiederholbarkeit heißt: Aus einem Anfangszustand folgt derselbe Endzustand und zwar immer. Immer ist aber zeitliche Unendlichkeit, das gibt es nicht wirklich. Also ist „immer“ von einer Informationsverarbeitung her gesehen völlig ausreichend, solange es „zeit meines Lebens“ ist.

Auch das ist indessen fragwürdig. Denn wenn etwas „schon immer so war“, heißt das leider noch längst nicht, dass es auch morgen noch so ist.

Jede Informationsverarbeitung weiß das – genau deshalb ist das menschliche Gehirn so gerne bereit, jegliche Erfahrung und Erinnerung über den Haufen zu werfen bei neuen Erkenntnissen.

Kennen Sie „Die drei Lebensalter: Alter Jugend, Kindheit“ von Salvatore Dali? Das Gehirn akzeptiert bereitwillig, dass ein Wechsel des Standpunkts völlig veränderte Ergebnisse erzielen kann: Was einmal Mund und Kinn eines Gesichts ist, ist bei Konzentration auf diesen Bereich eine sitzende Frau. Das ist nicht „Wankelmütigkeit“ oder „Unzuverlässigkeit der Erinnerung“, das ist schlicht und einfach das Wissen des Gehirns, dass sein ganzes „Wissen“ nur Abbildung von bisher erfahrenen Zuständen und ihren Relationen ist, dass diese niemals mehr als ein winziger Ausschnitt der Realität sind und dass deshalb unbedingt und unter allen Umständen das gesamte Wissen bei jeder neuen Beobachtung überprüft werden muss, ob die gezogenen Schlüsse immer noch stimmen.

Denn mehr ist unser „Wissen“ nicht über Information: Mehr als die Zählung von Ereignissen und ihren Reihenfolgen und bei einer gewissen auftretenden Häufung die Vermutung, dass hier ein wiederholbarer Prozess dahinter stehen könnte – ist es nicht. Nur eine Vermutung.

Ständige Unsicherheit, ständiges Lernen...

ständige Bauchschmerzen vor der Zukunft...

die Menschheitsgeschichte beweist klipp und klar, dass die Vogel-Strauß-Politik viel, viel schöner ist: Gesundbeten ist angesagt, zwei gleiche Erfahrungen machen schon eine Reihe schaffen schon Information, sprich Sicherheit, weil ich weiß, aus a folgt b

ich muss nur auf Papa hören, muss nur dem Priester, Lehrer, den Honoratioren folgen, die wissen Bescheid, die kennen sich aus, die haben alles schon mal gemacht...

In den langsam veränderlichen Kulturen, die bisher die Menschheitsgeschichte auszeichneten, schien es ausreichend zu sein, sich wie ein Kleinkind zu gebärden, die Verantwortung an zuerst die Mutter, dann den Vater abzugeben, ganz wie es die menschlichen Kulturen auch taten...

ja sicher ist es die erlösendste Erfahrung der Welt, wenn Angst sich in Luft auflösen darf – jeder Freizeitpark beweist dies mit seinen Attraktionen und dies ist Erbe unserer Kindheit, als wir hilflos einer Welt gegenüberstanden, von der wir gerade mal Null Ahnung hatten. Als Kinder fühlten wir uns auch klein und schwach, die Welt drehte sich so schnell, ständig geschah Unerwartetes, vieles war gefährlich, groß und laut – doch die Erwachsenen strahlten Sicherheit aus, sie schützten uns und hielten die ganze böse Welt in Schach.

Genau diese Sicherheit und Stabilität ist der geistige Mutterleib, in den wir ständig alle zurück streben – die Welt soll stabil sein, sie soll sicher sein, sie soll vorhersehbar sein, weil wir dann am besten darin zurechtkommen.

Und weil Informationsverarbeitung darauf optimiert ist, Informationen zu erkennen und zu „wissen“ und weil wir die intelligentesten IVs sind, die Mutter Natur hervorgebracht hat, können wir besonders viel Information erkennen und für uns benutzen. Deshalb glauben wir seit ein paar tausend Jahren, schon alles zu wissen. Auf unserer ewigen Suche nach Sicherheit haben wir das Paradies tatsächlich gefunden: den Determinismus, das Glück der totalen Vorhersehbarkeit. Spätestens als Zeus die Zeit (Kronos) besiegte, müssen die Menschen davon überzeugt gewesen sein, dass alles Vorhersehung, Kismet, Schicksal ist und dass Zufall nicht wirklich existiert, dass alles, wie in Newtons Universum, seit dem Anfang vorhersehbar ist und war.

Und wenn schon wir es nicht überblicken können, dann eben die Götter. Wenn schon wir die Unwägbarkeiten des Lebens nicht im Griff haben, denn eben die Götter. Wir verstehen sie zwar nicht, aber es läuft trotzdem alles nach Plan – der Witz dabei, wenn nicht du gar nicht selbst die Herrschaft über das Geschehen hast? Du brauchst dir einerseits Zufälle nicht zu erklären, die du nicht im „Wissen“ hast und kannst andererseits dennoch unbesorgt sein, weil immer noch „Irgendjemand“ das leistet. Und das genügt doch! Denn bei diesem Jemand kannst du dich anbiedern und das hast du als Kind gelernt, das beherrschst du perfekt und damit hast du, wenn auch mit Umwegen, die Sache wieder in den Griff bekommen.

Kants moralischer Imperativ interessiert nicht, wenn es um Urängste geht. Dass uns niemand die Verantwortung über die eigenen Taten abnehmen kann, ist eine rationale Einsicht, keine, die aus dem Bauch heraus kommt. Wer die Verantwortung abgibt, muss immer noch den Preis bezahlen – nur kann er ihn nicht mehr aushandeln, mit allen Unterwerfungsgesten dieser Welt nicht – wer glaubt das dann, so tief im Inneren? Bei Mama hat’s doch funktioniert, also lernten wir alle, dass Schutz von Mächtigen möglich ist, wenn man auf „Liebkind“ macht. Wie die Affen, die um die Gunst des starken Alphas auf dem Bananenhaufen buhlen anstatt sich ihre eigenen Bananen zu suchen, die sich gegenseitig anfauchen, während sie untertänigst zu seinen Füßen kriechen, um Bananen billig zu erhaschen, die nicht erst irgendwo gesucht werden müssen, so ziehen auch wir Menschen Sicherheit vor und zwar fast um jeden Preis – und auf fast jedem Gebiet, inklusive derjenigen, auf denen nur Ratio als Werkzeug taugt.

Dieser festsitzende Glaube an die Vorhersehbarkeit ist freilich nicht Ursache, sondern Auswirkung: wir müssen an die Vorhersehbarkeit glauben, weil wir sie zum Überleben brauchen, weil wir nur solche Ereignisse nutzen können, die vorhersehbar sind, die Information sind. Alles andere mag auftreten oder nicht, wir müssen’s nehmen, wie es kommt. Alles andere entzieht sich unserer Kontrolle (und auch der Kontrolle unserer mächtigen Beschützer) und kann sich somit gegen uns wenden.

So haben wir uns ein geistiges Gerüst erbaut, das Stabilität als die Basis der Welt sieht – und nicht den Prozess.

Dass all unsere Stabilität, basierend auf dem Quantenrauschen, nichts weiter als die Gleichmäßigkeit stehender Wellen ist, die irgendwann wieder in sich zusammenfallen wie unser Universum oder der Golfstrom, tut uns so spürbar weh, dass wir nicht dran denken wollen. Wie in der Liebe soll alles ewig sein, auch und vor allem unser Leben, auch und vor allem, wenn es uns gut geht.

Dann nämlich sind, wie beim Klimawechsel, alle Änderungen wohl nur zum Schlechteren.

Deshalb lieben wir Sicherheit und Stabilität über alles und deshalb wollen wir gar nicht wissen, was Information ist, denn natürlich wissen wir längst, dass Information immer mit Änderung zusammen hängt.

Doch Änderung ist unerwünscht.

Zurück zum Anfang

Werkzeug

Hilbert-Raum – ein faszinierendes Konstrukt, das mir in meinem Studium der Funktionalanalysis natürlich besonders auffiel, weil er ein ganz typisches Instrument der Physik ist und weil ich mich immer fragte, ob die Physiker tatsächlich jedes Mal nachprüfen, ob all die vielen, vielen Bedingungen an eine Menge, die den Hilbert-Raum erst formen, tatsächlich erfüllt sind.

Eugen Fick, „Einführung in die Grundlagen der Quantentheorie“, 4. Auflage, Akademische Verlagsgesellschaft Wiesbaden, ISBN 3-400-00393-X, schreibt auf Seite 114 denn auch, dass die Vollständigkeit des Basissystems zu einem physikalischen Problem wird.

Sein Buch weist jedoch noch eine weitere, für mich unvergessliche Fußnote auf:

Auf Seite 166 merkt er an, nur zur Klarstellung gedacht, dass die Energie-Zeit-Unschärferelation von anderer Natur ist als etwa die Ort-Impuls-Relation, weil Zeit nur als Parameter in die mathematischen Gleichungen einfließt, da ein „echter“ Operator zu mathematischen Problemen führt, die er in dieser Einführung nicht diskutieren wollte.

Zeit als Parameter.

Das erinnerte mich an ein weiteres, einschneidendes Erlebnis in meinem Studium – sage bloß noch einer, dass man an Universitäten nichts fürs Leben lernt!

Es war in „Theorie A“, als das harmonische Pendel besprochen wurde – ebenfalls ein ganz grundlegendes mathematisches Modell in der Physik. Was mir damals so bleibend in Erinnerung drang, war die einfache Bemerkung des Dozenten, dass die Pendelbewegungen eigentlich viel zu unbeherrschbar wären und dass wir uns deshalb auf einen 5%igen Ausschlag konzentrieren würden. Dort nämlich…

war die Bewegung beherrschbar.

Dort ließ sich Zeit als Parameter darstellen.

Zeit…

… hatte mich schon immer beschäftigt. Ich erinnere mich, als Teenager auf dem Weg zum Zug über das Problem gegrübelt zu haben und mich seinerzeit entschlossen zu haben, Zeit einfach als „den Ablauf der Dinge“ zu verstehen. Nichts Kompliziertes, nichts Theologisches, Esoterisches, Philosophisches, nein, einfach das, was alle am eigenen Leib erleben…

dass eins aufs andere folgt.

So im Nachhinein scheint es also gar nicht so sehr verwunderlich, dass ich Information als eine Veränderung von Anfangs- auf den Endzustand postuliert habe.

Aber im Nachhinein, a posteriori, ist jeder Esel klug, heißt es.

Zuvor jedoch diskutierte ich mit einem wissenschaftlich interessierten Laien, warum ich – mit einem Diplom der Physik und einer glühenden Leidenschaft für Funktionalanalysis – an den Zufall glaubte, während er dem totalen Determinismus frönte und mir tausend Sätze und Zitate an den Kopf warf, mit denen er „mathematisch exakt“ nachwies, dass für den Zufall kein Platz in diesem Universum sei. Oder glaube ich, dass die Quantenphysik nicht korrekt sei?

Damals erwiderte ich, dass die Quantenphysik Messungen von irgendwelchen Zählimpulsen sei und ihre Ergebnisse wesentlich auf dem Modell basieren, das zu deren Erklärung herangezogen würde. Solange dieses Modell durch das physikalische Experiment (als Prinzip) untermauert würde, wäre ich zufrieden, ich wäre jedoch vorsichtig damit, wenn es immer nur dieselben Experimentatoren seien. Zweifel ist Pflicht in der Physik.

Faust, Studierzimmer, Mephistopheles:
Ich bin der Geist, der stets verneint

Oh ja, ich liebe die Physik und die Mathematik, aber gelegentlich stehe ich ihren Anwendern skeptisch gegenüber. Ich werde nie vergessen, wie ich verspottet wurde, weil ich 1986 gegenüber unseren Theoretikern der Festkörperphysik behauptet hatte, es gäbe Supraleitung in keramischen Werkstoffen, wie ich gelesen hätte. Da ich meine Behauptung nicht mit ausreichend Details untermauern konnte, lachten sie mich aus. Die Josephson-Kontakte, so meine ich mich zu erinnern, würden das nicht erlauben.

Nun ja, der Nobelpreis war damals gerade für diese Supraleitung, die es nicht geben durfte, vergeben worden…

… diese gelegentliche Selbstgefälligkeit der Physiker, die keinesfalls und unter gar keinen Umständen aus der Physik selbst stammt, beobachtete ich noch häufiger. Ich fragte mich oft, ob sie die Gültigkeit ihrer mathematischen Tricks wirklich jedes Mal nachprüften, beispielsweise die Multiplikation mit 1. Die ist, mathematisch gesehen, immer erlaubt, weil sie keine Werte ändert. Wird die 1 aber geschickt durch einen Faktor ersetzt, der durch sich selbst geteilt wird, so lassen sich oft überraschende Ergebnisse erzielen.

Aber Physik und Mathematik sind nur Schwestern, keine eineiigen Zwillinge – die Mathematik muss sich nicht an der Realität messen, eine Freiheit, die die Physik nicht hat.

In der Physik erlebte ich diese Tricks deshalb nicht immer mit Bewunderung. Wenn dieser Faktor „i“ war und das Spiel mit dem Parameter „Zeit“ gespielt wurde, fragte ich mich oft, inwieweit das Verständnis der Physiker für „imaginäre Zeit“ ausgereift genug sei, um eventuelle Rechenfehler (oder noch schlimmer: Denkfehler) aufzuspüren. Doch außer mir schien sich das keiner zu fragen…

… oder eine andere, nette Episode aus dem Alltagsleben. Ein Kollege, Doktor der Physik, Einserkandidat, sehr, sehr stolz auf sich und seine überragende Intelligenz, einer, der auch von oben herab behaupten konnte, dass Castor-Transporte „physikalisch“ völlig unbedenklich seien, erzählte mir einmal, wie unentbehrlich er doch am Institut gewesen war. Er hätte ein Auswertungsprogramm für quantenphysikalische Messungen geschrieben (ja, genau die oben erwähnten Auswertungen von Zählimpulsen) und sei der Einzige, der das Programm „richtig“ anwenden könne.

Er war stolz darauf – ich fand das, so „physikalisch“ betrachtet, eine völlige Katastrophe. Das Ergebnis eines Experiments darf doch nicht an der Person kleben, die es ausführt! Die Zwischenschaltung eines pseudo-objektiven Elements wie eines selbst geschriebenen Programms machte die Sache nicht weniger subjektiv, wenn die Ergebnisse so personenabhängig sind.

Das ist Religion, nicht Physik. Das ist Jan Hendrik Schön, Fast-Nobelpreisträger aus eigenen Gnaden, der untertauchte, als die Fachwelt nach Jahren der Huldigung endlich begriff, dass er Ergebnisse türkte – das ist nicht Physik.

Physik ist Wiederholbarkeit und Identifizierbarkeit. Wenn der Apfel nicht immer wieder vom Baum fällt, unabhängig davon, ob Newton darunter liegt oder Tante Emma, dann taugt er nicht fürs Experiment.

Physik ist Unbestechlichkeit. Die Professoren der Kosmologie mögen sehr einflussreich hier auf Erden sein, doch jede Dekade lernen sie noch etwas dazu, das „sie sich nie hätten vorstellen“ können. Das Universum mache sich wohl manchmal über die Wissenschaftler lustig, die glaubten, tatsächlich fast alles zu wissen, las ich einmal.

Und damit sind wir wieder bei Information.

Denn Information ist auch wiederholbar, identifizierbar und unbestechlich – wenn auch nicht unveränderlich.

Und damit sind wir wieder bei der Zeit.

Die Ausgangsfrage, die mich auf die Spur der Information führte, war denn auch, wieso all die klugen Köpfe nicht hinter das Geheimnis gekommen waren, obwohl sie seit Jahrzehnten wie die Wilden dran arbeiteten.

Eine Antwort war, dass sie alle, zumindest die Naturwissenschaftler, dasselbe Werkzeug benutzten:

die Mathematik.

Trotz meiner Liebe zur Mathematik – oder vielleicht gerade deshalb – fragte ich mich also, ob die Mathematik ein Problem mit der Information hätte.

Und fand die Zeit. Mathematik ist aktuell nicht fähig, Zeit abzubilden, denn sie ist bisher nur eine Mengenmathematik.

Ja, dank Prof. Harro Heusers einmaliger Lehrbücher in Analysis (und später auch in Funktionalanalysis), die seine tiefe Liebe und sein ausgeprägtes Verständnis der Materie in Worte fassen und mir damit zugänglich machen konnten, fiel mir die „Grundstruktur“ der Mathematik bereits in den ersten Stunden der Lektüre auf: die klare „Auswahl“ von Eigenschaften, die so nützlich sind, dass sich aus Ansammlungen von Dingen, „Systemen“, durch einfache Beschränkung auf die Eindeutigkeit der Dinge die wertvollen Mengen herausschälten oder die Selektion von Beziehungen zwischen diesen Dingen auf solche, die immer nur auf ein einziges Gegenüber verweisen und das noch für alle Dinge aus und in eine bestimmte Menge, was die wertvollen Funktionen (von der Menge statt „nur“ aus der Menge) ausmacht. Bereits hier also…

viele Auswahlen, viele Beschränkungen…

(dass Ordnung ein Ausschlussprinzip ist, wurde mir freilich erst mit dem Funktionalkalkül so richtig glasklar).

William A. Dembski:

“From a mathematical point of view algorithms and natural laws are just functions, that is, relations between two sets, which to every member in one set (called the domain) associates one, and only one, member in the other set (called the range). As such, the functional relationship is fully deterministic.”

Da ich unbeirrbar an Mathematik und ihrer klaren, präzisen Vorgehensweise festhalte und somit jeder ihrer Sätze, jede ihrer Aussagen akzeptiere, war mir auch klar, dass ich „tiefer“ suchen musste…

ganz am Anfang – bei der Menge. Dort fand ich denn auch das Loch, das eine wahre „Sünde“ für die Mathematik ist: unbenannte Voraussetzungen.

Physik der Information, ISBN 3-935031-03-3,
Die Preisfrage, S. 107

„Damit rückt die Preisfrage schon ins Blickfeld.

Welche Preisfrage?

Die nach den impliziten, ungenannten Voraussetzungen in den mathematischen Grundbegriffen.“

Physik der Information, ISBN 3-935031-03-3,
Über Axiome, Regeln und Formalismen, S. 121

„Warum es so wichtig ist, jegliche verwendete Hypothese, Eigenschaft oder Regel anzugeben?

Weil das Ungenannte nicht nachprüfbar ist.“

Nachprüfbarkeit ist aber genau das, was Mathematik über alle anderen Werkzeuge der Menschheit hebt, was ihren Wert und ihre „Wahrheit“ ausmacht, weil auch sie wiederholbar, identifizierbar, unbestechlich ist.

Was also waren die beiden ungenannten Voraussetzungen der Mengenmathematik? Zeitunabhängigkeit und die daraus resultierende Einfachheit der Eigenschaft. Nicht falsch verstehen: Beides sind völlig „korrekte“ Voraussetzungen und erlauben genau das, was Herr Dembski ansprach – den perfekten Determinismus mathematischer Formeln.

Was anrüchig ist, ist einfach die Tatsache, dass es nie wirklich ausgesprochen wurde und deshalb, wohl mit dem Grund von Eugen Fick (mathematisch zu kompliziert, um es bei Anfängern zu diskutieren), „verschoben“ wurde.

Manchmal ist freilich aufgeschoben doch aufgehoben. Die Leute haben schlicht und einfach vergessen, dass Mengen viel, viel mehr sind als nur der kleine Teil, der mathematische Funktionen ermöglicht.

Und deshalb…

deshalb denken sie jedes Mal, dass ihre mathematischen Funktionen die ganze Welt beschreiben…

schlicht deshalb, weil sie den „Rest der Mengen“ vergessen haben, der nicht ins Schema passt?

Funktionen sind jedoch nur wie Schienen, sie ändern nichts, aber auch gar nichts – außer den Blickwinkel, sozusagen. Erinnert sicher nicht umsonst an manche physikalischen Vorstellungen von einer unveränderlichen Welt, in der nur „der Beobachter“ die „Wahrnehmung“ hat, sich zu bewegen, in „Wirklichkeit“ sich aber nichts tut, weil alles in ewige physikalische Formeln gegossen ist.

Physik der Information, ISBN 3-935031-03-3,
Die Preisfrage, S. 110

„Genau dasselbe ist der Falle bei jeder Menge der Mathematik: Sie wird unabhängig von der Zeit betrachtet, selbst wenn sie Zeitabhängigkeiten beschreiben sollen. Funktionen sind schließlich immer ausgehend von allen Elementen einer Menge bestimmt. Gerade das normale Vorgehen, Zeit als Parameter zu betrachten, wird häufig nur über die Multiplikation mit Zahlen erreicht, sodass ein einfacher Vektorraum diese Form der Zeitabhängigkeit schon abbilden kann.

Funktionen ändern aber nichts.

Sie sind selbst zeitunabhängig, weil sie Strukturmerkmale sind. Sie stellen Beziehungen zwischen Mengenelementen her, die wie eine Art von Netz über die Menge gelegt werden und dafür mehr oder minder tief greifende Voraussetzungen an diese Menge stellen. Keine Funktion hat jemals ein Mengenelement aus der Menge entfernt oder hinzugefügt, so sind sie nicht gebaut. Funktionen sind keine dynamischen Gebilde, sie sind eher wie Landkarten über der Menge. Wer oder was diese Landkarte abläuft, ist dabei uninteressant. Funktionen gewährleisten, dass „Element-Hopping“, das Hüpfen von einem Element zum nächsten, niemals in die Irre führt und das darüber hinaus immer auf den gleichen Bahnen.

Funktionen sind wie Schienen, fest und zuverlässig.

Und spätestens hier wird augenscheinlich, dass sich bloß nie etwas ändern darf – um genau diese Zuverlässigkeit der Funktionen und Mengen zu garantieren. Wozu sich die Mühe solcher ausgeklügelter Systematiken machen, wenn sie nicht dauerhaft sind?“

Schon interessant, wie die Information dann erklären kann…

… warum (die zeitunabhängigen) Funktionen dennoch so prächtig geeignet sind, (zeitabhängige) Vorgänge zu beschreiben, zumindest die 5%-Fälle.

Stichwort: passive Informationsverarbeitung.

Denn sind wir ehrlich: So exquisit und brillant die Theoreme der Mengenmathematik auch sind, sie basieren immer auf „einem festen Repertoire von Eigenschaften/Zuständen und deren Anordnungen“ – und das sind die Bedingungen der passiven Informationsverarbeitung. Und genau deshalb taugt Mathematik auch glänzend für die Probleme, für die die passive Informationsverarbeitung ausreichend ist:

Wohlbekannte Problembereiche, deren Umfang und Verhalten bereits ausgiebig erforscht sind, können über Mengen wunderbar abgebildet und über Funktionen prächtig simuliert werden…

wenn…

ja, wenn sie sich nicht zu rasch verändern, sodass die Funktionen dem „Parameter“ Zeit genügen können, wenn sie auf eindeutigen, unterscheidbaren Elementen beruhen, die als Mengen abgebildet werden können.

Und das ist auch völlig korrekt so.

Aber es taugt eben nicht für rasch veränderliche oder weniger bekannte Problemgebiete, für Elemente, die nicht unterscheidbar sind oder die nicht eindeutig sind – und die gibt es trotzdem. Nicht nur in der menschlichen Kultur, nicht nur im „belebten“ Makrokosmos, der von Physikern wegen seiner „Unzugänglichkeit“ für die Mathematik deshalb erst gar nicht zum Gegenstand des Interesses gemacht wird, nein, bereits in der Thermodynamik entfällt die Unterscheidbarkeit und/oder Eindeutigkeit der Elemente und in der Quantenphysik kommt sogar noch das interessanteste aller Phänomene hinzu: das Quantenrauschen als die (fast?) totale Ununterscheidbarkeit und die totale Veränderlichkeit.

Einfach – wie mein wissenschaftlich interessierter Laie – diesen Teil der Welt zu negieren und so zu tun, als würde schon alles ins Konzept passen…

ist nun mal nicht physikalisch-mathematisch saubere Vorgehensweise. Denn diese Hypothese, dass die Voraussetzungen für die formelmäßig behandelbaren 5% „einfach so“ auf die restlichen 95% der Ereignisse übertragbar sind, muss erst noch bewiesen werden: Eine Verwendung dieser Voraussetzungen zum Beweis, dass diese Voraussetzungen verwendbar sind, wie es mein wissenschaftlich interessierter Laie durch Extrapolation physikalischer Erkenntnisse, basierend auf den Voraussetzungen der formelmäßigen Behandelbarkeit, auf alle physikalischen Ereignisse tat - ist Tautologie, nicht Physik und erst recht nicht Mathematik.

Zumal dieser „Rest“ so groß ist, dass er alle paar Jahre gestandene Physiker zum Staunen bringen kann – Stichwort: dunkle Materie.

Beim Pendel würde niemand den harmonischen Oszillator als „Universallösung“ ansehen.

Oder?

Zurück zum Anfang

Unser eigener Geist

Physik der Information, ISBN 3-935031-03-3,
Die Gesichter der Information, S. 90

„Trotz immer teuerer Versuche lässt sich nicht in der gewünschten Endgültigkeit beweisen, dass die Zeit als Existenz von Instabilität nicht existiert, dass sie nicht nur ein Denkfehler biologischer Maschinen ist. Es ist zwar eine schöne Vorstellung, dass der Geist des Menschen erhaben über der Zeit schwebt, weil er sich kraft seines Bewusstseins davon loslösen und die Zeitlosigkeit gegen jegliche Erfahrung erkennen kann, doch scheint diese Vorstellung mehr am griechischen Götterhimmel denn an der Physik orientiert zu sein.“

Der Geist des Menschen schwebt erhaben über der Zeit.

So hätte er das gerne.

Das Problem dabei ist, dass nicht der Geist erhaben über der Zeit schwebt, sondern die Zeit erhaben über dem Geist.

Wieso?

Weil sie die Information schafft und er nur Informationsverarbeitung ist.

Gleichartigkeitshypothese, Gleichzeitigkeitshypothese und Widerspruch, S. 196

„Doch Informationsverarbeitung ist immer Folge, nicht Ursache. Sie nutzt Gleichmäßigkeit, die sie nur sehr bedingt kontrollieren kann und muss deshalb immer fähig sein, sie zu erkennen, wenn sie auftaucht. Und das in einer Unmenge von Veränderungen verschiedensten Ursprungs, deren Spuren sich gegenseitig überlagern, verschmelzen oder gar auslöschen.“

Unser Geist, der sich dazu noch als Ego seiner selbst bewusst ist und vor allem seiner unglaublichen Kompetenz, mit der Wirklichkeit fertig zu werden, dieser Geist, der die Aufgabe hat, seinen Körper so erfolgreich als möglich durch jedwede Situation zu schleusen genau durch diese Kompetenz…

Albert Einstein:
The least comprehensible about the universe is, that we can comprehend it.

... dieser Geist soll zugeben, dass er etwas nicht versteht?

Das ist fast ein Todesurteil, das er damit unterschreiben würde.

Denn wenn etwas nicht zu verstehen ist, kann dieser Geist es weder erfassen noch entschlüsseln und erst recht nicht – vorhersehen…

denn das ist die Aufgabe aller Aufgaben für ihn: vorhersehen, was schädlich ist oder erkennen, was nützlich ist.

Etwas nicht zu verstehen, etwas nicht zu kontrollieren, heißt schlicht und einfach ausgeliefert zu sein. Unvorbereitet. Wehrlos.

Das macht Angst. Sogar unserem mächtigen Geist.

Und weil der Wunsch Vater des Gedankens ist, neigt er dazu, ein wenig blind gegenüber dem zu sein, was er nicht beherrschen kann. Wie Zaphod Beeblebrox’ Brille, die bei Gefahr schwarz wird (in memoriam Douglas Adams).

Doch sind wir ehrlich: Angesichts der überwältigenden Macht des menschlichen Geistes, seine Umwelt zu erfassen, ist es nicht wirklich unverständlich, dass er letztlich glaubt, er könne alles verstehen. Das ist freilich nur solange wahr, solange es sich um Information dreht, solange das, was geschieht, abbildbar ist, denn solange kann der menschliche Geist es in seine Intelligenz übernehmen und damit arbeiten.

Was nicht abbildbar ist, liegt dagegen für immer außerhalb des Einzugsgebiets unseres Geistes. Und das hat mit Glauben versus Wissenschaft nichts, aber auch gar nichts zu tun, denn auch der Glaube „bildet sich etwas ab“ in seinen geglaubten Vorstellungen.

Genau wegen dieser Allgegenwart des Abbildbaren haben wir Menschen auch immer das Problem, zwischen Abbildung und Abgebildetem zu unterscheiden. Gar zu oft neigen wir dazu, ein funktionierendes Modell „einfach so“ zu extrapolieren, ohne im Hinterkopf zu behalten, dass ein solcher Vorgang, so rechtmäßig er auch in der Hypothesenbildung ist, immer nur eine Hypothese erzeugen kann, die dringendst der Verifikation bedarf.

Solch eine unzulässige Extrapolation wird besonders mit der Physik gerne getan. Dabei hat gerade die Quantentheorie bewiesen, dass funktionierende physikalische Konzepte sehr wohl ihre Grenzen haben. Newtons Kraftkontinuum wurde keinesfalls durch die neue Theorie widerlegt, nur eingeschränkt.

Und das nicht, weil das sichere, stabile, vollkontrollierbare Newtonsche Universum dem menschlichen Geist so unangenehm gewesen wäre! Die Idee, dass du alles berechnen kannst, wenn du nur Orte und Bewegungen kennst, gefiel den Menschen schließlich so gut, dass Einstein nicht umhin konnte, die Quantentheorie abzulehnen und lieber solch undurchsichtige Vagheiten wie „verborgene Parameter“ einführte, um „Gott nicht würfeln“ lassen zu müssen.

Doch leider hatte jedwelche „Extrapolation“ von voll determinierten Kraftkonzepten in dieses merkwürdig undefinierte Kontinuum der Quanten einfach keinen Erfolg – mit der Vorhersage.

Denn das ist nun einmal die grundlegendste Aufgabe unseres Geistes: die Vorhersage. Deshalb ist das Experiment nichts weiter als die natürliche Kristallisation des Verifikationsprozesses, den der menschliche Geist andauernd leistet, um das mächtige Gebilde „Welt“, das er abzubilden vermag, auch in tatsächlicher Harmonie mit dem Abgebildeten, der echten Welt, schwingen zu lassen – um die Hypothese mit der Realität abzugleichen.

Doch bis heute machen die so gefundenen Quanten den Menschen Probleme. Sie verstehen sie einfach nicht. Sie können sie berechnen und über Formeln grübeln, aber verstehen können sie sie nicht.

Einfach weil ihnen ein wesentliches Element der Information fehlt: die Unterscheidbarkeit.

Die „Teilchen“ im Quantenkontinuum sind in aller Regel ununterscheidbar, wie die Teilchen im Gas der Thermodynamik. Und Ununterscheidbarkeit erlaubt keine Ursache-Wirkungskette, weil keine direkten Zuordnungen möglich sind.

Keine direkten Zuordnungen heißt keine klaren Abbildungen: Wir können uns das nicht vorstellen.

Probieren Sie es doch! Stellen Sie sich einfach viele identische Teilchen vor. Sie werden sehen, dass Sie genau das tun, was der Messprozess in der Quantenphysik tut: das System ergänzen, um einen Messwert zu erhalten.

Wenn Sie sich ununterscheidbare Teilchen vorstellen, dann packen Sie sie in Randbedingungen, wie beispielsweise die Gasteilchen in einen Behälter – Sie machen sie damit unterscheidbar durch ihre Position im Behälter und können dann die Ursache-Wirkungs-Zuordnung durchführen, die Sie brauchen, um an die gewünschte „Information“ zu kommen.

Können Sie sie nicht in solch ein Unterscheidbarkeits-System schaffen, so müssen Sie mit Wahrscheinlichkeiten arbeiten. Ein „Randbedingungs-System“, in dem diese Ununterscheidbarkeit wenigstens eingekesselt ist, brauchen Sie jedoch immer noch: Das ist so ungefähr das Konzept der Ensemble-Interpretation, das zur Interpretation der Heisenbergschen Unschärferelation verwendet wird und bei dem die ununterscheidbaren Teilchen zur wenigstens statistischen Messung in Hälften zerlegt werden. (Quelle 15.02.2005)

Doch auch hier gilt: für die Ununterscheidbarkeit sind die Randbedingungen Ersatz für die Identifikation, die für eine Messung zwingend erforderlich ist:

Die Realität als Maßstab: Messen, Vergleichen, Speichern, S. 157

„Eine Messung ist dabei nicht viel mehr als eine kontrollierte Wertveränderung, denn unsere Sensoren sind im informativen Sinn nichts weiter als Eigenschaften, die verschiedene Werte annehmen können. Tritt eine solche Wertveränderung an einem unserer Sensoren auf, nennen wir das Ereignis eine ‚Messung’ “

Und was wir messen können, können wir identifizieren, abbilden, speichern, kopieren…

verstehen.

Umgekehrt – was wir nicht messen können, können wir nicht verstehen.

Und was wir nicht verstehen können, kann in unserer Welt im Kopf schlicht nicht existieren.

Was dort nur zu existieren vermag, ist Abbildung, speicherbar – letztlich stabil.

Wenn zu dieser konzeptionellen Begrenzung auf Stabilität und dem Wunsch nach Sicherheit dann noch die Perfektion der Physik und Technik hinzukommt, die uns ständig neu beweist, wie gut wir die Welt verstanden haben, dann dürfte deutlich werden, warum wir das Gefühl haben, diese Welt sei letztlich stabil und Zeit nur eine abgeleitete Größe, die ein griechischer Gott oder eine mathematisch fassbare Bewegungsgleichung schon irgendwie in den Griff kriegen können.

Beim Welle-Teilchen-Dualismus ziehen wir uns lieber auf das Teilchen zurück. Sogar beim Licht bevorzugen wir es, von Photonen zu reden…

um in unserem Object-Action-Bild bleiben zu können, um Teilchen-Wechselwirkung, Ursache-Wirkung und damit klare Verhältnisse mit identifizierbaren Ausgangspunkten von Wirkungsketten haben zu dürfen.

Doch es gibt diesen unverständlichen Anteil der Welt tatsächlich – es gibt ihn nicht nur rein formal, weil es im theoretischen Konzept eben auch Transformationen (Wertveränderungen) gibt, die nicht regelmäßig sind, und darüber hinaus Veränderungen, die nicht einmal „Werte“ verändern, sondern sogar nur „Zwischenzustände“ erzeugen. Es gibt diesen unverständlichen Anteil „wirklich“, in der Wirklichkeit des Universums…

sehr schön an den QuBits zu sehen.

Und weil wir genügend wissenschaftliches Material für die Quantentheorie haben, können wir zweifelsfrei darauf zurück schließen, dass diese nicht-informativen Transformationen oder sogar Nicht-Transformationen tatsächlich sogar „existieren“ – auch wenn Existenz eigentlich mit Messbarkeit von Werten verknüpft ist, weil wir Existenz nur nachweisen können, indem wir sie feststellen, sprich indem wir sie messen.

Veränderung ist das Originäre, Zustandwechsel ist die Norm, nicht der Zustand selbst.

Die Zustände müssen nicht einmal exakt identifizierbar sein, so wie es für uns im Makrokosmos „selbstverständlich“ ist, sie können sich mischen und verbinden und auflösen, ganz nach Belieben – sie müssen nur irgendwie durch Wirkung verbunden sein, die diese Vermengung und Veränderung am laufenden Band ziel- und planlos „bewirken“ kann: das Quantenrauschen.

In „Theoretische Physik“, Band 4A, „Quantentheorie, Spezielle Kapitel“, Walter Greiner, Verlag Harri Deutsch, ISBN 3-87144-566-5, S. 172 (entschuldigen Sie bitte die nicht vollständige Quellenangabe in „Physik der Information“, Professor Greiner) schreibt Professor Greiner hinsichtlich des Casimir-Effekts, dass „die Frequenzen ω des elektromagnetischen Feldes … von der geometrischen Form des Volumens“ abhängen, in das das Feld eingeschlossen wird. Und er schreibt: „Ändert man die geometrische Form, so ändert man die Frequenz der Normalmoden und damit die Nullpunktsenergie“.

Wie also, wenn wir den Spieß umkehren?

Nicht die Stabilität ist der wahre Kern des Universums, sondern der Fluss, die ständige Bewegung, nicht die Zeit ist das, was als Abstraktion aus dem Modell entfernt werden kann, ohne die Abbildung zu verfälschen - sondern das Ruhende.

Ordnung und Symmetrie, Zeit und Entropie: Nur das Rauschen ist ewig, S. 185

„Randbedingungen, Wirkung, Zeit und Information scheinen deshalb auf eine ganz fundamentale Art miteinander verbunden zu sein. Das Rauschen ist Nichts, ist Photonenvakuum, „leerer Raum“, gesichtlose Wirkung, die alles und nichts vermag, weil alles, was erreicht wird, sofort wieder zerfällt. Jeder Zustand mag zwar eingenommen werden, doch die Unendlichkeit erlaubt unendlich viele solcher Zustände und nichts scheint im Rauschen zu existieren, dass einen Zustand davor schützt, von der nächsten Wirkung wieder eliminiert zu werden. Wirbel und Wellen im Rauschen sind symmetrisch wie das Meer für die frühen Seefahrer.

Das ändert sich sofort, wenn Grenzen erscheinen, dann gewinnt das Rauschen „Farbe“, schafft Nullpunktsenergie, Quarks und Antiquarks, als würde die gesichtslose, ständige Wirkung nun in gleichmäßige Schwingungen verfallen können. Schwingungen sind physikalisch sehr interessante Phänomene mit einem sehr vielfältigen und mächtigen Verhaltensrepertoire und sie bergen die Möglichkeiten, Stabilität und Gemeinsamkeiten aus sich heraus zu erzeugen - denken Sie an Interferenz und Resonanz.

Warum also sich das Universum nicht aus Schwingungen erbaut vorstellen? Die so erfolgreiche String-Theorie tut das ja längst. Stabilität ist in solch einem Bild nur eine stehende Welle. Und statt dass Zeit eine „Einbildung“ ist, über die der menschliche Geist schweben kann, ist die Stabilität die „Einbildung“, über der er schwebt – um sich „ein Bild“ machen zu können, von dem, was vor sich geht.

Unsere Realität ist, wie uns die Quantenphysik nahe legt, eben nicht stabil, nicht wohlstrukturiert und nicht ad hoc identifizierbar, sondern zuerst Wirkung, dann Wirkung, die in Randbedingungen "eingeschlossen" ist und deshalb ein "limitiertes", sprich geregeltes Verhalten demonstrieren kann (Schwingung, Resonanz) und dann eben Wirkung, die nicht nur regelmäßig ist, sondern sogar "Symmetriebruchstellen" durchläuft, sprich Werte von Observablen verändert und damit identifizierbar wird.

Zur Information wird.

Und können wir nicht auch eine Menge Ähnlichkeit zwischen der Unverständlichkeit des Quantenkosmos und der Information finden?

- Die Verschränkung beispielsweise.

Das faszinierende EPR-Experiment (Quelle 15.02.2005) ist gefühlsmäßig gar nicht mehr so unverständlich, wenn das ganze als Systemzusammenhang verstanden wird – auch die Information verbindet Elemente „logisch“ zu größeren Einheiten und lässt in aller Regel keine Trennung eines einzelnen von der Gesamtheit mehr zu, ohne die Gesamtheit berücksichtigen zu müssen.

- Oder die Grenzgeschwindigkeit.

Grenzgeschwindigkeit, die gerade im Zusammenhang mit dem EPR-Effekt zum Problem wurde, wo Information nicht ausgetauscht werden kann, obwohl Zustandsveränderung übertragen wurde – aufgrund der Tatsache, dass Wirkung, wie wir sie kennen, eine Grenzgeschwindigkeit hat: Albert Einsteins Lichtgeschwindigkeit.

Auch Informationsübertragung in Neuronen zeigt eine Grenzgeschwindigkeit.

- Dann die Ähnlichkeit der rein mathematischen Darstellung des QuBits, in der die Eigenvektoren zur „klassischen“ Minimal-Information des Bits werden.

Das alles macht keine Probleme – rein verständnismäßig – wenn die Stabilität, der „Raum“, zur Nebensache erklärt wird und die Zustandsänderung, die „Zeit“, zur dominanten Charakteristik des Universums. Dann haben wir uns nämlich, zumindest rein theoretisch, wieder Unterscheidbarkeit geschaffen.

Weil es dann den „einfachen“ Fluss von Zustandsänderungen gibt, der an keinerlei Voraussetzung gebunden ist, dann denjenigen, der Regelmäßigkeit aufbaut, also „Schwingungscharakter“ zeigt (und bereits zu Interferenzphänomenen wie „Verschränkung“ fähig ist) und dann zuletzt diejenige Schwingung, die identifizierbare Zustände erzeugen kann.

Wie eine stehende Welle, die gleichbleibende Amplituden und Wellenlängen zu ihrer Messung zur Verfügung stellt – Größen, Observable, „Eigenvektoren“, mit denen jeder ihrer Zustände beschreibbar wird.

Eine solche stehende Welle wäre dann das, was wir als „stabil“ bezeichnen, etwas, das „identifizierbar“ ist, das einen „gefesselten“, geregelten Fluss erlaubt, bei dem Zustandswechsel in schöner Ordnung hintereinander geschaltet sind – unsere Information eben.

Der einfache Fluss wäre dann das, was wir als Quantenrauschen bezeichnen, die zweite Stufe der Regelmäßigkeit ohne Identifizierbarkeit beschriebe den für uns bereits über Wahrscheinlichkeiten berechenbaren Quantenkosmos und der letzte Schritt, die erreichte „Stabilität“ stehender Wellen, wäre dann der Bereich, der aus dem Quantenkosmos heraus in unseren Makrokosmos reicht – exakt berechenbar, exakt formalisierbar.

Durch Randbedingungen, die der anonymen Wirkung etwas geben, was sie selbst nicht aus sich heraus besitzen kann: Identität.

Randbedingungen, die als Ausschlussprinzip dann aber nicht mehr alle Zwischenzustände zulassen, sondern eine Reduktion von Möglichkeiten zugunsten des geordneten Systems erzwingen (Quantisierung), bis letztendlich nur noch die Eigenvektoren der zugrunde liegenden Teilsysteme überdauern können – dann ist der Makrokosmos erreicht, wie wir ihn kennen, wo alles einen klaren, eindeutigen Wert hat, wo Existenz existiert, die immer gemessen werden kann, weil das durch die Messung vergrößerte System seine erreichbaren Zustände nicht mehr weiter reduzieren kann als bereits getan: auf die Eigenvektoren, den eigenen Wertebereich.

Prächtig berechenbar, solange die Komplexität nicht auch im Makrokosmos überhand nimmt und uns wiederum zur Wahrscheinlichkeit greifen lässt, diesmal nicht aufgrund fehlender Unterscheidbarkeit identischer Teilchen, sondern aufgrund der schieren Masse von „Teilchen“, die sie letztendlich dann auch „identisch“ werden lässt: IKI – infinity kills information.

Mit einem solchen „Bild“ ist das EPR-Experiment nichts mehr wirklich Besonderes. Denn Raum ist damit nur eine Eigenschaft der stehenden Wellen und die Grenzgeschwindigkeit der Wirkung kann schlicht auf genau dem beruhen, was die Forscher des Max-Plancks über ihre Informationsübertragungs-Grenzgeschwindigkeit anführten: die Synchronizität des Verhaltens.

Oder mit anderen Worten: die Zustandsänderungen des Quantenrauschens sind nicht das, was die Geschwindigkeit der Übertragung behindert, sondern nur die Aufrechterhaltung des Schwingungscharakters, sprich der Regelmäßigkeit.

Ordnung ist ein Ausschlussprinzip – und soll Ordnung erhalten bleiben, muss die Ausschließung gewahrt bleiben. Erhaltung bedeutet aber immer irgendeinen Aufwand, egal wie er aussieht. In unserem Wellenbild bedeutet es nichts anderes, als dass der Fluss der Zustandsänderungen korreliert bleibt, sodass eine regelmäßige Schwingung vorliegen kann. Und diese Korrelation scheint es zu sein, die der Geschwindigkeit Grenzen auferlegt.

Jedoch erst im „letzten Stadium“, dann wenn stehende Wellen bereits „Observable“ ausgebildet haben, sprich Identifizierbarkeit. Das dürfte die Lehre sein, die dieses Schwingungsbild zusammen mit dem EPR-Effekt nahe legt. Denn der Systemzusammenhang beider Teilchen, der noch nicht „raumartig“, sprich stabil identifizierbar ist, kann überlichtschnell bewahrt bleiben.

Identifizierbarkeit und Raum – Zusammenhang und Logik.

So, wie sich die Informationsexperten „logisch“ in Regeln unterhalten können, über Algorithmen diskutieren, als müsste nicht immer irgendwo eine Wirkungskette zugrunde liegen, die die von ihnen „abstrakt gedachten“ Zusammenhänge realisiert, so lässt sich auch der Raum von der Wirkung „abstrakt gedacht“ vorstellen. Doch wie bei der Information, bei der noch kein einziger Algorithmus dann tatsächlich umgesetzt wurde ohne eine irgendwie geartete Wirkungskette, so zeigt auch das EPR-Experiment, dass sich der Raum vielleicht nicht ohne Wirkungsketten realisieren lässt, auch wenn im Quantenkosmos bereits die „nicht voll entwickelte“ Wirkung auftreten kann, während wir die Welle erst nach Ausbildung ihrer Identifizierbarkeit als „Kausalität“ verwenden können.

Die Bedeutung von Wirkungsketten für Systeme des Makrokosmos dürfte hingegen wohl kaum eine Frage sein – selbst die ML-Methode, die ganz banale Programmierobjekte aus ganz banalen Worten heraus berechnet, verwendet genau das: Sie verfolgt die Wege der Wirkung, komprimiert sie nach einfachsten Vorschriften, um das Prinzip der geringsten Wirkung für die Lösungsfindung auszunützen und stellt als Problem beispielsweise die völlige Trennung von Teilsystemen durch das Fehlen jeglicher verbindender Wirkungsketten fest. Als Problem stellt sich diese Feststellung dann heraus, wenn die Programmierer wissen, dass die beiden Systembereiche zusammengehören – kein Problem ist es, wenn es tatsächlich keine verbindenden Wirkungsketten gibt, sodass zwei verschiedene, getrennte Systeme existieren, die dann viel einfacher „gelöst“ werden können, weil sie weniger Komplexität als der Gesamtverbund aufweisen.

Natürlich bleibt auch die Bevorzugung der Welle vor dem Teilchen ein Bild – die Natur der Veränderung ist unabbildbar und liegt damit notwendig außerhalb auch dieses Bildes, aber die Zustände, die sie erzeugt, sind sehr wohl abbildbar, solange es Zustände sind, die „direkt“ von Eigenvektoren erzeugt wurden. Solche „reinen“ Zustände tauchen auch im Quantenrauschen, dem Zustand des chaotischen Wirkungsflusses, immer wieder auf (virtuelle Teilchen), doch da sie zusammenhanglos sind, würden sie sich uns nur als „zufällige Bildpunkte“ im Rauschen erfassen lassen.

Die nächste Stufe der korrelierten Schwingung dagegen, noch vor Ausbildung der Identität, ist freilich bereits etwas, das wir abbilden können, durch die „Korrelation“, den geregelten Zusammenhang der „reinen Zustände“. Genau das ist es, was die Quantenphysik mit ihren Formeln dann ausnutzen kann. Noch existiert zwar keine Identifizierbarkeit, noch lassen sich die Regeln, die Korrelationen, die „Bewegungsgleichungen“ nicht eindeutigen „Bezugspunkten“, Observablen, Variablen in den Schwingungen zuordnen, doch die Regelmäßigkeit des Zusammenhangs ist bereits ausreichend für Formalisierbarkeit (Proto-Information).

Die letzte Stufe dann ist die perfekt korrelierte Schwingung, in der jeder Zustand nur noch einen einzigen möglichen Nachfolgerzustand haben kann und in der die Welle dann „ihre Form“ nicht mehr ständig ändert, sondern sie beibehält. Diese Form ist dann das, was stabil erscheint, was wir identifizieren und abbilden können und was wir in Zusammenhang mit anderen Formen bringen können.

Emmy Noethers Theorem von den Erhaltungsgrößen auf kontinuierlichen Symmetriegruppen beschreibt Systeme, bei denen infinitesimale Veränderungen die Bewegungsgleichungen nicht ändern – in unserem Bild heißt dies, dass dies Systeme sind, die die „Form der Welle“ nicht zerstören, ihren Informationsgehalt damit nicht angreifen, weil sowohl die Regelmäßigkeit als auch die Identifizierbarkeit erhalten bleibt.

Die QuBit-Bit-Relation, die die einfachste denkbare Relation Quantenkosmos-klassischer Kosmos ist, zeigt damit vielleicht auch den Übergang von der Noether-Gruppe zu der (reduzierten) Gruppe der Information des Systems. Was die Observablen im Hilbert-Raum sind, sind die Eigenschaften im klassischen Sinn, was die Eigenvektoren im Quantenkosmos sind, sind die Transformationen der klassischen Information.

Wenn, ja wenn unser Geist die Zeit als die Norm und den Raum als die Ableitung ansieht und akzeptiert, dass ihm nicht das inhärente Potential, sondern nur die Randbedingungen zur Verfügung stehen, um Veränderung zu begreifen.

Randbedingungen, die wie Wände im Casimir-Effekt den chaotischen Fluss der Wirkung zu korrelierten, weil limitierten Schwingungen zwingen und damit die Erhaltungsgrößen erst erschaffen, die wir dann als Observable für Messvorgänge nutzen können - weil ihre Erhaltung die notwendige Stabilität, sprich Unabhängigkeit, gewährt, um das System auch nach einer Veränderung an ihrem gleich gebliebenen Wert wieder erkennen zu können.

Randbedingungen, deren Wirkung selbst verstärkend ist wie die Wände im Casimir-Effekt, die wie jede „Systemerweiterung“ eine Reduktion von Möglichkeiten bedeutet, durch die nicht mehr alle Zustandswechsel erlaubt sind, damit Ordnung schaffen, und deren Charakteristik somit die noch zugelassenen Zustandswechsel, sprich die sich ergebende Schwingung prägen, wo zuvor kein Zusammenhang existierte.

Randbedingungen, die so aus Zufall Information erschaffen können, wie der Große Rote Fleck auf Jupiter, der aus dem Chaos der Fastsonne heraus Positionierung ermöglicht - einen identifizierbaren Punkt erzeugt, an dem sich Rotation und Klima „festmachen“ lassen.

Wenn, ja wenn unser Geist die Vormacht des Wechsels vor der Beständigkeit akzeptiert.

Und das ist schwer, richtig schwer – denn Beständigkeit ist auch die Strukturierbarkeit der Mengenmathematik.

Zurück zum Anfang


© bussole IV 2004 (außer Zitate)

Zurück zum Blog