Zurück zum Blog

RDF
RTE
Tempolimit in neuronalen Netzen
Der Nürnberger Trichter
Die Essenz des Lernens
Cookies
BPO, RTE und Subsysteme
Nachtrag BPO...
Hannover-Messe
Topics bei JMS
ESB
Kernel, SOA, RTE, ESB
Einfach nur – Objektorientierung
Nachtrag OO
Kurzer Exkurs in die Biologie: Proteom
Informationstechnologie und der Untergang des Abendlandes
Virtualisierung, Automatisierung, Integration
QuBits
BPM
Performante App-Server

Weitere aktuelle (und nicht mehr ganz aktuelle) Trends in Richtung „Definition der Information

Zurück zum Anfang

Informationstechnologie und der Untergang des Abendlandes

Vor einiger Zeit sah ich im Fernsehen eine Reportage, bei der ich in eine beständige Mischung zwischen Kopfschütteln und Kopfnicken verfiel: Kopfnicken, weil die Reportage ein interessantes Fakt nach dem anderen brachte, eine interessante Idee nach der anderen – und Kopfschütteln, weil sie wie die Katze um den heißen Brei um „die Natur der Information“ herumstreunte, ohne jedoch „Information“ tatsächlich klar und deutlich auszusprechen.

Thema: Speicherproblem bei digitalen Medien, TV-Reportage „Hilfe, wir verschwinden – das digitale Desaster“, Jörg Daniel Hissen und Peter Moers, NDR, 03.08.2004, 22.15h-23.00h (Handschriftliche Mitschrift):

„1) je kleiner die Speicherkomponenten, also je größer das Speichervolumen pro Medium, desto instabiler wird die Speicherung langfristig.

2) „Langfristige“ Speicherung wird immer aufwändiger, obwohl kurzfristige immer billiger und einfacher wird.

3) Information ist „flüchtig“

4) Das amerikanisches Militär sammelt alte Computer, um die alten Daten zu konservieren. Das Problem: Bedeutung geht bei vorhandenem Speichermedium ohne lesefähige Computer verloren, dann bleiben nur die Daten erhalten.

Beispiel: „SIRA“ – Die Datenbank der Stasi wurde mit einem „streng geheimen“ Programm erstellt, dessen Computer vor der Wende vernichtet und dessen Programmierer danach in den Gefängniszellen verschwanden...

und mit ihnen das Wissen darum, was „hinter“ den Bits und Bytes steckt.

Fazit der Reportage:

Die Informationsgesellschaft radiert sich aus der Geschichte selbst aus, weil sie ihre Informationen nicht mehr dauerhaft speichert. Das Wissen um die Vergangenheit verleiht einer Gesellschaft ihre Identität.“

Information ist flüchtig und Bedeutung muss durch lesefähige Computer bewahrt bleiben.

Wie weit ist der Schritt von hier aus eigentlich noch dazu, dass Information dynamisch ist? Wenn Information „verduften“ kann, dann muss sie auch so etwas wie ein Eigenleben haben.

Und was ist Bedeutung anderes als die Information, die darin steckt? Denn wenn mir die Bedeutung von Daten erhalten bleibt, dann „sagen sie mir etwas“, dann kann ich die darin enthaltene Information noch erkennen und verwenden. Wenn also die Bedeutung von Daten nur dadurch gesichert werden kann, dass die Funktionalität, die „Logik“ der Computerprogramme, die sie interpretieren können, zur Verfügung steht, dann zeigt auch dies deutlich, dass Information nicht in stabilen Zuständen existieren kann.

Doch das hat Shannon auch nicht behauptet. Aus seiner Gehaltsabschätzung von Information aus Zustandsbetrachtungen folgert genau das: Konstante Zustände weisen keine Information auf. Wiederum der klare Hinweis darauf, dass Information dynamisch ist.

Wenn Information aber dynamisch ist, dann hat sie immer etwas mit Veränderung zu tun. Hier aber setzt das Problem ein, nicht wahr?

Denn Veränderung ist verdächtig.

Aber Veränderung ist auch die Mutter der Vergangenheit – ohne Veränderung gäbe es kein früher oder später. Und Vergangenheit verleiht Identität.

Warum?

Weil Individualität ein Produkt der Information ist.

Denn Individualität basiert auf Eindeutigkeit und die auf Unterscheidbarkeit. Unterscheidbarkeit kann es aber nur geben, wenn physikalische Observable existieren, die die Symmetrie brechen, also unterscheidbare Zustände schaffen. Und das wiederum heißt, dass physikalische Wirkungen Ergebnisse bewirken, die sich von dem Zustand unterscheiden, der vor der Wirkung herrschte.

Physik der Information, ISBN 3-935031-03-3,
Verknüpfungen von Transformationen: Wiederholbarkeit und Zusammenhang, S. 133

„All diesen Beispielen ist gemeinsam, dass sie Vertauschbarkeit erlauben. Bei einer Kugel oder einem Kreis lassen sich die Punkte, die den gleichen Abstand zum Mittelpunkt haben, aufeinander klappen, ohne dass sich sagen ließe, welcher denn nun woher stammte, beim Schmetterling sind es die Flügel, die rechts wie links aussehen, wenn einmal großzügig von den natürlichen Abweichungen abgesehen wird, und bei der gesichtslosen Menge? Stellen Sie sich afghanische Frauen in ihrem Ganzkörperschleier auf einem Bild vor– nur die Größe, die Farbe und ihre Position im Bild unterscheiden sie, sie haben keinerlei persönliche Individualität und damit Identifizierbarkeit. Solange eine Veränderung der Position darauf achtet, dass Größe und Farbe gleich bleiben bei den vertauschten Menschen, bleibt das Bild völlig identisch: Es ist symmetrisch hinsichtlich der Achse „Größe gekoppelt mit Farbe“ und nicht nur das: Sowohl Größe als auch Farbe lassen sich dann als Observable verwenden, sind also zur Messung tauglich. Dieses Konzept „Symmetrietransformation“ ist eine sehr flexible Form, Symmetrien zu begreifen und zu beschreiben, denn damit erfasst sie jede Art der Uniformität von Elementen. Um bei den eigentlich so individualistischen Menschen zu bleiben: Soldaten aus einer Entfernung, aus der Gesichter oder gar die Haarfarbe nicht mehr zu unterscheiden ist, sind sogar nur hinsichtlich der Achse „Größe“ symmetrisch, Menschen, fotografiert aus dem Weltraum, sind hinsichtlich jeder Vertauschungsaktion symmetrisch, sie sind reduziert auf Null und Eins: sie sind da oder nicht.“

Physikalische Wirkungen und Observable, die die Wirkung „sichtbar“ machen können – das ist nichts weiter als ein physikalisches Messverfahren, denn die „Sichtbarmachung“ der Wirkung heißt, dass sich „Vorher“ und „Nachher“ voneinander trennen lässt.

Und das heißt, es muss Werte haben, die so herrlich unterscheidbar sind wie Mengenelemente, bei denen sich für jedes einzelne in all der Unvorstellbarkeit mathematischer Möglichkeiten sagen lässt, zu welcher Menge es gehört und das innerhalb der Menge durch seine wunderbare Eigenschaft, eindeutig zu sein, auch mit keinem anderen Element verwechselt werden kann.

Das exakt sind physikalische Werte. Denn zu welcher Menge es gehört, entscheidet die Observable und dass sie unterscheidbar sind, entscheidet die „Sichtbarkeit“ der Wirkung, denn was unterschieden werden kann, ist ungleich.

Gottfried Wilhelm Leibniz, 1646-1716:
Das Prinzip von der Identität des Ununterscheidbaren:
Was nicht unterschieden werden kann, ist gleich.

Physikalische Wirkung, Observable und Unterscheidbarkeit von Werten – das ist das Rezept für physikalische Messverfahren. Diese können aber immer nur auf wiederholbaren Vorgängen beruhen – es macht keinen Sinn, den Zufall zu messen, denn er ist nicht vorhersehbar, nicht in Art, nicht in Zeit.

Stimmt nicht? Wir messen auch Lotterie-Ergebnisse, Würfelspiele und Sternschnuppen?

Nein, tun wir nicht – wir messen fallende Kugeln, oben liegende Würfelseiten und die Lichtausbeute des Firmaments und anhand der gemessenen Werte können wir Einteilungen vornehmen, wie oft die 36 als spezieller Wert der Observable „Kugel“ gefallen ist, wie oft die 5 kam und wie viele helle Blitze an sonst dunklen Stellen (Sternschnuppen) durchschnittlich nachts zu erwarten sind.

Eindeutigkeit ist dabei eine „besondere“ Messung, denn sie sagt aus, dass unter all den verschiedenen Werten, die das Messverfahren uns ermöglicht, keine zwei Objekte sich einen teilen können.

Und nur dann, wenn Eindeutigkeit im Spiel ist, wird umgekehrt aus den wiederholbaren Vorgängen Information. So ist die 1001. Definition der Information.

Deshalb haben die Macher der obigen Reportage auch völlig recht mit ihrem Fazit, dass das Wissen um die Vergangenheit die Identität einer Gesellschaft bewahrt. Weil die Vergangenheit Informationsverarbeitungen eindeutig macht, zumindest bei der aktiven Informationsverarbeitung.

Passive Informationsverarbeitung bewahrt ihr Wissen im Körper auf, sie kann deshalb nur durch Generationenwechsel lernen. Im Idealfall ist also jedes Individuum der Art mit jedem anderen identisch.

Nicht so bei aktiver Informationsverarbeitung:

Individualität ist eine Folge ihrer Lern- und Prägbarkeit. Um vielfältige Aufgaben bewältigen zu können, muss das Regelwerk zwar möglichst universell sein, was das genaue Gegenteil von Individualität ist, weil aber das Wissen, das durch dieses Regelwerk erworben werden kann, einzigartig in Raum und Zeit ist, ist es die ganze Einheit „Informationsverarbeitung“ auch.

Denn es hängt ab von der Zufälligkeit der Existenz dieses einen Individuums, welche Orte es sah, welche Ereignisse es erlebte.

Und damit ist es wirklich einzigartig – im gesamten Universum.

Nicht nur nicht unterscheidbar und deshalb gleich (Gottfried Wilhelm Leibniz), nicht nur von so geringem Unterschied, dass es nicht „nicht messbar“ ist, nein, tatsächlich unterschiedlich.

Für diese Einzigartigkeit braucht es noch nicht einmal die Einzigartigkeit unserer schönen blauen Erde, auch wenn dies vielleicht das psychologische Moment hinter dem häufig anzutreffenden Wunsch ist, dass die Erde oder wenigstens das Leben darauf etwas Besonderes sei – es macht uns selbst zu etwas Besonderem und wer möchte das nicht sein?

Doch aus der Tatsache, dass bisherige Planeten, die im Weltall außerhalb unseres Sonnensystems gefunden wurden, sehr viel größer sind als unsere Erde, gleich zu folgern, dass es kleinere Planeten kaum gibt, ist sehr vermessen und zeigt die Neigung der Menschen auf, anthropozentrisch zu denken: Das Messproblem, die vielen Wahrheiten, die Vermengung von Information und Informationsverarbeitung ist einfach eine Frage der ungeklärten Position.

Denn Information ist nicht gleich Informationsverarbeitung, auch wenn Informationsverarbeitung Information enthalten, verändern und transportieren kann.

Und wenn ein Messvorgang, der für bestimmte Werte und Wertebereiche, die er empfangen und einordnen kann, ausgelegt ist, dann heißt das eben, dass alle anderen Werte schlicht nicht von Bedeutung sind. Es heißt keinesfalls, dass diese Werte nicht existieren.

Und wenn kleine Gesteinsbrocken, die fast kugelrund ihre Sonne umkreisen, in dieser Sonne nicht soviel Unwucht erzeugen können wie Planeten, die neben ihren Sonnen groß genug sind, um nicht wie Erbsen auszusehen, und sie dazu noch in extrem eiernden Bahnen umlaufen, dann bedeutet dies eben nur, dass die Störungen in der Bahn, die von solchen Zwergen stammen, viel zu gering sind, um von unseren Astronomen gemessen zu werden. Schließlich würde auch die Erde nicht von unseren irdischen Messinstrumenten aufzufinden sein – existiert sie deshalb nicht?

Aber diese Einzigartigkeit ist gar nicht erforderlich für die Einzigartigkeit aktiver Informationsverarbeitung.

Denn selbst wenn es Millionen von Erden gäbe und selbst, wenn sich dort das Leben unwahrscheinlicherweise genauso entwickelt hätte wie hier, sodass es aberwitzig viele Menschen geben könnte, so wäre doch jedes einzelne Gehirn einzig mit seinem gespeicherten Wissen. Denn wo es geboren wurde, wessen Stimme es zuerst hörte, was es in seiner Kindheit erlebte, das gibt es kein zweites Mal. Selbst in diesem absolut undenkbar großen Universum bin also ich, du, jede Person dieser Menschheit einzigartig. Denn sogar in diesem absolut undenkbar großen Universum ist jeder Raumzeitpunkt eindeutig – und damit auch jede Bahn von Raumzeitpunkten, die von unterschiedlichen „Objekten“ durchlaufen wird.

Und damit kehren wir zurück zu dem Fazit der Macher der obigen Reportage, dass das Wissen um die Vergangenheit die Identität einer Gesellschaft bewahrt, denn wie Menschen sind auch ihre Gruppen, ihre Familien, ihre Städte, ihre Kulturen Informationsverarbeitungen. Das reine Regelwerk ist anonym, unindividuell, erst das gesammelte Wissen macht eine Intelligenz zur „Persönlichkeit“.

Wer das Wissen um die Vergangenheit einer Gesellschaft auslöscht, löscht die Spur der Gemeinsamkeiten aus, die die Menschen einer Kultur miteinander verbinden – und damit löst er deren Zusammenhalt auf, weil er sie „atomisiert“ in ihre Einzelteile. Da eine funktionierende Gruppe immer stärker ist als ihre getrennten Bestandteile (Stichwort Arbeitsteilung), ist dies wohl der Grund, warum Sieger immer die Geschichte der Besiegten neu schreiben.

Und warum es eine Form von Selbstmord für High-Tech-Kulturen ist, ihre Geschichte auf Speichermedien zu konservieren, die kaum länger als Eintagsfliegen existieren.

Doch eine High-Tech-Kultur, die sich „Informationsgesellschaft“ nennt, weil sie in praktischen Dingen Information verarbeiten kann, theoretisch indessen keine Ahnung hat, was „Information“ tatsächlich ist, kann eben auch die Gefahren einer solchen Technologie nicht abschätzen. Einer Technologie, die die Vorhersehbarkeit der Regelkreise ausnützt, aber so viele neue Regelkreise schafft, dass die „Zyklen der Stabilität“ solcher Regelkreise immer kleinräumiger und kurzfristiger werden.

Und damit Information zerstören, weil Information keine Eigenschaft von Zuständen ist, sondern vom Motor des Universums abstammt, der Zustände erzeugt: eine brave Tochter der Wirkung, aber mit Sinn für Ordnung.

Wer die Ordnung zerstört, zerstört zwar nicht die physikalische Wirkung, dafür zerstört er die Vorhersehbarkeit ihrer Ergebnisse – und leistet damit dem Veränderungsprinzip „Zufall“ Vorschub.

Und für solche Verhältnisse gibt es bereits ein Wort:

Chaos.

Zurück zum Anfang

Virtualisierung, Automatisierung, Integration

Virtualisierung heißt das Zauberwort der letzten Tage.

Ob auf Netz- oder Server-Ebene, im Moment wird alles „virtualisiert“, was nicht niet- und nagelfest ist, um verschiedene Elemente zu einem gemeinsamen Ganzen zu kreieren. Sogar ganze Programme und Programmkomplexe sollen solcherart zu Teamwork befähigt werden. Wie verführerisch diese Vorstellung sein muss, beweist auch das andere neue buzzword „SOA“.

Das geschah aber doch auch schon früher, meinen Sie?

Da haben Sie Recht – der Unterschied war nur, dass früher für jeden Einzelfall der Teamwork eine separate Lösung nötig war.

Für jedes Fällchen ein Ställchen.

Das kann sich heute aber fast keiner mehr leisten. Je größer die ganzen Komplexe werden und je schneller neue Wünsche aufkeimen können, umso störender erweisen sich Einzelfalllösungen, denn diese sind „wie in Stein gemeißelt“.

Physik der Information, ISBN 3-935031-03-3,
Speicherstrategien: Konfiguration und Huckepack, S. 162

„Unsere moderne Technologie zeigt deshalb auch, dass wir die Grenzen der Konfigurationsmethode erreicht haben, denn sie ist eine Einzelfall-Lösung mit all ihren Nachteilen. Einzelfall-Lösungen bieten zwar immer den Vorteil der Einfachheit, dafür ufern sie rasch aus und erfordern dann zusätzliche Koordinationstätigkeiten, die unabhängig von der Abbildung einfach dafür sorgen müssen, dass all die einzelnen Speicheranordnungen und Abbildungsvorschriften sich nicht gegenseitig zu widersprechen beginnen.“

Komplexe, vielschichtige Strukturen, die möglichst automatisch funktionieren sollen…

das erinnert an Großrechner, nicht wahr? Deren Betriebssysteme waren schon vor Jahren in der Lage, die Daten Tausender von Benutzer nicht nur schnell, sondern auch kontrolliert hin und her zu schieben, für die sie nicht nur die Anwendungen suchten, sondern je nach Bedarf auch den passenden „Arbeitsraum“ organisierten - und sie kommunizierten schon vor Jahren mit den diversesten elektronischen Systemen. Viele der modernen Strategien sind deshalb aus der belächelten Altvorderen-Erfahrung entnommen, zumal die RAS-Philosophie (Reliability, Availability, Serviceability) vielleicht nicht so glamourös erscheint wie die ständige Suche nach neuen Kicks auf dem Spielerechner, doch für Betriebe unerlässlich ist. Bunte Bildchen zählen nicht, wenn du Rechnungen an Kunden zu schreiben hast oder Lieferanten anmahnen musst, dass sie dir endlich die dringend benötigten Komponenten zuschicken – deshalb muss dein Rechner nicht nur seinen verdammten Job tun, er muss es auch zuverlässig tun und nicht nur, wenn ihm gerade mal danach ist.

CW 32/2004, S. 28, "Alle Server tragen Mainframe-Gene" (Joseph Reger, CTO, Fujitsu-Siemens Computers): "RAS … meint die hard- und softwaretechnischen Implementierungen von Redundanz, systeminterner Fehlererkennung und -behebung, dynamischer Rekonfiguration, Sicherheitskonzepten, Cluster-Techniken für Verfügbarkeits- und Desasterverbund sowie weitestgehend automatisiertem System-Management.“

Der Autor entstammt dem Mainframe-Milieu und er verteidigt es zu Recht. Denn wenn auch die Informatik noch nicht verstanden hat, dass sie auf einer naturwissenschaftlichen Basis funktioniert, dann heißt dies noch lange nicht, dass ihre Technologie es nicht trotzdem tut. Sonst wäre sie nie so erfolgreich, schlicht und einfach.

Imhotep kannte die Kräfteverhältnisse in Stufenpyramiden auch nicht. Weder besaß er Euklids Methodik der exakten Formulierung von Algorithmen, noch besaß er Newtons Kenntnis von Kräften, ihren Richtungen und ihren Überlagerungen.

Aber seine Pyramiden stehen heute noch.

Probieren geht über Studieren.

Was er nicht wusste, ersetzte er durch Ausprobieren. Geduld hatten sie ja, die alten Ägypter. Einige ihrer zusammengefallenen Stufenpyramiden zeigen noch immer, wie viel Geduld – bis endlich der Trick mit der 60°-Neigung der Stufen gefunden war. Die Strategie der best practices funktioniert perfekt.

Denn dass sie Euklid nicht kannten, heißt noch lange nicht, dass sie überhaupt keine mathematischen Formeln kannten.

Physik der Information, ISBN 3-935031-03-3,
Archaische Kodierung, S. 68

“27. Megalithic sites in Britain“, Alexander Thom, Oxford University Press 1967, ISBN 0-198-131488,„Megalithic lunar observatories “, Alexander Thom, Oxford University Press 1971, ISBN 3-198-581327

Alexander Thom schlug auch Konstruktionstechniken für die jeweiligen Grundrisse der Steinkreise vor und behauptete aus diesen Techniken heraus, dass die praktische Kenntnis des Satzes von Pythagoras bereits zum Alltag dieser Menschen gehörte. 2000 Jahre vor Pythagoras war das sicher nicht von vorneherein zu erwarten.“

Diese Unabhängigkeit des praktischen Nutzens von der Kenntnis einer dahinter stehenden Gesetzmäßigkeit ist es auch, was die moderne Informationstechnologie am Leben hält.

Auch wenn sie das Rad häufig neu erfinden muss, weil sie nicht imstande ist, hinter die Buzzword-Mentalität zu sehen – doch das ist eine typische Schwäche von Schriftgelehrtenwissenschaften, kein „persönliches“ Problem der IT.

Da eine solche Wissenschaftsdisziplin sich nicht auf exakte theoretische Grundlagen verlassen kann, bleibt ihr nur die Erfahrung, was keinesfalls ein Nachteil sein muss. Denn Menschen sind Informationsverarbeitungen und ihr Gehirn ist auf Information optimiert, ist also prächtig in der Lage, Spreu vom Weizen zu trennen (best practices). Deshalb sind trotz des schnellen Fortschritts in der IT die alten Hasen sehr wohl imstande, die Gemeinsamkeiten zu sehen und schneller als andere die Richtung zu erkennen, in die neue Entwicklungen laufen. Denn was sich hier als „Gemeinsamkeit“ bemerken lässt, sind die naturwissenschaftlichen Grundlagen, die sich diesen ganzen Entwicklungen zwangsweise aufprägen und die völlig unabhängig davon existieren, ob jemand sie theoretisch bereits beschrieben hat oder nicht.

Eines der wesentlichen Elemente jeder Informationsverarbeitung blieb schließlich trotz wechselnder Technik stets dasselbe: Cui Bono, die Zielrichtung. Das Ziel, „die Effektivität der Datenverarbeitung“ zu steigern und an „neue geschäftliche Anforderungen“ anzupassen, ist schließlich so alt wie die Datenverarbeitung selbst.

Entscheidende Mittel dafür seien „Virtualisierung, Automatisierung und Integration“ und diese wären „heute auf allen Plattformen die wesentlichen Ansätze, um IT-Infrastrukturen flexibel und nicht zu komplex zu gestalten“, sagt dazu der Autor des obigen Artikels. Dabei gäbe es bereits unternehmensweite Integration von nebeneinander existierenden Anwendungen, die vom Umsetzen proprietärer Protokolle [Ankopplung von Altsystemen] bis zum regelgestützten Zusammenspiel reiche.

Regelgestützte Integration ist dabei der Idealfall, der ermöglicht wird durch Virtualisierung. Doch auch ein weiterer Vorteil wird angesprochen und zwar im Kommentar von CW-Redakteur Ludger Schmitz.

Bisher verteilte Rechenleistung kann auf einige wenige Systeme zusammengefasst werden.

Abgesehen davon, dass gerade alten Hasen hier ein leichtes Kopfschütteln erlaubt sei eingedenk der Predigten vergangener Tage hinsichtlich der Verteilung der Ressourcen, ist die Tatsache, weniger Systeme verwalten zu müssen, auf den ersten Blick sofort als vernünftig einzusehen. Weniger Systeme heißt weniger Komplexität, weniger Kommunikationsvorgänge zur notwendigen Abstimmung – andererseits war die Verteilung der Ressourcen auch keine schlechte Idee, um die einzelnen Systeme nicht ins Unendliche wachsen zu lassen.

Auch hier also das alte Rätsel: Wie sieht die Struktur einer Informationsverwaltung aus? Und weil eine solche Struktur nun einmal – physikalisch bedingt (ML-Methode) – ein Optimum hat in der Zahl der beteiligten Objekte bei einer vorgegebenen Zahl zu erledigender Aufgaben, und ein Optimum ein bedingtes Maximum ist, gibt es immer solche scheinbaren Widersprüche, denn die Maxima einzelner beteiligter Modellgrößen decken sich nur selten mit dem Optimum des gesamten Systems. Bei einer IV liegt das schlicht an ihrer Endlichkeit, an der Notwendigkeit, gegen alle mathematischen Ideale und menschlichen Wunschvorstellungen in der Realität existieren zu müssen und die Realität verlangt nun mal immer eine Begrenzung. Einerseits muss eine Aufgabe mit vorhandenen Mitteln gelöst werden, andererseits muss sie es in einem bestimmten Zeitrahmen tun, sonst erledigt sich das Problem von ganz alleine. Arbeitsteilung ist hier zwar das Rezept jeder IV, möglichst viel Information in vertretbarer Zeit verkraften zu können, doch das Problem der Informationsverarbeitung bleibt bestehen, dass Information als Wirkung Arbeit erfordert, um „verschoben“ zu werden und dass keine Struktur dies jemals ändern kann. Was Strukturen nur können, ist – ganz „natürlich“ physikalisch – ein Minimum zu erreichen, bei dem bei gleichem Ergebnis eben weniger Aufwand erforderlich ist.

Dass die IT von solcher Naturwissenschaftlichkeit nichts weiß, heißt jedoch noch lange nicht, dass ihre funktionierenden Lösungen sich nicht iterativ an dieses Optimum annähern können. Und das tun sie – von den Mainframes über Client Server zur SOA.

Von der Vergangenheit zur Zukunft.

Die Virtualisierung, die bisher besonders weit in den technischen Gefilden der Mainframes vorangekommen ist, wird denn auch als Strategie die Voraussetzung für die zukünftigen Fähigkeiten unserer Computer sein.

CW 46/2004, Jubiläumsausgabe S. 28, "Der Computer wird verschwinden" (Prof. Dr. Alois Ferscha, Vorstand Institut Pervasive Computing, Johannes Kepler Universität Linz; Kürzel as)

So stellt Prof. Dr. Ferscha fest, dass der erste erforderliche Schritt, die „Vernetzung aller Dinge" ("Connectedness"), bereits erfolgt sei.

Dies kann nämlich bereits auf Ebene der Einzelfall-Lösungen geschehen.

Dann aber stellt er sein Fachgebiet vor: "Pervasive Computing" oder das Konzept der „auf die Funktion reduzierte[n], vom Gerät entkoppelte[n], intelligente[n] Informationstechnologien, die als eine unterstützende Hintergrundassistenz proaktiv und weitgehend autonom agieren“.

Das klingt sehr nach SOA.

Es klingt aber noch nach mehr, denn die für solche Informationstechnologien erforderlichen Geräte müssen als autonome Einheiten nicht nur wissen, was zu tun ist, sondern auch wann. Sie müssen also „die gültigen Bedingungen“ für ihre Verhaltensvorschriften feststellen können – das heißt, sie müssen „beobachten“ können, sie müssen Daten erfassen und bewerten können.

So führt Prof. Dr. Ferscha denn auch aus, dass diese Systeme ihren Input neben oder statt klassischer Inputgeräte über Sensoren empfangen werden, die hauptsächlich elektronische, aber auch optische, akustische, magnetische, chemische, biometrische oder physiognomische Signale erhalten.

Und sie müssen ihre Ergebnisse abliefern können, wobei die Nutznießer ihrer Arbeit sehr wohl wiederum Maschinen sein können.

So meint Prof. Dr. Ferscha, dass der Output dieser Systeme beispielsweise über Mikrocontroller, Multimedia-Emitter, Überwachungs- und Steuerungseinheiten, Motoren in eine Informationsverarbeitungsumgebung "eingebettet" wird.

Die Fliege als Grundstruktur aktiver Informationsverarbeitung: die Messung und Bewertung der eingehenden Signale, die gemäß den eigenen Zielen aufbereitet wird, um zu einer Entscheidung zu führen, die dann so exakt und schnell als möglich auszuführen ist.

Deshalb macht Prof. Dr. Ferscha hier einen ganz entscheidenden Schritt, den nur wenige zu gehen wünschen: Er vergleicht Maschinen mit Menschen.

So sagt er, dass beim Entwurf und bei der Entwicklung intelligenter Systeme und Umgebungen es von zentraler Bedeutung sei, dass sie „die Aktivitäten und das Verhalten von Akteuren oder Objekten erkennen, lokalisieren, wahrnehmen und vorhersagen“ können.

Vorhersagen – das einzige wirkliche Ziel einer jeden Informationsverarbeitung:

Die Vorhersage, was unter welchen Bedingungen geschehen wird und damit die Möglichkeit der eigenen situationskonformen Reaktion. Da ist es wohl kein Wunder, dass er sogar das K-Wort benutzt im Zusammenhang mit den Fähigkeiten der Maschinen – er geht sogar noch weiter: er verlangt die Formalisierung des menschlichen Geistes. (Spätestens hier sind mir die Leute davongelaufen, das mögen sie nicht hören.)

Zu Recht stellt er jedoch gegen jegliches menschliche Geltungsbedürfnis fest, dass die Abbildung solcher „kognitiven Fähigkeiten auch auf Informationsverarbeitungssysteme“ zur Einbettung „in industrielle oder wirtschaftliche Prozesse“ beziehungsweise zur Integration „in technische Systeme… einer Formalisierung der menschlichen Wahrnehmungsprozesse und eines entsprechenden methodischen und technologischen Apparates“ bedarf. Dies versetze "kontextbasierte" Anwendungen mit Hilfe der über Sensoren erfassten Umgebungsinformationen in die Lage, „ein System selbst zu steuern und zu kontrollieren“.

Dass Virtualisierung diese Zukunft ermöglicht, ist schließlich kein Zufall, sondern der Grund, warum aktive Informationsverarbeitung überhaupt existiert: weil es flexible Abbildungen gibt.

Deshalb funktioniert auch unser Gehirn danach und zwar so sehr viel besser als alles, was wir uns nur ausdenken können, dass die meisten lebenden Menschen sich überhaupt nicht vorstellen können, aus welchen einfachen Anfängen es sich erhob. In Amerika, dem Land der unbegrenzten Möglichkeiten, in der Spitzen-High-Tech-Nation der Welt, glaubt bis heute die Hälfte (47 Prozent, Quelle 05.02.2005) der Bevölkerung, dass Darwin ein Gerücht ist – und sie glauben es, weil der Wunsch Vater des Gedankens ist, weil damit Bewusstsein und Seele etwas ist, was nicht materiellen Dingen unterliegt. Denn das mache sie selbst zu etwas Besonderem, glauben sie. Dass es tatsächlich Information ist, was dies bewirkt, wollen oder können sie nicht verstehen. Wie viele rationalere Menschen übrigens auch nicht, die zwar meist Mathematik beherrschen, sich aber über die grundlegenden Eigenschaften von Mengen wie Klasse oder Typ (über Mengenzugehörigkeit) und Identität (über Eindeutigkeit der Elemente) wenig Gedanken machen. Die Eindeutigkeit basiert jedoch auf Unterscheidbarkeit und die Unverkennbarkeit unseres Egos ist eine notwendige Folge der Tatsache, dass wir intelligente aktive Informationsverarbeiter sind.

So ist auch Virtualisierung die Technik, die wir benutzen, um mental unsere Probleme zu lösen – Vorstellung. Wir stellen uns die Situation vor anhand der Objekte, die wir in unserem Gedächtnis gespeichert haben zusammen mit ihren Verhaltensmöglichkeiten. Diese „Vorstellung“ können wir dann verwenden, um „mögliche Abläufe“ darin stattfinden zu lassen: „Fantasie“. Bei Computern heißt das Simulation.

Wenn wir also unsere Rechner in die Lage versetzen wollen, schnell viele verschiedene Probleme zu lösen, müssen wir sie als aktive Informationsverarbeitung konzipieren. Dann müssen wir ihnen auch Sensoren geben, mit denen sie zeitgenau Werte aufnehmen können aus ihrer Umgebung, wir müssen sie Strategien lehren, wie sie aus diesen Werten Information gewinnen, ganz analog der Gleichartigkeits- und Gleichzeitigkeitshypothese, und wir müssen ihnen Ziele geben. Letzteres wird selten erwähnt, ist aber genauso wichtig wie die anderen Elemente der Verarbeitung. Erwähnt wird es wohl deshalb so selten, weil wir per Programm den Computern unsere eignen Ziele implantieren – und die kennen wir.

Doch je weiter RTE und SOA voranschreiten, umso mehr muss nicht nur die Erfassung von Daten, sondern auch die Bewertung den Maschinen überlassen werden, denn sie sollen „proaktiv und weitgehend autonom agieren“ können, um die wachsenden Anforderungen an Schnelligkeit und Flexibilität zu befriedigen. Und dazu gehört nicht nur die Virtualisierung als Verarbeitungsstrategie.

Zur Virtualisierung gehört auch „Integration und Automatismus“, denn nur der gesamte Komplex „aktive Informationsverarbeitung“ bringt den gewünschten Vorteil. Integration ist dabei Kommunikationsfähigkeit – die Teilsysteme müssen miteinander arbeiten können, ohne ständig nach menschlicher Hilfe zu rufen. Und das wiederum heißt auch „Automatismus“, denn manchmal genügt eben nicht nur ein einfaches Datum, um weitermachen zu können, manchmal muss eben auch etwas getan werden.

Das ist der Grund, warum die ML-Methode definiert wurde. Weil bei einem Kernel, der als Kommunikationsskelett weitgehend autarke Objekte zu einer funktionsfähigen, nach außen einheitlichen Applikation zusammenführt, die zugrunde liegenden Objekte nicht mehr das Problem sind.

Denn durch die SOA-Struktur von standardisierten Kommunikationsvorgängen, vorgegebenen Schnittstellen und grundlegenden Systemdiensten wird die Problematik der Objekte reduziert auf ihr eigentliches Aufgabenbiet – sie werden zu echten „Black Boxes“ und damit sehr viel einfacher zu konstruieren und auch zu warten. Kein Grund für graue Haare.

Die Komplexität ist dabei jedoch nicht verschwunden – sie ist nur „besser organisiert“, in einer Struktur, die dem Prinzip der geringsten Wirkung näher kommt als ein undefinierter Spaghettiberg.

Das birgt aber eine Schwierigkeit, die die bisherige IT noch gar nicht wirklich sieht, auch wenn es gelegentlich schon warnende Stimmen hinsichtlich der Komplexitätsprobleme gibt – einfach weil sie nicht weiß, was für naturwissenschaftliche Grundlagen sie zu befriedigen hat. Die Schwierigkeit ist die, dass diese SOA-Struktur nur dann wirklich ihren Zweck erfüllt, wenn sie nicht nur die Möglichkeit bietet, die Struktur der minimalen Wirkung zu gestalten, sondern wenn sie es auch tatsächlich tut.

Man kann locker auch innerhalb der höchst-standardisierten und mit Hilfe der effizientesten Systemdienste katastrophale Anwendungen erzielen, wenn man nur ungeschickt genug seine Aufgaben auf die erforderlichen „weitgehend autonomen“ Objekte verteilt.

Und dass das gar nicht so einfach ist, mag folgender der Hinweis deutlich machen: die Services der SOA sind sehr unterschiedlich „granuliert“. Auf der höchsten Architekturebene werden die „grob granulierten“ Services verbunden, auf der niedrigsten Ebene stehen die „fein granulierten“ Services zur Verfügung. Das Problem? Eins baut auf das andere auf. Die fein granulierten sind praktisch einfachste Funktionen, von denen es Tausende in einer Anwendung gibt. Sie werden dann in Grüppchen und Gruppen zusammengefasst, bis sie hübsch organisierte Teilaufgaben erledigen können, dann ganze Aufgabenbereiche abdecken und letztlich ganze Geschäftsprozesse.

Das Spaghetti-Problem sitzt somit allen denjenigen, die die SOA konzipieren müssen, wieder im Nacken – denn die ausführenden Programme sind zuerst die einfachen, tausendfach vorhandenen Funktionen, die dann – SOA macht’s möglich – zu Teilaufgaben und Aufgaben und Aufgabenbereichen und und und zusammenfließen sollen, alles, ohne im üblichen wirren Spaghettibrei zu enden. Denn dann wäre die SOA in ihrem Kern zerstört.

Programmierende Menschen mit etwas Erfahrung (heutzutage Software oder Information Architects genannt) fügen solche Funktionen schon „automatisch“ zu vernünftigen Teilaufgaben und Aufgaben zusammen, doch eine echte SOA soll dies selber können.

Virtualisierung – Integration – Automatisierung.

Virtualisierung ist dabei die Abbildungsstrategie,

Integration ist die Systembildung in „Gruppenstruktur“ durch Kommunikation,

Automatisierung ist die Entscheidungsfähigkeit mit den notwendigen Ressourcen zur Durchsetzung der Entscheidung.

Virtualisierung erstellt die Landkarte der vorhandenen Ressourcen und ihrer Möglichkeiten, eine Art von „Organigramm der Computer“, Integration regelt die Zusammenarbeit und die Sprache im System und Automatisierung ist letztlich der I-Punkt, der das alles unter einen Hut bringt, der die aus der Landkarte ersichtlichen Ressourcen mit den von der Integration zur Verfügung gestellten Kommunikationsmethoden dann gemäß hinterlegter Richtlinien aufruft und steuert, je nach aktuellem Bedarf.

Und wenn das alles so strukturiert ist, dass es dem Prinzip der geringsten Wirkung folgt…

dann liefert es sogar die „optimale Lösung“ für den gewünschten Problembereich.

Zurück zum Anfang

QuBits

Wikipedia (Quelle 11.02.2005):

„Ein Qubit (für "Quantenbit") ist ein beliebig manipulierbares Zweizustands-Quantensystem…

Als Zweizustands-Quantensystem ist das Qubit das einfachste nichttriviale Quantensystem überhaupt.“

Los Alamos National Laboratory, Quantum Institute (Quelle 11.02.2005):

„a qubit is the basic unit of information of a quantum information system“

Universität Ulm (Quelle 11.02.2005):

„qubits, die elementaren Träger von Quanteninformation“

Unit of information – kann man solch eine fundamentale Behauptung aufstellen, wenn man gar nicht exakt weiß, was Information ist? Natürlich kann man es: das Imhotep-Prinzip.

Ein beliebig manipulierbares Zweizustands-Quantensystem als elementaren Träger von (Quanten)Information zu bezeichnen, ist denn auch absolut korrekt.

Denn was ist noch elementarer als ein Zweizustandssystem? Bleiben wir in den natürlichen Zahlen, so lassen sich nur noch das Nullzustands- und das Einzustandssystem erkennen. Das erste System hat gar keinen Zustand und damit nichts mit Information zu tun, weil es keine definierten Werte einnehmen kann – es ist demnach die Nullmenge. Das Einzustandsystem kann zwar bereits existieren, es kann doch keinen Wechseln unterliegen, es ist ein konstantes System und hat damit nicht nur nach unserer Definition, sondern nach wohlbekanntem Wissensstand überhaupt keine Information.

Das Zweizustandssystem ist folglich tatsächlich das grundlegendste aller Systeme, die etwas mit Information zu tun haben.

Und wenn wir das Reich der natürlichen Zahlen verlassen?

Landen wir in der Quantentheorie, denn genau das ist es, was ein QuBit vor einem Bit auszeichnet – es kann Zustände einnehmen, die aus Superpositionen (Überlagerungen) der „Grundzustände“ 0 und 1 aufgebaut sind. Das heißt aber auch, dass das Einzustandssystem in diesem Bereich ebenfalls nicht zu berücksichtigen ist – denn eine Überlagerung von einem Zustand mit sich selbst schafft nicht einmal in der Quantentheorie weitere Möglichkeiten.

Wenn aber das „beliebig manipulierbare“ Zweizustandssystem die grundlegende Einheit der Information sein soll, muss die Menge der Transformationen dieses Systems die Bedingungen der Information erfüllen.

Und das tut sie.

Prüfen wir es nach:

Physik der Information, ISBN 3-935031-03-3,
Definition der Information: Längenbestimmung, S. 137

„Das sind bisher bereits einige Einschränkungen für unsere Menge von Transformationen einer Eigenschaft e: Erstens sollen es nur wiederholbare Transformationen sein, dann sollen sie alle zusammenhängen, dann soll zu jeder Transformation eine existieren, die sie genau aufhebt und zum Schluss noch eine, die gar nichts tut.“

Die Bedingungen sind also:

1) Transformation

2) Wiederholbarkeit

3) Zusammenhang

4) Inverse

5) Normal

ad 1): Die Transformation ist nicht die mathematische Funktion, sondern der tatsächliche Zustandswechsel. Da unser Zweizustandssystem beliebig manipulierbar sein soll, ist diese Voraussetzung gegeben. Es gibt also zwei Transformationen X und X’, die sich durch ihre Anfangs- und Endzustände unterscheiden lassen:
X(0|1) = 1|0 und X’(1|0) = 0|1

ad 2): Wiederholbarkeit heißt, dass aus einem bestimmten Anfangszustand immer derselbe Endzustand folgt. Bei einem Zweizustandssystem ist schlecht überhaupt etwas anderes möglich, denn liegt der Zustand 0 vor, kann nur in den Zustand 1 gewechselt werden und umgekehrt.

ad 3) Zusammenhang heißt, dass das jeder Zustand einer Eigenschaft auch eingenommen werden kann, weil von jedem anderen Zustand aus eine Reihe von Zustandswechseln (Transformationen) existiert, die am Ende in dem gewünschten Zustand resultiert. Auch das erfüllt das „beliebig manipulierbare“ Zweizustandssystem von selbst.

ad 4) Inverse: Jede Transformation auf einem Zweizustandsystem ist die Inverse der anderen.

ad 5) Normal: Die Eins-Transformation, die nichts ändert, existiert sogar bereits auf dem konstanten System.

Die Menge der Zustandswechsel auf einem „beliebig manipulierbaren Zweizustandssystem“ ist also tatsächlich die Information bezüglich der Eigenschaft „Bit“, das diese beiden Zustände 0 und 1 einnehmen kann.

Und das wohl sogar unabhängig davon, ob es ein klassisches Bit oder ein Quantenbit ist.

Denn auch beim Quantenbit sollten die fünf Bedingungen gelten: Jede Superposition der Einzelzustände ist ebenfalls ein Zustand, der eingenommen werden kann, auch wenn er nicht messbar ist, nur „berechenbar“. Denn alles, was berechenbar ist, sollte wiederholbar und zusammenhängend sein, um Funktionen auf den eigenen Wertemengen bilden zu können.

Interessant dabei ist, dass die Zustände der QuBits mit Eigenvektoren übereinstimmen, die wie in der Quantentheorie üblich, einen Hilbertraum aufspannen können, wo im klassischen Pendant nur noch eine einfache Gruppe übrig blieb:

die Mindestinformation (275 kB):

„Die kleinste Menge von wiederholbaren Transformationen, mit der Vollständigkeit bzgl. W erreicht wird (also die Schnittmenge all dieser Mengen), wird Mindestinformation bzgl.W genannt. Wegen X1(e|w) = e|w enthält sie also auch das Einselement.“

Die Eigenschaft von Eigenvektoren, mit „ihrem Operator“ durch Überlagerung jeden beliebigen Zustand des Systems erzeugen zu können, weist deutlich auf die Nähe zur „Transformation“ hin – die reinen Eigenvektoren des QuBits stellen dabei die reinen Zustände 0 und 1 dar: das Ergebnis der „normalen“ Transformationen der Informationsmenge des klassischen Bits.

Die Mindestinformation des klassischen Bits lässt sich somit auf die Menge der Eigenvektoren des QuBits zurückführen.

Dies führt uns nun auf eine gewagte Hypothese:

Die Menge der Information ist generell mit der Menge der Eigenvektoren des zugrunde liegenden quantenmechanischen Systems beschreibbar.

Die „Verschränkung“ würde ihr Pendant auch im Makrokosmos in der hohen Flexibilität von Eigenschaften haben, die sich so bereitwillig zu Systemen zusammenfinden, sowie in den systembezogenen Abhängigkeiten, die nicht in der einzelnen Eigenschaft begründet sind, sondern nur in ihrem Zusammenspiel. Die exponentielle Explosion der Dimensionen des Hilbertraums, die allein schon an QuBits zu sehen sind, würde weiterhin die Komplexität demonstrieren, die wachsende Systemgrößen mit sich bringen.

Und diese Komplexität könnte dann auch der Grund für den „Zusammenbruch“ des Quantenkosmos plausibel machen, denn je mehr Ordnungselemente zusammenwirken, umso weniger Lösungen des gemeinsamen Systems kann es geben relativ zu der einfachen Kombination der Möglichkeiten der Elemente.

Physik der Information, ISBN 3-935031-03-3,
Gleichartigkeitshypothese, Gleichzeitigkeitshypothese und Widerspruch, S. 194

„Weil Ordnung ein Ausschlussprinzip ist: Was zur Ordnung gehört, muss ihre Bedingungen erfüllen. Eine Menge verlangt eine Ansammlung von Dingen, die sowohl gleichartig als auch unterscheidbar sind. Jede Funktion auf Mengen muss sich dieser Bedingung unterwerfen, muss die Gleichartigkeit und Unterscheidbarkeit erhalten, wenn das Gefüge der Mengen, die über Funktionen verkoppelt werden, nicht zerstört werden soll.

Ein Ausschlussprinzip ist Ordnung deshalb, weil es weitaus mehr Ansammlungen von nicht gleichartigen Dingen oder gleichartigen, aber nicht unterscheidbaren Dingen als Mengen gibt. Auch hinsichtlich Funktionen ist sicher die Anzahl von Beziehungen zwischen Mengenelementen, die keine Funktionen sind oder auch andere Ansammlungen von Elementen betreffen können, die selbst keine Mengen sind, weitaus höher als die Anzahl unserer praktischen Funktionen. Es gibt diese unpassenden Störenfriede immer, doch sie sind eben nicht imstande, die Ordnung zu erhalten.

Solche Kombinationen zerstören also die Ordnung – und deren „konstruktive“ Wirkung damit zwangsläufig mit, denn diese Wirkung resultiert nur aus der Ausschließung.“

Das bekannteste Beispiel für eine solche Reduktion von Möglichkeiten des Individuums durch ein System mag zwar die biologische Zelle innerhalb eines Zellverbundes sein, aber auch die Physik bietet wohlbekannte Exempel: Freie Elektronen können jede beliebige Energie einnehmen, im Systemverbund eines Atoms oder Moleküls wird die Energie freilich gnadenlos quantisiert.

Und das bereits auf Ebene der Quantenphysik.

Doch auch unser Sonnensystem zeigt, dass Überlagerungen Reduktionen von Möglichkeiten zur Folge haben können – die Kirkwood-Lücken im Planetoidengürtel beruhen auf der Anwesenheit Jupiters. Die Freiheit zur Zustandsveränderung, hier der Bewegungsfreiheit, jedes einzelnen Asteroiden wird durch die Anwesenheit der anderen und der Planeten sichtbar eingeschränkt.

Sparen hat indessen immer eine natürliche Untergrenze – Reduktionen lassen sich nicht ins Unendliche treiben. Und die natürliche Untergrenze in unserem Fall sind die Eigenvektoren der beteiligten Teilsysteme.

Der Messvorgang leistet eine solche Reduktion im Quantenkosmos: Er bildet zusammen mit dem zu beobachtenden Element ein neues System, das dem zuvor freien Element „keine Wahl“ mehr lässt. Wo es zuvor in einem beliebigen Mischzustand aus seinen Eigenvektoren existieren konnte, muss es sich nun „entscheiden“ (ein typischer Ausdruck im Zusammenhang mit Information), welchen seiner Eigenzustände es einnimmt.

Der Makrokosmos wäre dann nichts weiter als ein so komplexes System, dass alle Zustandsänderungen sich auf die Eigenvektoren der Systeme und Teilsysteme beschränken müssten – jedes System und Teilsystem hat somit immer einen definierten Wert: die Quintessenz der Existenz unserer Realität.

Damit wäre das Verhalten der Systeme auf ihre Mindestinformation beschränkt und würde sich durch Messvorgänge nicht mehr weiter reduzieren lassen.

Und noch eine weitere Ähnlichkeit würde Sinn machen: die merkwürdige Vermengung von Raum- und Zeitanteilen in der Information, die einer Informationsverarbeitung immer die Differenzierung in veränderliche (zeitartige) und stabile (raumartige) Umgebungen aufzwingt und die sich im Quantenkosmos praktisch überall finden lässt – unterhalb des Planckschen Wirkungsquantums.

Zurück zum Anfang

BPM

Ein interessanter Artikel über die Vorteile des Business Process Managements (BPM), geschrieben von Richard Mattock, fiel mir kürzlich durch einen meiner Newsletter in die Hände: „The Value of BPM Software“ (Quelle 13.09.2005):

Die typische „gesamtheitliche“ Betrachtung einer Informationsverarbeitung, die sich schlicht aus der Tatsache ergibt, dass Information physikalische Wirkung ist und dass die optimale Lösung immer dem Prinzip der geringsten Wirkung folgt, findet sich unter der Überschrift „Fundamental Concept #3“ wieder, mit dem Hinweis, dass es einen gewaltigen Unterschied zwischen Prozess-Automation und Prozess-Orchestrierung gibt:

„Therein lies the fundamental concept of process orchestration. Automating a single sub-process or deploying a single best-in-class application does not deliver business value. That value is realized when the end-to-end process, spanning multiple people, systems and organizations is flawlessly orchestrated ... far beyond automation by orchestrating the execution of the end-to-end process encompassing all workflows, enterprise integration, roles-based process participant definitions, process execution, escalation and exception handling.“

Unter dieser Überschrift findet sich denn auch konzentriert sowohl die Fliege als auch die Information selbst klar und präzise, auch wenn der Autor weder von dem einen, noch von dem anderen je etwas gehört hat: Der typische zweigeteilte Aufbau einer jeden Informationsverarbeitung in „sensorisch“ und „motorisch“ (oder bekannter: Input/Output) - die Fliege - findet sich auf Seite 2 des Artikels als „upstream“ and „downstream“ wieder:

“But, as noted above, order management is, at most, a sub-process, that while critical, delivers value only if it is a part of an optimized order-to-cash process that encompasses all the upstream activities such as proposal and contract management with the downstream activities such as credit operations, shipment, invoice generation and cash collection.”

Und die herausstechendste Eigenschaft der Information, die Wiederholbarkeit, wird genauso explizit angesprochen wie der Grund, warum Informationsverarbeitung existieren und wozu sie Information nutzen – um aus der Wiederholbarkeit auf das zukünftige Verhalten zu schließen und diese prognostizierte Entwicklung für die eigenen Interessen zu nutzen: um die günstigsten Entscheidungen treffen zu können. Die Schlüsselworte sind „repeatable“ und „predictable“:

„fundamental concept of process orchestration … The handoff from organization to organization and application to application is organized, consistent and produces results that are both predictable and repeatable.“ (Quelle 13.09.2005)

Auch wenn die IT-Experten keine theoretische Ahnung von Information, Informationsverarbeitung und der Strategie der Informationsgewinnung haben...

praktisch kennen sie sie sehr wohl. Sonst würde ihre Arbeit nämlich schlicht nicht funktionieren.

Zurück zum Anfang

Weitere aktuelle (und nicht mehr ganz aktuelle) Trends in Richtung „Definition der Information“

Performante App-Server

Zurück zum Anfang

© bussole IV 2005 (außer Zitate)

Zurück zum Blog