Das “Fließen“ der Zeit um den Zauberberg...


Heute möchte ich mich wieder mal der Frage „Was ist Zeit?“ zuwenden, und zwar insbesondere dem Aspekt des „Zeitflusses“. Er beschreibt das fortgesetzte Vergehen des „Jetzt“ in der Vergangenheit und das Hereinbrechen der Zukunft als einen unaufhaltsamen Prozess. Aber wie schon Kant feststellte, macht der Begriff des „Fließens“ in diesem Zusammenhang nur dann Sinn, wenn man es mit der Alternative des „Nichtfließens“ vergleichen könnte. Für gestandene Physiker ist deshalb Zeit in diesem Sinn eine, wenn auch hartnäckige, Illusion. Seine Formeln zeigen explizit kein „Fließen“ der Zeit, sie ist dort lediglich ein Parameter analog den Ortskoordinaten, mit dem man Veränderungen beschreiben kann. Dort, wo es keine wie auch immer geartete Veränderungen gibt, wird der Zeitbegriff sinnlos, da sich unter dieser Bedingung auch keine Messvorschrift für diesen Parameter mehr definieren lässt. 

Das steht auch im Einklang mit dem sogenannten thermodynamischen Zeitpfeil. Er legt von zwei zeitlich getrennten Zuständen eines Systems genau den als mehr in der Vergangenheit liegenden fest, der die geringere Entropie von beiden aufweist. Ein physikalisches System im thermodynamischen Gleichgewicht (d. h. in dem keine Veränderungen mehr stattfinden) kennt deshalb weder Vergangenheit noch Zukunft, es ist gewissermaßen zeitlos. 

Eine andere Art des Zeitpfeils kann man an der Entwicklung des überschaubaren (d. h. für uns sichtbaren) Teils des Universums festmachen. Und zwar lässt sich in diesem Fall die Zeit quasi an der durch die kosmische Expansion erreichten Größe (dem „Weltradius“) ablesen. Man spricht hier speziell vom „kosmologischen Zeitpfeil“. 

Das „Zeitproblem“ hat aber auch jenseits der Physik seine jeweils eigene Bedeutung wie z. B. in der Psychologie (Warum erscheinen uns die Tage im „Alter“ kürzer als die Tage in unseren Kindertagen?), in der Metaphysik (siehe z. B. Heideggers „Sein und Zeit“) oder Biologie (Evolution) und hat auch heute noch nichts von seiner Faszination zumindest für diejenigen, die darüber nachzudenken bereit sind, verloren. 

Es sei hier nur an die Worte Hans Castorp’s in Thomas Manns Roman „Der Zauberberg“ erinnert, dem er folgende Gedanken „in den Kopf schrieb“: 

Was ist die Zeit? Ein Geheimnis - wesenlos und allmächtig. Eine Bedingung der Erscheinungswelt, eine Bewegung, verkoppelt und vermengt dem Dasein der Körper im Raum und ihrer Bewegung. Wäre aber keine Zeit, wenn keine Bewegung wäre? Keine Bewegung, wenn keine Zeit? Frage nur! Ist die Zeit eine Funktion des Raums? Oder umgekehrt? Oder sind beide identisch? Nur zu gefragt! Die Zeit ist tätig, sie hat verbale Beschaffenheit, sie "zeitigt". Was zeitigt sie denn? Veränderung! Jetzt ist nicht Damals, Hier nicht Dort, denn zwischen beiden liegt Bewegung. Da aber die Bewegung, an der man die Zeit mißt, kreisläufig ist, in sich selber beschlossen, so ist das eine Bewegung und Veränderung, die man fast ebensogut als Ruhe und Stillstand bezeichnen könnte; denn das Damals wiederholt sich beständig im Jetzt, das Dort im Hier.“ 

Dieses Buch, nach den „Buddenbrooks“ (Literaturnobelpreis 1929) und „Königliche Hoheit“ der dritte große Roman von Thomas Mann (1875-1955), war einer „der“ Bestseller in der Zeit der Weimarer Republik und darüber hinaus. In der Tradition des deutschen Bildungsromans (besser, einer Parodie darauf) wird in der Enge eines Lungensanatoriums in der Schweiz ein episches Gemälde, das sich um die Person des jungen Hamburgers Hans Castorp rankt, entwickelt und, fein ziseliert, mit einer Vielzahl von jeweils eigenen Charakteren in Beziehung gesetzt. Ein als „kurz“ (3 Wochen) geplanter Besuch Castorps in Davos entwickelt sich zu einem 7-jährigen Aufenthalt, in dem die Persönlichkeit des Protagonisten geformt wird. Der „rote Faden“ des Romans erscheint zwar simpel, aber die Sprache Thomas Manns, die eingestreuten philosophischen und theologischen Streitgespräche auf zum Teil sehr hohem Niveau (und deshalb nicht immer leicht zu folgen) in Verbindung mit der intensiven Atmosphäre jener durch den 1. Weltkrieg geprägten Zeit lassen einen nicht mehr los. Wenn Sie also dieses Buch noch nicht gelesen haben, dann sollten Sie es schleunigst tun. Sie werden es nicht bereuen…

Mich hat in meiner Studentenzeit, wo ich unendlich viel gelesen habe, noch ein anderes Buch stark beeindruckt, wenn es auch nicht in dieser literarischen Liga mitspielen kann. Es handelt sich um die Autobiografie von Carl Zuckmayer (1896-1977) mit dem Titel „Als wär’s ein Stück von mir“. Nur wenige werden noch diesen Theaterschriftsteller kennen, dem mit der Komödie „Der fröhliche Weinberg“ 1925 der Durchbruch gelang. Zwei Jahre später festigte sich sein Erfolg mit dem Stück „Schinderhannes“ und 1931 gelang ihm dann der ganz große Coup mit „Der Hauptmann von Köpenick“, der ihn innerhalb kürzester Zeit zu einem wohlhabenden Mann machte. Dieses Stück war wegen seiner deutlichen antimilitaristischen Haltung zur Zeit des Nationalsozialismus natürlich nicht mehr opportun, was ihn 1938 zur Flucht aus Österreich veranlasste. Alles das hat er in seiner Autobiografie detailliert beschrieben – die Verhältnisse in Wien nach dem „Anschluss“, seine fast misslungene Flucht über die Schweiz, die ihn erst nach Rotterdam und dann in die Vereinigten Staaten führte, wo er dann eine Zeit lang als Drehbuchautor in Hollywood lebte (um einmal eine bekannte Örtlichkeit zu nennen) und seine Rückkehr nach dem Krieg. 

Zuckmayers Autobiografie lässt die ersten 6 Jahrzehnte des vorigen Jahrhunderts ähnlich lebendig vor Augen treten wie das Leben Hans Castorps in Davos am Vorabend des 1. Weltkrieges in Thomas Manns Roman. Schritt für Schritt trifft man auf berühmte Zeitzeugen wie Max Reinhard, Bertolt Brecht, Stefan Zweig und, und, und… Kein Abschnitt ist langweilig. Deshalb ein Tipp: Falls man nur wenig Zeit zum Lesen erübrigen kann, sollte man die Lektüre aufschieben und in den Urlaub verlagern. Glauben Sie mir, Zuckmayers Autobiografie ist besser als jedes Geschichtsbuch über diese ereignisreiche Zeit. Der Titel „Als wär’s ein Stück von mir“ ist übrigens eine Zeile aus dem Gedicht von Ludwig Uhland „Der gute Kamerad“, welches er im Jahre 1809 unter dem Eindruck des Einsatzes Badischer Truppen gegen die gegen Napoleon Bonaparte revoltierenden Tiroler Freiheitskämpfer geschrieben hat. Dieses Gedicht, auch als „Ich hatt‘ einen Kameraden…“ bekannt, wird in der Vertonung von Friedrich Silcher auch heute noch bei Trauerfeierlichkeiten der Bundeswehr gespielt. Es war „das“ Lied zur Zeit des Ersten Weltkriegs. „Das“ Lied des Zweiten Weltkriegs war ohne Zweifel „Lili Marleen“, ursprünglich von Lale Andersen gesungen („An der Kaserne, vor dem großen Tor…“). Popularisiert durch den Armeesender Belgrad kam nach 1941 eine Vielzahl von Varianten in anderen Sprachen auf, denn das Lied war auch unter den Gegnern Nazideutschlands äußerst beliebt. Eine englischsprachige Fassung ist beispielsweise eng mit dem Namen von Marlene Dietrich (1901-1992) verbunden, die berühmte, in die USA ausgewanderten UFA-Schauspielerin aus der Heinrich-Mann - Verfilmung des Buches „Prof. Unrat“ - dem „Blauen Engel“. Als es schließlich mit dem Hitlerreich langsam zu Ende ging, die Rote Armee die deutsche Wehrmacht immer weiter nach Westen zurückdrängte und schließlich die Alliierten an der Normandie eine zweite Front eröffneten, kurz gesagt, sich durch den Bombenkrieg die Lage auch innerhalb Deutschlands immer unerträglicher gestaltete, wurde ein weiteres Lied zum Gassenhauer und fatalistischen Mutmacher: „Davon geht die Welt nicht unter“ von Bruno Balz (1902-1988) und unvergleichlich gesungen von Zarah Leander (1907-1981) im Film „Die große Liebe“. Und als letztes Beispiel muss unbedingt noch „Brothers in Arms“ von Mark Knopfler („Dire Straits“, ein anderes Wort für „pleite“) erwähnt werden, welches man wiederum als „das“ Lied der Jugoslawienkriege von 1991 bis 2001 bezeichnen kann...

Von der "Kopernikanischen Revolution" zur "Digitalen Revolution" mit der Schadt-Helfrich-Zelle als besonders wichtiges Bauelement


Der große Wissenschaftstheoretiker Thomas S. Kuhn (1922-1996) spricht im Zusammenhang mit Kopernikus seinem Hauptwerk nicht ohne Grund von einem Paradigmenwechsel, der entscheidend für die Entwicklung der Naturwissenschaft ab dem ausgehenden 17. Jahrhundert werden sollte. Die eigentliche Arbeit machte freilich erst Johannes Kepler, der auf die ausgezeichneten Beobachtungsdaten eines Tycho Brahe zurückgreifen konnte und erkannte, dass sich die meisten Probleme des heliozentrischen Systems durch die Einführung elliptischer Bahnen und durch die Annahme, dass diese Bahnen mit ungleichförmiger Geschwindigkeit von den Planeten durchlaufen werden, vermeiden ließen. Um so etwas leisten zu können, musste man sich erst einmal gedanklich vom „offensichtlichen“ Geozentrismus lösen, was Tycho Brahe (1546-1601) noch nicht, Galileo Galilei und Johannes Kepler aber entgegen dem Zeitgeist und mit viel innerem und äußerem Kampf gelungen ist. Oder, wie es einmal der berühmte Romancier Victor Hugo (1802-1885) ausgedrückt hat,

Nichts ist mächtiger als eine Idee, deren Zeit gekommen ist“. 

Danach ging es Schlag auf Schlag. Immer mehr Gelehrte griffen zum Fernrohr, um den Himmel zu beobachten. 1675 wurde unter König Charles II. das Greenwicher Observatorium gegründet und John Flamsteed (1646-1719) sein erster „Astronomer Royal“. 1686 legte Isaak Newton (1643-1727) der Royal Society sein Werk „Philosophiae Naturalis Principia Mathematica“ vor, in dem er in Anlehnung an die Geometrie Euklids streng axiomatisch eine mathematische Theorie entwickelt, die später als die „Klassische Mechanik“ bezeichnet werden wird. Er entdeckt aus der Analyse des dritten Keplerschen Gesetzes das Gesetz der allgemeinen Gravitation und schuf somit die Grundlage für eine physikalische Begründung des heliozentrischen Systems. Und gerade einmal 100 Jahre später war quasi die „Himmelsmechanik“ vollendet und man konnte mit fast beliebiger Genauigkeit die Positionen von Sonne, Mond und Planeten aus wenigen Anfangsbeobachtungen, und, wie man meinte, „für alle Zeiten“, vorausberechnen. 

Die Etablierung einer neuen Weltsicht, die nicht nur auf die Astronomie beschränkt war, im Zeitalter der Renaissance und der beginnenden Neuzeit, stellte eine grundlegende Zäsur in der Geschichte des Abendlandes dar. Kunst und Wissenschaft begannen sich zu entfalten. Die Wiederentdeckung und Rezeption antiker Werke, ihre Verbreitung und Lehre in den artistischen Fakultäten der aufblühenden Universitäten brachte ein gelehrtes und wissbegieriges Bürgertum hervor. Geographische Entdeckungen, das Aufblühen des Seehandels und eine Neuinterpretation des Christentums taten ihr Übriges. Der Humanismus wurde zu der wesentlichsten Geistesbewegung jener Zeit und die Eliten versuchten aus dem durch Scholastik und Vulgärtheologie geprägtem geistigem Klima des Spätmittelalters zu entfliehen. Mitten in dieser Zeit erschien nun das Werk eines Ermländer Domherrn über die „Umschwünge der Himmelskreise“, welches unter den Fachgelehrten jener Zeit schnell Aufmerksamkeit erregte. Was die Veröffentlichung eines in erster Linie nur für Eingeweihte verständlichen „Fachbuches“ gesellschaftlich bewirkte, hat Friedrich Engels (1820-1895) in seiner „Dialektik der Natur“ sehr prägnant formuliert: 

Der revolutionäre Akt, wodurch die Naturforschung ihre Unabhängigkeit erklärte und die Bullenverbrennung Luthers gleichsam wiederholte, war die Herausgabe des unsterblichen Werkes, womit Copernicus, schüchtern zwar, und sozusagen erst auf dem Totenbett, der kirchlichen Autorität in natürlichen Dingen den Fehdehandschuh hinwarf. Von da an datiert die Emanzipation der Naturforschung von der Theologie.“ 

Grund dafür war, dass letztendlich die Entscheidung zwischen Geozentrismus und Heliozentrismus einer Entscheidung zwischen religiös-idealistischem Weltbild und naturwissenschaftlichem Weltbild gleichkam. Das wurde von der damaligen Amtskirche zu Beginn des 17. Jahrhunderts auch in seiner ganzen Klarheit erkannt und führte zur öffentlichen Verbrennung Giordano Brunos‘ (1548-1600), zur Verurteilung Galileo Galileis‘ vor dem Inquisitionsgericht (1632) und im Jahre 1616 (!) zum Eintrag des „De Revolutionibus …“ in die Liste verbotener Bücher (Index Librorum Prohibitorum), wo es bis zum Jahre 1758 verblieb. Und es führte, wie wir wissen, zu einer Entwicklung, an deren Ende die heutige moderne Wissenschaft mit all ihren Errungenschaften steht. Deshalb sprechen wir auch mit Kant zu Recht von einer „Kopernikanischen Revolution“.

Von der „Kopernikanischen Revolution“ war es dann noch ein weiter Weg zur „Digitalen Revolution“, an deren Ergebnissen und technischen Errungenschaften wir uns heute erfreuen dürfen. Sie lässt sich im Gegensatz zur „Kopernikanischen Revolution“ nicht an einer Person festmachen, sondern nur an einer Vielzahl von Einzelentwicklungen und ist in ihrer Bedeutung ungefähr mit der industriellen Revolution – beginnend am Ende des 18. Jahrhunderts – vergleichbar, wo die Dampfmaschine in vielen Bereichen der Industrie die Muskelkraft ersetzte. Was damals die Dampfmaschine war, ist heute der Computer und dazwischen liegen ungefähr 200 Jahre technische Innovation und Schöpferkraft, fußend auf den wissenschaftlichen Erkenntnissen des 19. und 20. Jahrhunderts. Hier ist insbesondere die von Max Planck begründete Quantentheorie und ihre Anwendungen in der Festkörperphysik / Festkörperelektronik zu nennen, die uns Laser, Mikroschaltkreise, Computer, die flachen Displays unserer Fernseher, PC’s, Tabletts und Smartphones sowie „Roboter“ in allen Formen und Größen bescherten. Niemand wundert sich mehr darüber, dass es so etwas gibt. Und keiner – wenn er die Materie nicht gerade studiert hat - kann einem plausibel erklären, wie das alles funktioniert. Es wird dann zwar schnell mit Begriffen herumgeworfen wie Mikroprozessor, Grafikchip und Taktfrequenz, aber was sie eigentlich „machen“, wie sie hergestellt werden und was bestimmte Fachbegriffe oder Akronyme wie LCD oder TFT eigentlich bedeuten, entzieht sich größtenteils der allgemeinen Erkenntnis. Das ist sicherlich auch nicht weiter schlimm, solange es Leute gibt, die es einfach wissen wollen und die sich deshalb der Mühe unterziehen, das nicht ganz einfache Metier zu erlernen. Denn sie sind es schließlich, denen es obliegt, dass die Entwicklung nicht zum Stillstand kommt und wir „Nutzer“ uns jedes Jahr an einem neuen Smartphone mit noch geileren Funktionsmerkmalen und Apps erfreuen können. 

Verweilen wir ein bisschen bei den Displays jenseits der Elektronenstrahlröhre und ihrer Funktionsweise. Ihre Urform, den meisten von digitalen Armbanduhren her bekannt, ist die LCD-Anzeige, wobei das Akronym „LCD“ für „liquid crystal display“, also Flüssigkristallanzeige, steht. Aber kann es denn so etwas wie „flüssige Kristalle“ überhaupt geben? Kristalle sind doch der Inbegriff symmetrischer Festkörper, deren Farben- und Formenvielfalt man in mineralogischen Sammlungen bewundern kann. Sie begegnen uns als wunderschön geformte Quarze, als monokline Gipskristalle oder, ganz profan, als Salz- und Zuckerkörnchen. Und mancher nennt sogar einen schön geschliffenen Diamantkristall sein Eigen. Aber können Kristalle wirklich flüssig sein? Sie verlieren ja dann ihr wichtigstes Wesensmerkmal, ihre „kristalline“ Form. Aber das ist hier nicht das Ausschlaggebende. In unserem Zusammenhang geht es um eine andere Eigenschaft von Kristallen, die man in der Fachsprache als „Anisotropie“ bezeichnet. Darunter versteht man die Richtungsabhängigkeit von physikalischen Eigenschaften eines Kristalls. Das betrifft u. a. ihre elastischen Eigenschaften, Kennzahlen, die mit elektromagnetischen Ausbreitungsvorgängen im Zusammenhang stehen wie beispielsweise die Dielektrizitätskonstante, die magnetische Permeabilität oder der damit in Zusammenhang stehende Brechungsindex für elektromagnetische Wellen. Am Bekanntesten ist hier wohl der doppelbrechende Kalkspatkristall (Calcit). So beobachtet man hier in Richtung seiner Kristallachsen unterschiedliche Brechungsindizes, die teilweise auch noch vom Einfallswinkel des Lichts abhängen. Wenn man also einen Lichtstrahl durch einen doppelbrechenden Kristall schickt, dann wird er in zwei Teilstrahlen aufgespalten, die man sinnigerweise als den „ordentlichen“ (er hält sich an das Snelliussche Brechungsgesetz) und den „außerordentlichen“ Strahl bezeichnet. Sie sind jeweils unterschiedlich polarisiert, wie man leicht mit einem zweiten Kalkspatkristall feststellen kann, den man wie ein Polarisationsfilter gebraucht. 

Und genau um solche Eigenschaften geht es hier, denn es gibt durchaus auch Flüssigkeiten, die anisotrope Eigenschaften aufweisen und die genau deshalb als „Flüssigkristalle“ bezeichnet werden. 1888 wurde von dem aus Prag stammenden Österreicher Friedrich Reinitzer (1857-1927) der erste „Flüssigkristall“ in Form des Ester-Derivats der Fettsäure Cholesterin entdeckt (Cholesterylbenzoat). In umfangreichen Untersuchungen ermittelte er die außergewöhnlichen Eigenschaften dieser Substanz (er erkannte z. B. auch deren doppelbrechenden Eigenschaften), ohne sich jedoch recht einen Reim darauf machen zu können. Später konnten von anderen Chemikern noch weitere „anisotrope doppelbrechende Flüssigkeiten“ gefunden werden. Die Ergebnisse dieser frühen Forschungen schlugen sich schließlich in der 1904 erschienenen Monographie „Flüssigkristalle“ von Otto Lehmann (1855-1922) nieder, der in Nachfolge von Heinrich Hertz (1857-1894) in Karlsruhe seine Wirkungsstätte fand. Seine bahnbrechenden und im Nachhinein gesehen, durchaus nobelpreiswürdigen Ergebnisse fanden erst einmal wenig Resonanz, bis man sich Ende der 1960er Jahre wieder damit auseinandersetzte – und zwar mehr aus einem technischen Hintergrund. 

Als Ergebnis dieser Forschungen meldeten der Schweizer Physiker Martin Schadt und der aus München stammende deutsche Physiker Wolfgang Helfrich ein Patent an, welches die Grundlage für alle folgenden flüssigkristallbasierten Displaytechnologien werden sollte. Es wurde jedoch wegen fehlender „Erfindungshöhe“ vom Münchner Patentamt abgelehnt. Den Beamten erschien wahrscheinlich die Funktionsweise des Prototypen zu primitiv. In anderen Ländern, darunter in der Schweiz, erkannte man jedoch das Potential, welches sich hinter dieser Erfindung verbirgt. 

Erinnern Sie sich an die aus Segmenten zusammengesetzten Anzeigeelemente einer LCD-Armbanduhr oder eines Taschenrechners? Jedes Segment stellt vom Prinzip her eine sogenannte Schadt-Helfrich-Zelle dar, die aus zwei Glasplatten besteht, zwischen denen sich eine nur einige 10 µm dicke Flüssigkristallschicht befindet. Auf den sich gegenüberliegenden Glasflächen sind transparente leitfähige Schichten aus Indium-Zinn-Oxid aufgedampft, welche beliebig strukturierbare Segmente darstellen, aus denen sich später die jeweils gewünschten Zeichen (z. B. Buchstaben oder Zahlen) zusammensetzen lassen. Ihre Oberfläche ist außerdem so präpariert, dass die die Flüssigkeit bildenden Moleküle in ihrer Längsachse nach einer Achse dieser Glasplatte ausgerichtet sind. Sind beide Glasplatten zuerst gleich ausgerichtet und dreht man dann die obere Glasplatte um 90°, dann entsteht zwischen der unteren Glasplatte ein entsprechend verdrehter Stapel von Molekülen analog einer sogenannten Reuschschen Glimmersäule. Ein Strahl polarisierten Lichts, dessen Polarisationsebene parallel oder senkrecht zur Orientierung der Eintrittsglasplatte liegt, wird dann beim Durchgang durch den Flüssigkristall eine Drehung um 90° erfahren. Der Lichtstrahl tritt also in einem anderen Polarisationszustand durch die obere Glasplatte wieder aus. Jetzt stellen wir uns vor, dass sich auf der unteren Platte und der oberen Platte jeweils Polarisationsfilter, die auch jeweils um 90° gegeneinander gedreht sind, befinden. In dem beschriebenen Fall kann das Licht die Anordnung ohne wesentliche Absorption durchdringen, d. h. sie ist transparent. Legt man jetzt an die aufgedampften Elektroden eine Spannung an, dann werden sich die Moleküle des Flüssigkristalls langsam mit steigender Spannung entlang des elektrischen Feldes ausrichten, was ihre wendeltreppenartige Anordnung zerstört und die Schwingungsrichtung des durchgehenden Lichts wird durch sie immer weniger beeinflusst und trifft schließlich auf den Polarisationsfilter, der es ab einem bestimmten Spannungswert (z. B. 5 V) dann vollständig abblockt. In diesem Moment werden die entsprechend geschalteten Segmente als dunkle Flächen – wie bei der Digitalarmbanduhr oder dem Taschenrechnerdisplay – sichtbar. Der Aufbau eines solchen Displays kann man sich deshalb als Sandwich aus folgenden (von unten nach oben) Schichten vorstellen: Reflektierende Schicht – Polarisationsfilter – Glasplatte – Gegenelektrode in Form der anzuzeigenden Segmente – Flüssigkristall, eingebettet in einen entsprechenden Abstandshalter - Elektrode in Form der anzuzeigenden Segmente mit Kontakten – Glasplatte – um 90° zum unteren Polarisationsfilter gedrehter Polarisationsfilter. An diesem Grundprinzip hat sich auch bei den Displays unserer Flachbildschirme nicht viel geändert, nur dass man heute in der Lage ist mit den Fertigungsmethoden der modernen Mikroelektronik großflächige Displays, die quasi aus „Pixeln“ solcher Zellen aufgebaut sind (schauen Sie sich mal mit einer Lupe ihren Flachbildschirm oder Smartphonedisplay an), herzustellen. „Farbfilter“ für Rot, Grün und Blau ergänzen dabei das Sandwich, so dass man aus solch einem Triplett aus Subpixeln jeweils ein Pixel formen kann, mit dem sich jede beliebige Farbe nach dem RGB-Modell erzeugen lässt. Die reflektierende Schicht muss hier übrigens durch eine Hintergrundbeleuchtung ersetzt werden. Eine App übrigens, welche die Spannung aus allen Pixeln eines Smartphone-Displays nimmt, simuliert deshalb eine Taschenlampe…