Von der "Kopernikanischen Revolution" zur "Digitalen Revolution" mit der Schadt-Helfrich-Zelle als besonders wichtiges Bauelement


Der große Wissenschaftstheoretiker Thomas S. Kuhn (1922-1996) spricht im Zusammenhang mit Kopernikus seinem Hauptwerk nicht ohne Grund von einem Paradigmenwechsel, der entscheidend für die Entwicklung der Naturwissenschaft ab dem ausgehenden 17. Jahrhundert werden sollte. Die eigentliche Arbeit machte freilich erst Johannes Kepler, der auf die ausgezeichneten Beobachtungsdaten eines Tycho Brahe zurückgreifen konnte und erkannte, dass sich die meisten Probleme des heliozentrischen Systems durch die Einführung elliptischer Bahnen und durch die Annahme, dass diese Bahnen mit ungleichförmiger Geschwindigkeit von den Planeten durchlaufen werden, vermeiden ließen. Um so etwas leisten zu können, musste man sich erst einmal gedanklich vom „offensichtlichen“ Geozentrismus lösen, was Tycho Brahe (1546-1601) noch nicht, Galileo Galilei und Johannes Kepler aber entgegen dem Zeitgeist und mit viel innerem und äußerem Kampf gelungen ist. Oder, wie es einmal der berühmte Romancier Victor Hugo (1802-1885) ausgedrückt hat,

Nichts ist mächtiger als eine Idee, deren Zeit gekommen ist“. 

Danach ging es Schlag auf Schlag. Immer mehr Gelehrte griffen zum Fernrohr, um den Himmel zu beobachten. 1675 wurde unter König Charles II. das Greenwicher Observatorium gegründet und John Flamsteed (1646-1719) sein erster „Astronomer Royal“. 1686 legte Isaak Newton (1643-1727) der Royal Society sein Werk „Philosophiae Naturalis Principia Mathematica“ vor, in dem er in Anlehnung an die Geometrie Euklids streng axiomatisch eine mathematische Theorie entwickelt, die später als die „Klassische Mechanik“ bezeichnet werden wird. Er entdeckt aus der Analyse des dritten Keplerschen Gesetzes das Gesetz der allgemeinen Gravitation und schuf somit die Grundlage für eine physikalische Begründung des heliozentrischen Systems. Und gerade einmal 100 Jahre später war quasi die „Himmelsmechanik“ vollendet und man konnte mit fast beliebiger Genauigkeit die Positionen von Sonne, Mond und Planeten aus wenigen Anfangsbeobachtungen, und, wie man meinte, „für alle Zeiten“, vorausberechnen. 

Die Etablierung einer neuen Weltsicht, die nicht nur auf die Astronomie beschränkt war, im Zeitalter der Renaissance und der beginnenden Neuzeit, stellte eine grundlegende Zäsur in der Geschichte des Abendlandes dar. Kunst und Wissenschaft begannen sich zu entfalten. Die Wiederentdeckung und Rezeption antiker Werke, ihre Verbreitung und Lehre in den artistischen Fakultäten der aufblühenden Universitäten brachte ein gelehrtes und wissbegieriges Bürgertum hervor. Geographische Entdeckungen, das Aufblühen des Seehandels und eine Neuinterpretation des Christentums taten ihr Übriges. Der Humanismus wurde zu der wesentlichsten Geistesbewegung jener Zeit und die Eliten versuchten aus dem durch Scholastik und Vulgärtheologie geprägtem geistigem Klima des Spätmittelalters zu entfliehen. Mitten in dieser Zeit erschien nun das Werk eines Ermländer Domherrn über die „Umschwünge der Himmelskreise“, welches unter den Fachgelehrten jener Zeit schnell Aufmerksamkeit erregte. Was die Veröffentlichung eines in erster Linie nur für Eingeweihte verständlichen „Fachbuches“ gesellschaftlich bewirkte, hat Friedrich Engels (1820-1895) in seiner „Dialektik der Natur“ sehr prägnant formuliert: 

Der revolutionäre Akt, wodurch die Naturforschung ihre Unabhängigkeit erklärte und die Bullenverbrennung Luthers gleichsam wiederholte, war die Herausgabe des unsterblichen Werkes, womit Copernicus, schüchtern zwar, und sozusagen erst auf dem Totenbett, der kirchlichen Autorität in natürlichen Dingen den Fehdehandschuh hinwarf. Von da an datiert die Emanzipation der Naturforschung von der Theologie.“ 

Grund dafür war, dass letztendlich die Entscheidung zwischen Geozentrismus und Heliozentrismus einer Entscheidung zwischen religiös-idealistischem Weltbild und naturwissenschaftlichem Weltbild gleichkam. Das wurde von der damaligen Amtskirche zu Beginn des 17. Jahrhunderts auch in seiner ganzen Klarheit erkannt und führte zur öffentlichen Verbrennung Giordano Brunos‘ (1548-1600), zur Verurteilung Galileo Galileis‘ vor dem Inquisitionsgericht (1632) und im Jahre 1616 (!) zum Eintrag des „De Revolutionibus …“ in die Liste verbotener Bücher (Index Librorum Prohibitorum), wo es bis zum Jahre 1758 verblieb. Und es führte, wie wir wissen, zu einer Entwicklung, an deren Ende die heutige moderne Wissenschaft mit all ihren Errungenschaften steht. Deshalb sprechen wir auch mit Kant zu Recht von einer „Kopernikanischen Revolution“.

Von der „Kopernikanischen Revolution“ war es dann noch ein weiter Weg zur „Digitalen Revolution“, an deren Ergebnissen und technischen Errungenschaften wir uns heute erfreuen dürfen. Sie lässt sich im Gegensatz zur „Kopernikanischen Revolution“ nicht an einer Person festmachen, sondern nur an einer Vielzahl von Einzelentwicklungen und ist in ihrer Bedeutung ungefähr mit der industriellen Revolution – beginnend am Ende des 18. Jahrhunderts – vergleichbar, wo die Dampfmaschine in vielen Bereichen der Industrie die Muskelkraft ersetzte. Was damals die Dampfmaschine war, ist heute der Computer und dazwischen liegen ungefähr 200 Jahre technische Innovation und Schöpferkraft, fußend auf den wissenschaftlichen Erkenntnissen des 19. und 20. Jahrhunderts. Hier ist insbesondere die von Max Planck begründete Quantentheorie und ihre Anwendungen in der Festkörperphysik / Festkörperelektronik zu nennen, die uns Laser, Mikroschaltkreise, Computer, die flachen Displays unserer Fernseher, PC’s, Tabletts und Smartphones sowie „Roboter“ in allen Formen und Größen bescherten. Niemand wundert sich mehr darüber, dass es so etwas gibt. Und keiner – wenn er die Materie nicht gerade studiert hat - kann einem plausibel erklären, wie das alles funktioniert. Es wird dann zwar schnell mit Begriffen herumgeworfen wie Mikroprozessor, Grafikchip und Taktfrequenz, aber was sie eigentlich „machen“, wie sie hergestellt werden und was bestimmte Fachbegriffe oder Akronyme wie LCD oder TFT eigentlich bedeuten, entzieht sich größtenteils der allgemeinen Erkenntnis. Das ist sicherlich auch nicht weiter schlimm, solange es Leute gibt, die es einfach wissen wollen und die sich deshalb der Mühe unterziehen, das nicht ganz einfache Metier zu erlernen. Denn sie sind es schließlich, denen es obliegt, dass die Entwicklung nicht zum Stillstand kommt und wir „Nutzer“ uns jedes Jahr an einem neuen Smartphone mit noch geileren Funktionsmerkmalen und Apps erfreuen können. 

Verweilen wir ein bisschen bei den Displays jenseits der Elektronenstrahlröhre und ihrer Funktionsweise. Ihre Urform, den meisten von digitalen Armbanduhren her bekannt, ist die LCD-Anzeige, wobei das Akronym „LCD“ für „liquid crystal display“, also Flüssigkristallanzeige, steht. Aber kann es denn so etwas wie „flüssige Kristalle“ überhaupt geben? Kristalle sind doch der Inbegriff symmetrischer Festkörper, deren Farben- und Formenvielfalt man in mineralogischen Sammlungen bewundern kann. Sie begegnen uns als wunderschön geformte Quarze, als monokline Gipskristalle oder, ganz profan, als Salz- und Zuckerkörnchen. Und mancher nennt sogar einen schön geschliffenen Diamantkristall sein Eigen. Aber können Kristalle wirklich flüssig sein? Sie verlieren ja dann ihr wichtigstes Wesensmerkmal, ihre „kristalline“ Form. Aber das ist hier nicht das Ausschlaggebende. In unserem Zusammenhang geht es um eine andere Eigenschaft von Kristallen, die man in der Fachsprache als „Anisotropie“ bezeichnet. Darunter versteht man die Richtungsabhängigkeit von physikalischen Eigenschaften eines Kristalls. Das betrifft u. a. ihre elastischen Eigenschaften, Kennzahlen, die mit elektromagnetischen Ausbreitungsvorgängen im Zusammenhang stehen wie beispielsweise die Dielektrizitätskonstante, die magnetische Permeabilität oder der damit in Zusammenhang stehende Brechungsindex für elektromagnetische Wellen. Am Bekanntesten ist hier wohl der doppelbrechende Kalkspatkristall (Calcit). So beobachtet man hier in Richtung seiner Kristallachsen unterschiedliche Brechungsindizes, die teilweise auch noch vom Einfallswinkel des Lichts abhängen. Wenn man also einen Lichtstrahl durch einen doppelbrechenden Kristall schickt, dann wird er in zwei Teilstrahlen aufgespalten, die man sinnigerweise als den „ordentlichen“ (er hält sich an das Snelliussche Brechungsgesetz) und den „außerordentlichen“ Strahl bezeichnet. Sie sind jeweils unterschiedlich polarisiert, wie man leicht mit einem zweiten Kalkspatkristall feststellen kann, den man wie ein Polarisationsfilter gebraucht. 

Und genau um solche Eigenschaften geht es hier, denn es gibt durchaus auch Flüssigkeiten, die anisotrope Eigenschaften aufweisen und die genau deshalb als „Flüssigkristalle“ bezeichnet werden. 1888 wurde von dem aus Prag stammenden Österreicher Friedrich Reinitzer (1857-1927) der erste „Flüssigkristall“ in Form des Ester-Derivats der Fettsäure Cholesterin entdeckt (Cholesterylbenzoat). In umfangreichen Untersuchungen ermittelte er die außergewöhnlichen Eigenschaften dieser Substanz (er erkannte z. B. auch deren doppelbrechenden Eigenschaften), ohne sich jedoch recht einen Reim darauf machen zu können. Später konnten von anderen Chemikern noch weitere „anisotrope doppelbrechende Flüssigkeiten“ gefunden werden. Die Ergebnisse dieser frühen Forschungen schlugen sich schließlich in der 1904 erschienenen Monographie „Flüssigkristalle“ von Otto Lehmann (1855-1922) nieder, der in Nachfolge von Heinrich Hertz (1857-1894) in Karlsruhe seine Wirkungsstätte fand. Seine bahnbrechenden und im Nachhinein gesehen, durchaus nobelpreiswürdigen Ergebnisse fanden erst einmal wenig Resonanz, bis man sich Ende der 1960er Jahre wieder damit auseinandersetzte – und zwar mehr aus einem technischen Hintergrund. 

Als Ergebnis dieser Forschungen meldeten der Schweizer Physiker Martin Schadt und der aus München stammende deutsche Physiker Wolfgang Helfrich ein Patent an, welches die Grundlage für alle folgenden flüssigkristallbasierten Displaytechnologien werden sollte. Es wurde jedoch wegen fehlender „Erfindungshöhe“ vom Münchner Patentamt abgelehnt. Den Beamten erschien wahrscheinlich die Funktionsweise des Prototypen zu primitiv. In anderen Ländern, darunter in der Schweiz, erkannte man jedoch das Potential, welches sich hinter dieser Erfindung verbirgt. 

Erinnern Sie sich an die aus Segmenten zusammengesetzten Anzeigeelemente einer LCD-Armbanduhr oder eines Taschenrechners? Jedes Segment stellt vom Prinzip her eine sogenannte Schadt-Helfrich-Zelle dar, die aus zwei Glasplatten besteht, zwischen denen sich eine nur einige 10 µm dicke Flüssigkristallschicht befindet. Auf den sich gegenüberliegenden Glasflächen sind transparente leitfähige Schichten aus Indium-Zinn-Oxid aufgedampft, welche beliebig strukturierbare Segmente darstellen, aus denen sich später die jeweils gewünschten Zeichen (z. B. Buchstaben oder Zahlen) zusammensetzen lassen. Ihre Oberfläche ist außerdem so präpariert, dass die die Flüssigkeit bildenden Moleküle in ihrer Längsachse nach einer Achse dieser Glasplatte ausgerichtet sind. Sind beide Glasplatten zuerst gleich ausgerichtet und dreht man dann die obere Glasplatte um 90°, dann entsteht zwischen der unteren Glasplatte ein entsprechend verdrehter Stapel von Molekülen analog einer sogenannten Reuschschen Glimmersäule. Ein Strahl polarisierten Lichts, dessen Polarisationsebene parallel oder senkrecht zur Orientierung der Eintrittsglasplatte liegt, wird dann beim Durchgang durch den Flüssigkristall eine Drehung um 90° erfahren. Der Lichtstrahl tritt also in einem anderen Polarisationszustand durch die obere Glasplatte wieder aus. Jetzt stellen wir uns vor, dass sich auf der unteren Platte und der oberen Platte jeweils Polarisationsfilter, die auch jeweils um 90° gegeneinander gedreht sind, befinden. In dem beschriebenen Fall kann das Licht die Anordnung ohne wesentliche Absorption durchdringen, d. h. sie ist transparent. Legt man jetzt an die aufgedampften Elektroden eine Spannung an, dann werden sich die Moleküle des Flüssigkristalls langsam mit steigender Spannung entlang des elektrischen Feldes ausrichten, was ihre wendeltreppenartige Anordnung zerstört und die Schwingungsrichtung des durchgehenden Lichts wird durch sie immer weniger beeinflusst und trifft schließlich auf den Polarisationsfilter, der es ab einem bestimmten Spannungswert (z. B. 5 V) dann vollständig abblockt. In diesem Moment werden die entsprechend geschalteten Segmente als dunkle Flächen – wie bei der Digitalarmbanduhr oder dem Taschenrechnerdisplay – sichtbar. Der Aufbau eines solchen Displays kann man sich deshalb als Sandwich aus folgenden (von unten nach oben) Schichten vorstellen: Reflektierende Schicht – Polarisationsfilter – Glasplatte – Gegenelektrode in Form der anzuzeigenden Segmente – Flüssigkristall, eingebettet in einen entsprechenden Abstandshalter - Elektrode in Form der anzuzeigenden Segmente mit Kontakten – Glasplatte – um 90° zum unteren Polarisationsfilter gedrehter Polarisationsfilter. An diesem Grundprinzip hat sich auch bei den Displays unserer Flachbildschirme nicht viel geändert, nur dass man heute in der Lage ist mit den Fertigungsmethoden der modernen Mikroelektronik großflächige Displays, die quasi aus „Pixeln“ solcher Zellen aufgebaut sind (schauen Sie sich mal mit einer Lupe ihren Flachbildschirm oder Smartphonedisplay an), herzustellen. „Farbfilter“ für Rot, Grün und Blau ergänzen dabei das Sandwich, so dass man aus solch einem Triplett aus Subpixeln jeweils ein Pixel formen kann, mit dem sich jede beliebige Farbe nach dem RGB-Modell erzeugen lässt. Die reflektierende Schicht muss hier übrigens durch eine Hintergrundbeleuchtung ersetzt werden. Eine App übrigens, welche die Spannung aus allen Pixeln eines Smartphone-Displays nimmt, simuliert deshalb eine Taschenlampe… 

Keine Kommentare:

Kommentar veröffentlichen