Lichtrechner
Die Suche der Wissenschaftler nach immer kleineren und zugleich leistungsfähigeren Bauelementen zur Herstellung neuer Maschinen und damit auch ultraschnellen Computern ist wohl so alt wie die Technik selbst.
Von der Anfängen der ersten primitiven mechanischen Rechenmaschinen über hausgroße Computermonster nur mit elektrischen Relais, dann Hunderten von Elektronenröhren und schließlich Tausenden von einzelnen Transistoren zieht sich eine rasante Entwicklung bis hin den heute gebräuchlichen digitalen PC's.
Durch fortlaufende Weiterentwicklung und Miniaturisierung aller elektronischen Bauteile und Speichermedien wurden zugleich auch immer größere Kapazitäten und Geschwindigkeiten in der Datenverarbeitung und Speicherung ermöglicht, deren aktuelle Werte heute bereits in Gigahertz und Terabyte gemessen werden.
Dabei wurden immer ausgefeiltere Techniken entwickelt um durch weitere Verkleinerung der in Prozessoren und Chips integrierten Transistoren und anderen Bauteilen Leistung und Taktfrequenz weiter zu erhöhen sowie zugleich die Stromaufnahme drastisch zu senken.
Dies ist bisher auch in wirklich faszinierender Weise gelungen, wie man dies etwa am Beispiel aktueller ultraschneller Notebooks und Laptops leicht erkennen kann.
Aber gerade diese weitere Optimierung durch Miniaturisierung stößt allmählich an unüberwindbare physikalische Grenzen, die leider immer näher rücken und vielleicht schon in wenigen Jahren erreicht sein werden.
Durch quantenmechanische Effekte werden nämlich die notwendigen Halbleitereigenschaften der auf Siliziumkristallen basierenden Komponenten in Chips und Prozessoren immer geringer, um etwa beim Erreichen atomarer Größenordnungen schließlich völlig zu verschwinden!
Immer kleiner und kürzer werdende elektrische Verbindungen verhalten sich immer weniger wie echte Leiterbahnen und durch das weitere Zusammenrücken der Einzelkomponenten beginnen diese sich nun noch gegenseitig und erheblich mit ihrem Elektrosmog zu stören, können also nicht mehr ausreichend voneinander entkoppelt werden.
Die auf herkömmliche Weise noch zu erreichenden Taktraten werden wohl aus genau diesen Gründen die magische 10 GHz Marke niemals erreichen, geschweige denn überschreiten können.- Eine weitere Optimierung ist damit endgültig ausgeschlossen. Es ist also notwendig, völlig neue Wege zu finden. Erste Ansätze liegen im Bereich der sogenannten Lichttechnologien oder auch Photonik!
Einer dieser Ansätze ist das schon seit dem Altertum von den Fluoriden (Fluor enthaltende natürliche Mineralien) her bekannte Phänomem der Fluoreszenz bestimmter chemischer Verbindungen, welches diesen auch seinen Namen verdankt.
Aber nicht nur anorganische Verbindungen wie Fluoride sind zurAbsorbtion, Umwandlung und Aussendung von Licht befähigt. Unzählige organische Stoffe haben die gleiche teilweise lebensnotwendige Eigenschaft.
1845 entdeckte der Chemiker Julius Robert Mayer die Bedeutung des Chlorophylls bei der Umwandlung von Lichtenergie während der Photosynthese. Im Verlauf fand man dann aber noch viele weitere natürliche und künstliche organische Verbindungen die zur Fluoreszenz fähig waren. Der klassische rote Tintenfarbstoff EOSIN etwa und sein naher chemischer Verwandter, das grünlich leuchtende Fluoreszein in Badezusätzen, sind nur zwei der populärsten Vertreter dieser Klasse.
Im Jahre 1979 begann der Chemiker Prof. Dr. Langhals mit seinen mittlerweise wohl bahnbrechenden Untersuchungen von organischen Fluoreszenzfarbstoffen. Eines der gesteckten Ziele war die Synthese von Farbstoffmolekülen, die zugeführtes Licht einer bestimmten Wellenlänge nicht nur aufnehmen und synchron dazu in einer anderen Wellenlänge wieder abgeben konnten, sondern sogar befähigt sein sollten, die anfangs zugeführte Energie beliebig lange und möglichst verlustarm zu speichern und dann auf ein weiteres, von außen zugeführtes Signal hin (etwa durch Licht einer anderen Wellenlänge, Elektronenanreicherung oder auch Wärmeenergie) wieder als Lichtquanten abzugeben.
Solch ein Molekül wäre nun in einer geeigneten Trägerumgebung und möglichst auf ebenfalls molekularer Größenebene funktionell durchaus in der Lage die Aufgaben eines Transistors oder beliebiger anderer Halbleiter zu übernehmen. Nur dass hier nicht wie bisher Elektronenströme geschaltet werden, sondern eher so eine Art von "Lichtquantenströmen".
Dieser optische Transistor funktioniert dabei ganz ähnlich wie sein "Siliziumkollege"! Auch hier kann man die Vorgänge ebenfalls mit einem modifizierten Bändermodell erklären. Ähnlich wie im klassischen Bänderschema der Halbleiter geht es auch hier um verschiedene Energiebänder, welche aber je nach Elektronenbesetzung der äußeren Schalen von speziellen, fluoreszierenden Farbstoffmolekülen (Chromophore) und bestimmter ins Molekül eingebauter Substituenten definiert sind. Durch Bestrahlen des Fluoreszenzfarbstoffes mit Licht einer spezifischen Wellenlänge kann die Fluoreszenz des Chromophors nun abgeschaltet und durch einen noch nicht veröffentlichten Trick mittels eines anderen eingebauten Substituenten wieder aktiviert werden. Das Molekül kann also beliebig und gezielt zwischen Fluoreszenz und Nichtfluoreszenz hin und her geschaltet werden.
Damit erfüllt es aber auch zugleich in idealer Weise die grundsätzlichen Anforderungen eines digitalen Schaltelementes wie bisher nur der übliche Halbleiter-Transistor und kann so mit weiteren Farbstoffmolekülen zum Aufbau kompletter Schaltungen und Funktionsgruppen genutzt werden.
Auf dieser Basis ließen sich dann leicht weitere, noch komplexere Bauteile bis hin zu hochintegrierten Prozessoren und jeder Art von Chips realisieren, die dann allerdings alle ausschließlich mit Licht arbeiten würden. Hiermit aufgebaute Rechner wären den heutigen Geräten mit Sicherheit um Zehnerpotenzen überlegen!
Alle elektrischen Verbindungen würden zudem durch optische Wege ersetzt. Es gäbe keinerlei elektromagnetische oder elektrostatische Störfelder mehr wie beim Elektrosmog der herkömmlichen Schaltungen.
Komponenten könnten bis zur molekularen Ebene hinunter verkleinert, miteinander vernetzt und störungsfrei nebeneinander betrieben werden. Außerdem wäre es im Gegensatz zu elektrischen Verbindungen möglich, auf jedem einzelnen Lichtkanal gleichzeitig Hunderte von Signalen mit unterschiedlichen Wellenlängen zu übertragen ohne diese zeitlich multiplexen zu müssen. Durch die hierdurch erst mögliche Verkleinerung aller Strukturen um etwa den Faktor 1000 könnten Prozessortaktfrequenzen bis annähernd
500 Terahertz = 500.000 GHz !!!!
realisiert werden und dies bei einer kaum messbaren Verlustleistung und einem traumhaften Störsignalabstand!
Ganz zu schweigen von den Vorteilen durch einen problemlosen 3-dimensionalen Aufbau jedes einzelnen Chips und der gesamten Schaltung in allen beliebigen Raumrichtungen. Hierdurch ließe sich die Größe aller Baugruppen sogar im Verhältnis von insgesamt
1 zu einer Milliarde reduzieren !
Um diesen Anforderungen gerecht zu werden, bedarf es natürlich ganz speziell designeter Farbstoffmoleküle, nach welchen schon länger weltweit geforscht wird.
So ist es unter anderem von außerordentlicher Bedeutung, dass sowohl die Photostabilität (Lichtechtheit) sowie auch die sogenannte Fluoreszenzquantenausbeute der verwendeten Chromophore möglichst hoch sind, um einerseits verlustarme Speicherung der aufgenommenen Lichtenergie bis zur erneuten Abgabe und andererseits möglichst viele Schaltzyklen ohne Alterung oder Zersetzung der Farbstoffe zu realisieren.
Ein weiteres Merkmal ist das Lichtabsorptionsvermögen, welches als Absorptionskoeffizient ein Maß für die schaltbaren Lichtleistungen ("Photonenstromstärke") darstellt. Je mehr Licht aufgenommen werden kann, desto mehr kann auch abgegeben werden und desto höher sind die erreichbaren Amplituden der Schaltimpulsfolgen und damit auch die Schaltschwellen (Eingangsempfindlichkeiten) der optischen Transistoren.
Prof. Dr. Langhals und seinem Mitarbeiterstab ist in dieser Richtung mittlerweile bereits ein großartiger Wurf in Form einer mit "S-13" bezeichneten Verbindung gelungen.
Die Fluoreszenzquantenausbeute des S-13 liegt nach Prof. Langhals bei satten 100%
Die Photostabilität scheint nach allen bisherigen Erkenntnissen nahezu unbegrenzt zu sein.
Und der Absorptionskoeffizient wurde mit 87 000 ermittelt.
(Zum Vergleich: Herkömmliche Textilfarbstoffe erreichen dagegen im Schnitt nur etwa 30 000.)
S-13 ist dabei die Abkürzung für einen Leistungsfluoreszenzfarbstoff aus der Gruppe der Perylen-3,4:9,10-bis(dicarboximide), dessen zur Modifizierung als optischer Transistor verwendete Substituenten jedoch aus Patentgründen vorläufig noch geheim gehalten werden. Die chemische Struktur des unmodifizierten Farbstoffes kann nachfolgender Grafik entnommen werden:
Die Kohlenstoffketten in den roten Rechtecken werden nach Abtrennung von den Stickstoffatomen (N) zur Modifizierung gegen zwei unterschiedliche Substituentenarten ausgetauscht, um das Chromophor auf der einen Molekülseite chemisch in einer Trägermatrix (Polymerer Kunstoff) zu verankern und auf der anderen Seite durch den zweiten Substituenten schaltbar zu machen. Je nach Anordnung der einzelnen Chromophormoleküle extrem dicht nenbeneinander und in allen Raumebenen der Matrix, kann so bereits auf molekularer Ebene eine funktionierende Schaltung geschaffen werden, deren Komplexität und Effizienz nur noch wenig physikalische Grenzen gesetzt sind. Viele lichtleitenden Verbindungen zwischen den einzelen Komponenten eines Photonenschaltkreises werden so möglicherweise schon beim Design des Polymer-Farbstoffkomplexes von vorneherein überflüssig oder zumindest erheblich reduziert, weil nach den Regeln der modernen Quantenmechanik bei Molekülabständen unter dem sogenannten "Försterradius" von 2-3 nm (Nanometer) in den meisten Fällen sogar direkte Energieübertragungen von einem Molekül zum nächsten möglich werden! So wird die interne Signalübertragung und Verarbeitung der Lichtquanten in den photonischen Chips direkt als reiner Energiequantentransfer stattfinden können ohne dafür eine vorherige Emission, Weiterleitung und Absorption des Lichtes selbst zu benötigen.
Die Unterschreitung dieses Försterradius innerhalb der Polymermatrix ist zum heutigen Stand der Wissenschaft absolut kein Problem mehr. Auch eine direkte Energieübertragung zwischen zwei Farbstoffmolekülen ist den Münchner Chemikern bereits gelungen.
Und noch lange bevor der erste photonische Prozessor funktioniert, wird sich eine mit Chromophoren bestückte Matrix als extrem schnelles, wiederbeschreibbares Speichermedium höchster Dichte nutzen lassen, indem die schaltbaren Elemente einfach in einer einzigen, regelmäßigen Polymergitterebene eingesetzt und somit als optisches Medium ( etwa in CD-Form ) durch einen von außen abtastenden Laserstrahl beliebig oft beschrieben und ausgelesen werden können.
Weitere Anwendungen dieser Technologie liegen auf der Hand.
Meine Meinung:
Man bedenke einmal, welch gigantische Möglichkeiten sich hier alleine schon in Verbindung mit den übrigen Nanotechnologien ergeben. So würde man durch Kombination der photonischen Nanocomputer mit Nanopumpen und anderen biomechanischen Nanobauteilen winzigste Roboter auch für den heilenden Einsatz im menschlichen Körper herstellen können, die nach Injektion in eine Vene sich völlig selbständig ihr Zielgebiet etwa im Gehirn eines Epileptikers suchen könnten um sich dann dort festzusetzen, regulierend einzugreifen und somit dessen Anfälle zukünftig und dauerhaft schon an der Quelle zu verhindern. Gleiches gilt für mikrochirurgische Eingriffe an bisher nur schwer oder überhaupt nicht zugänglichen Stellen des menschlichen Körpers.
Aber auch die sich hieraus ableitende Gefahr der gezielten Manipulation anderer Menschen durch heimliche Applikation solcher Steuercomputer sollte keineswegs unerwähnt bleiben.
Damit könnte dann möglicherweise tatsächlich irgendwann einmal das Horrorszenario des Verfolgungswahnes schizophrener Menschen wahr werden, die bekanntlich schon seit jeher panische Angst davor haben, von irgendeiner höheren Macht, den Geheimdiensten oder kriminellen Interessensgruppen mittels implantierter Mikroprozessoren ferngesteuert zu werden.
Und genau diese Möglichkeiten rücken damit ebenfalls zweifellos in greifbare Nähe.
Ein kleines (nicht so ganz ernst gemeintes) Beispiel könnte dann etwa so aussehen:
Doch nicht genug der Horrorszenarien!
Die Angst vor Missbrauch oder schlimmer noch, der Verselbstständigung nanotechnologischer Produkte sitzt schon heute tief in den Köpfen vieler Menschen. Schriftsteller aber auch namhafte Wissenschaftler warnen vor den Folgen einer mit der Zeit immer unkontrollierbarer werdenden Technologie, die sich schließlich zuletzt gegen seine Schöpfer wenden könnte.
Der Stern-Artikel von Till Mundzeck und Annett Klimpel befasst sich mit diesem Thema am Beispiel des Romans "Beute" von Michael Crichton...
Auszug: "...Das Ende der
Menschheit droht in Form einer gigantischen Armada winziger,
außer Kontrolle geratener Roboter.
Die wild gewordenen »Nanobots« versklaven oder töten ihre
einstigen Schöpfer oder zermahlen die gesamte
Biosphäre des Planeten zu klebrigem, grauen Schleim......."
Den kompletten Artikel von Till Mundzeck und
Annett Klimpel finden Sie hier:
horrorvision-bedrohung-durch-nano-roboter
In den Augen des Münchner
Biophysikers Wolfgang Heckl
vom Kompetenzzentrum Nanoanalytik
ist dies allerdings ein Schauermärchen: "Aus der Kontrolle
geratene sich selbst vermehrende Nanomaschinen,
die durch ihren Ressourcenverbrauch oder auch anderweitig zu
einer großen Gefahr für das Ökosystem
und den Menschen werden, sind aus wissenschaftlicher Sicht auch
mit größter Fantasie auf absehbare
Zeit nicht möglich...."
Weitere Stern-Beiträge finden Sie unter folgenden
Links:
atome-nach-mass
klein-aber-fein-vorstoss-in-den-nanokosmos
pflanzenviren-zu-nano-bausteinen-umgeruestet
Nano-Revolution baut auf
Biologie und Informationstechnik
Interview mit Michael
Crichton
Streit der Nano-Visionäre
Durchblick auf Nano-Ebene
Die Nanowelt hat ihre eigenen
Gesetze
Chemiker erobern den
Nanokosmos
Nanoteilchen als Krebskiller
Nanotechnik aus dem
Zwergenreich soll die Welt verändern
Nanotechnologie für
US-Militär von Microsoft
Andere Links:
Fraunhofer Institut für Werkstoff- und Strahltechnik
Kompetenzzentrum für Nanotechnologie
Beachten Sie bitte auch die Seiten von
www.nano.geo.uni-muenchen.de
und des
Münchner Instituts für
Nano-Analytik
Abschließend bleibt vielleicht noch anzumerken, dass es andererseits auch noch gut 20 Jahre oder länger dauern kann bis die Industrie systematisch die neue Technik nutzt, wenn sie sich auf die Herstellung verschleißfreier Komponenten überhaupt einlässt.
An Computern, die für die Ewigkeit gebaut sind lässt sich nicht viel verdienen!
Um diese Geräte dennoch wirtschaftlich interessant zu machen, kann dann also nur noch an der makroskopischen Zusatzperipherie oder eng reglementierten Nutzerlizenzen für Programme und Betriebssysteme gefeilt werden, wie man dies schon heute am aktuellen Beispiel von Windows XP erkennen kann.
Der Trend, zumindest was die Herstellung zukünftiger Computer betrifft, geht also vermutlich ohnehin eher in Richtung Leasing....
DER TECHNODOCTOR