IT-Forschung/Noch viel Arbeit für die Hoffnungsträger Polymere und Proteine

Hardwareforschung nicht ausgereizt

18.01.2002
Mikroprozessoren, Speichermedien, Mikrosysteme - neue leistungsfähige Hardwaregenerationen kündigen sich an. Doch bis zur Produktreife ist der Weg noch weit, denn das Material für die holografische Speicherung beispielsweise bleibt ein Problem. Von Johannes Kelch*

Mit einer Verzehnfachung der Geschwindigkeit von Prozessoren und einer Verzwanzigfachung der Kapazität von Speicherchips rechnet Willi Neff, Physiker am Fraunhofer-Institut für Lasertechnik ILT in Aachen, schon ab dem Jahr 2005. Das ILT ist eine der wenigen Forschungseinrichtungen weltweit, die neue, trickreiche Belichtungsmethoden für die Halbleiterherstellung entwickeln.

Je kleiner die Strukturen auf einem Mikroprozessor sind, desto höhere Taktraten lassen sich erzielen und desto schneller kann ein Computer rechnen. Mit den heute möglichen Strukturbreiten von rund 200 Nanometern sind Taktraten von einem Gigahertz und mehr möglich. Doch schon in diesem Jahrzehnt könnte es Computer geben, die mit 10 bis 15 Gigahertz rechnen, so Willi Neff.

Der Zeitplan der Halbleiterhersteller sieht eine extreme Miniaturisierung der Strukturbreiten im Zeitraum von 2004 bis 2008 vor. Nach der "International Technology Roadmap for Semiconductors" aus dem Jahr 2000 sollen sich die Strukturen auf Mikroprozessoren und Speicherchips im Jahr 2004 auf 90 Nanometer verschlanken, im Jahr 2008 auf 60 Nanometer und 2011 auf 40 Nanometer.

Derzeit fertigen Unternehmen wie Intel und Infineon ihre Prozessoren und Chips unter Einsatz der optischen Lithografie. Unsichtbare ultraviolette Strahlen ("deep ultraviolet") schaffen es heute aufgrund ihrer Wellenlänge, Strukturen mit einer Breite von rund 200 Nanometern auf eine photoempfindliche Schicht zu belichten. Doch wird diese Technik demnächst an eine unüberwindbare Grenze bei rund 150 Nanometern stoßen.

Um die Mikrochipstrukturen weiter zu reduzieren, arbeiten Institute derzeit unter Hochdruck an neuen Verfahren der "post-optischen Lithografie". Geforscht wird an der Belichtung von Wafern mit Elektronen-, Ionen-, Röntgenstrahlen oder "extrem ultravioletten Strahlen" (EUV). Mit den Wellenlängen all dieser Strahlen kann man die Strukturbreiten bei der Lithographie auf bisher nicht realisierbare 70 bis 35 Nanometer minimieren.

Für den Physiker Willi Neff ist das EUV-Licht der "aussichtsreichste Kandidat" für die Nachfolge der heute gebräuchlichen "tief ultravioletten" Strahlen. Der Fraunhofer-Mann wörtlich: "Die Halbleiterindustrie und die Hersteller von Belichtungsstationen bevorzugen kompakte und kostengünstige plasmabasierende Strahlungsquellen." Das ILT in Aachen hat denn auch ein Gerät in der Größe einer Hutschachtel entwickelt, das über eine gepulste elektrische Entladung ein mehr als 100000 Grad heißes Plasma erzeugt und damit EUV-Strahlen emittiert. Neff betont: "Hinsichtlich mittlerer Leistung, Lebensdauer, Wiederholrate und schneller Verfügbarkeit gibt das Gasentladungskonzept die überzeugendsten Antworten auf die Anforderungen der Halbleiterindustrie."

Allerdings ist noch keineswegs ausgemacht, dass der Zeitplan für die nächsten Jahre eingehalten werden kann. Noch reicht die Strahlungsleistung bei weitem nicht aus, um mit EUV-Licht Fotolack zu belichten. Das ILT hat daher mit dem Elektronikkonzern Philips die Philips EUV GmbH gegründet. Zweck des Joint Venture ist, ein ganzes System für die EUV-Lithographie zu entwickeln. Neben einer stärkeren Strahlenquelle wird auch eine völlig neuartige Spiegeloptik benötigt, um die EUV-Strahlen auf die photoempfindlichen Schichten zu dirigieren. Wann eine komplett neue Belichtungstechnik genutzt werden kann, steht indes in den Sternen.

Undenkbare RechenleistungenNoch stärker gilt dies für ein Computermodell der übernächsten Generation, den "Quantencomputer", der nach dem Silizium-Zeitalter den Vorstoß zu bisher undenkbaren Rechenleistungen verspricht. Zwar haben Wissenschaftler am Max-Planck-Institut für Quantenoptik in Garching im Oktober 2001 einen "wissenschaftlichen Durchbruch" bekannt gegeben: Einem Forschungsteam unter Leitung von Herbert Walther gelang die "exakte Kontrolle der Wechselwirkung zwischen Atom und Strahlungsfeld". Darin sehen die Forscher einen Meilenstein zum "Bau effizienter Schaltelemente für einen Quantencomputer". Mit einer raschen Verwirklichung dieses Konzepts ist jedoch nicht zu rechnen.

Ganz ähnlich verhält sich dies bei den angekündigten hochkapazitiven Speichermedien der Zukunft. Die Hoffnungsträger Polymere und Proteine als Speichermaterial erfordern noch immer viel Forschung, bevor sie der herkömmlichen Festplatte das Wasser abgraben können.

Vor wenigen Jahren, zuletzt 1999, kündigte die zentrale Forschung des Bayer-Konzerns noch eine grandiose Kapazitätssteigerung durch Nutzung der Holografie an. Schon 2003, orakelt Bayer seither auf der konzerneigenen Website, könnte eine neuartige DVD serienreif werden, die "PAP-DVD". PAP bedeutet "Photoadressierbare Polymere". Das neue PAP-Speichermedium soll nach Schätzungen von Bayer 30 bis 40 Gigabyte fassen, demnach 46-mal so viele Daten wie eine CD und sechsmal so viele wie eine heute übliche DVD speichern.

Johannes Eickmans von der zentralen Forschung des Bayer Konzerns kündigte 1999 sogar eine neue holografische Festplatte in Gestalt einer kleinen durchsichtigen Scheibe an, die den Inhalt von 1500 CDs aufnehmen könne. Eickmans seinerzeit wörtlich: "1500 GB sind nur der Anfang. In einem Turm-Laufwerk können wir ein Speichermedium mit 100000 GB zur Verfügung stellen."

Bei der holografischen Speicherung werden die Bits anders als bei einer herkömmlichen CD oder DVD nicht mehr in Form von winzigen Vertiefungen auf der Fläche der Medien festgehalten, sondern in zahlreichen übereinanderliegenden Schichten. Ausgenutzt wird dabei eine besondere Eigenschaft von photoadressierbaren Polymeren. Diese langkettigen Moleküle haben an ihren Hauptketten Seitenketten, die normalerweise ungeordnet in den Raum hängen, jedoch mit einem polarisierten Laserstrahl geordnet werden können.

Trifft das Laserlicht auf das Polymer, richten sich die Seitenarme in einer Richtung aus. Diese geordnete und ungeordnete Ausrichtung der Seitenketten eignet sich zur Darstellung von eins und null und damit für die Speicherung von Daten. Zum Auslesen ohne Verändern der Daten dient ein schwächerer Laserstrahl. Die große Anzahl der Moleküle auf engstem Raum sorgt für die enorme Speicherkapazität, die Bayer nutzen will.

Allerdings bereitet die Realisierung eines ersten holografischen Speichers in Gestalt einer PAP-DVD erhebliche Schwierigkeiten. So räumt Bayer ein, dass die Technik wegen des Fehlens eines blauen Lasers mit sehr kurzen Wellenlängen noch hakt. Darüber hinaus ist fraglich, ob der blaue Laser letztendlich zielführend ist.

Der amerikanische Experte für optische Speicherung, Glenn Sincerbox von der Universität Arizona, berichtete zwar über technologische Fortschritte, aber auch nach wie vor bestehende grundlegende Schwierigkeiten der Holografie: "Das Material für die Speicherung bleibt problematisch", so Sincerbox.

Schlüsseltechnologie des 21. JahrhundertsBei dem seit längerem in der Forschung verwendeten Lithium Niobate seien die Daten volatil (flüchtig), bei mehrfacher Auslesung der Daten würden die Hologramme quasi ausradiert. Zwar könne man die Daten thermisch fixieren, das aber bedeute, dass lediglich ROM-Speicher realisiert werden könnten. So bleibt nach einem ausgelaufenen Großprojekt in den Vereinigten Staaten erheblicher Forschungsbedarf bestehen, um holografische Speichersysteme zu einer technologisch tragfähigen Lösung zu führen.

Funkstille herrscht heute um ein Forschungsinstitut, das 1999 einen ersten kommerziell verwertbaren Massenspeicher auf Proteinbasis schon für das vergangene Jahr 2001 angekündigt hatte. Robert Birge, Direktor am W.M. Keck Zentrum für Molekulare Elektronik der Universität Syracuse im US-Bundesstaat New York, ließ eine aktuelle Nachfrage der COMPUTERWOCHE zum Schicksal von chemisch und genetisch manipulierten Bacteriorhodopsin-Schichten unbeantwortet.

Trotz intensiver Forschung und Förderung im vergangenen Jahrzehnt steht die Mikrosystemtechnik (MST), eine der "Schlüsseltechnologien des 21. Jahrhunderts", auf manchen Spezialgebieten noch ganz am Anfang. Erste Mikrosysteme wie Airbag-Sensoren und Handy-Bauteile sind eingeführte Produkte, aber nur die Vorläufer einer breiten Palette von Minisystemen für zahlreiche Anwendungsgebiete.

Randolf Schließer, Projektleiter für Verbundförderung im Bereich MST beim VDI/VDE-Technologiezentrum Informationstechnik GmbH, nennt als Beispiel für hohen Forschungsbedarf den Bereich "Life Science". In der Analytik, Diagnostik und Wirkstoff-Forschung gebe es "ungeheuer viele Möglichkeiten". Schließer sieht in dem "Lab on a Chip", wie es heute existiert, lediglich ein "passives System", eine Mikrotiterplatte, in deren Vertiefungen Hunderte oder Tausende von Kulturen wachsen. Schon gibt es jedoch erste Ansätze in Richtung "aktiver Systeme", die auf einem Chip nicht nur Kulturen versammeln, sondern auch Sensoren und künstliche Intelligenz unterbringen, so dass die Auslesung und Auswertung von Messergebnissen unmittelbar auf dem Chip erfolgen kann. Experten haben laut Ingenieur Schließer "viele Ideen", wie man eine solche Integration auf kleinstem Raum hinbekommen könnte. Es werde aber voraussichtlich noch Jahre dauern, bis die Ideen realisierbar seien.

Näher an der Produktreife sind laut Randolf Schließer Mikrodosiersysteme. So wurden bereits für starke Diabetiker in den Körper implantierbare Minisysteme entwickelt, die laufend mit einem Sensor den Glucosegehalt des Blutes messen und je nach aktuellem Bedarf mit einer Mikropumpe exakt die benötigten Mengen Insulin zuführen. Der Fachmann des VDI/VDE-Technologiezentrums sieht auch hier noch keinen Endpunkt der Forschung. "Evolutionäre Prozesse" könnten derartige Systeme auch in Zukunft perfektionieren und die operative Belastung für den Menschen verringern.

Noch nicht ausgereizt sind nach Darstellung Schließers die Baukastensysteme, die bereits vor Jahren eine Modularisierung der Mikrosystemtechnik versprachen. Zahlreiche miteinander kompatible Komponenten sollten den komplexen Aufbau von Mikrosystemen auch bei kleinen Stückzahlen möglich und finanzierbar machen. Nach jahrelanger Forschung sieht Schließer jetzt "erste zarte Pflänzchen" wie Kommunikationsbausteine, Prozessoren und Sensoren. Die Baukastenidee, deren Umsetzung erst jetzt in die Gänge komme, sei noch immer "eine risikoreiche Sache". Es sei noch nicht klar, ob sich dieses Konzept durchsetzen werde. Die Euphorie sei hier zu groß gewesen, gibt Schließer zu bedenken. Wie in der Mikroelektronik könne es nicht nur zwei bis drei, sondern sieben bis acht Jahre dauern, bis sich hier eine neue Technologie durchsetzen könne.

So haben Experten auf Einladung des VDI/VDE bereits Ideen zur Forschung nach dem Jahr 2003 zusammengetragen. In diesem Jahr endet das aktuelle Förderkonzept Mikrosystemtechnik 2000 Plus, dem bereits zwei mehrjährige Förderzeiträume vorangegangen waren. (bi)

*Johannes Kelch ist freier Journalist in München.

Abb: Mikrosystemtechnik noch ganz am Anfang

Erste Mikrosystem sind eingeführt. Es sind aber nur die Vorläufer einer breiten Palette von Minisystemen für zahlreiche Anwendungsgebiete. Quelle: VDI/VDE-IT 2/01