(Noch) keine Grenzen für das Mooresche Gesetz
Neue Materialien als Schlüssel für die Herstellung der nächsten Chip-Generationen
Das Mooresche Gesetz ist der Leitstern der Computertechnologie. Es prognostiziert eine stetige Verkleinerung der Schaltelemente auf einem Mikrochip. Um das zu erreichen, müssen jedoch komplexe Probleme gelöst und neue Materialien gefunden werden.
Im Jahr 1965 sagte der Intel-Mitbegründer Gordon Moore voraus, dass sich die Zahl der Transistoren auf einem Chip durch die stetige Miniaturisierung jährlich verdoppeln werde. Diese kühne Prognose hat bis heute Gültigkeit behalten, obgleich die Verdoppelungsrate eher bei 24 als bei 12 Monaten liegt. Momentan steht die Halbleiterindustrie an der Schwelle zur 45-Nanometer-Technologie. Die Firmen Intel und IBM haben kürzlich angekündigt, die kleinsten Strukturen auf einem Chip von derzeit 65 auf 45 Nanometer verkleinern zu wollen, um die Transistoren noch dichter packen zu können. Dieser Schritt setzt Verbesserungen auf verschiedenen Ebenen voraus. Auch die seit Jahrzehnten nahezu unveränderten Transistoren kommen nicht ungeschoren davon.
Vom Wafer zum Chip
Der Ausgangspunkt der Chip-Produktion ist der sogenannte Wafer, eine kreisförmige Scheibe aus einem Silizium-Einkristall von meistens 300 Millimetern Durchmesser und einer Dicke zwischen 500 und 800 Mikrometern. Mittels Lithographie und Ätztechniken werden schichtweise die Strukturen mehrerer integrierter Schaltkreise auf den Wafer aufgebracht. Dabei hält man seit Jahrzehnten an der bewährten CMOS-Technik fest (CMOS steht für Complementary Metal Oxide Semiconductor). Bei dieser Technik fungieren jeweils zwei komplementäre, wechselseitig arbeitende Transistoren als Schaltelemente. Nach dem Aufbringen der Schaltkreise wird der Wafer zerschnitten, und beim sogenannten Packaging entstehen aus den einzelnen Schaltkreisen die Chips mit Gehäuse und Anschlüssen. Zum Produktionsprozess gehören ferner zahlreiche Teststufen (Testing), etwa die Prüfungen der integrierten Schaltkreise auf dem ungeschnittenen Wafer sowie der Test des Chips nach dem Packaging. Schliesslich wird auch noch die Platine untersucht, die den fertigen Chip sowie andere Bauelemente enthält.
Die technologischen Herausforderungen, die mit der Miniaturisierung der Bauelemente verbunden sind, lassen sich in drei Kategorien einordnen: Design, Energie und Material. Unter «Design» versteht man dabei zum einen die Entwicklung und die Simulierung von Schaltkreisen sowie deren Übertragung auf den Wafer mittels Lithographie. Hier erlaubt der jetzige Stand der Technik Schaltkreise mit einer durchschnittlichen Strukturbreite von bis zu 22 Nanometern. Zum Problemkreis «Design» gehört aber auch die Entwicklung neuer Testing-Prozeduren. Das ist nötig, weil die Zahl der Transistoren in den integrierten Schaltkreisen exponentiell steigt, die Zahl der «Abgreifstellen» (Pins) auf den Wafern für die Testsysteme aber nur linear. (•wieso ist das so?•) Damit wächst der Testaufwand, der für das korrekte Kalibrieren des Produktionsprozesses ausschlaggebend ist, überproportional an.
Die Produzenten beherrschen dieses Problem aber erstaunlich gut. Es braucht zwar bei jeder Generation von Chips immer eine gewisse Zeit, bis im Produktionsprozess tiefe Fehlerquoten erreicht werden; die Firma Intel konnte jedoch die Zahl der Defekte pro Wafer-Fläche bei seinen 65-Nanometer-Chips in kürzerer Zeit reduzieren als bei früheren Chip-Generationen. Infineon wiederum entwickelte kürzlich ein im integrierten Schaltkreis integriertes Testsystem für eine bestimmte Sorte von Fehlern, die im Produktionsprozess häufig auftreten. Der Design-Aspekt dürfte also keine Hürde für eine weitere Miniaturisierung zu sein.
Auch für den Problemkreis «Energie» sind Lösungen absehbar. Mit der zunehmenden Dichte der Transistoren auf einem Chip erhöht sich auch das Risiko von Fehlströmen. Dadurch wächst der Anteil an Energie, der als Wärme verloren geht. Heutige Hochleistungs-Chips erreichen bereits eine Energiedichte von 100 Watt pro Quadratzentimeter – zehn mal mehr als eine Kochplatte. Chips künftiger Generationen könnten ungekühlt Temperaturen von mehreren tausend Grad erreichen – was sie natürlich sofort unbrauchbar machen würde. Um das zu vermeiden, entwickelt IBM derzeit ein Kühlverfahren, das auf sogenannten hierarchischen Kanälen – analog zur verästelten Struktur einer Blattaderung – basiert. In Zukunft sollen geschlossene Miniaturkühlsysteme, bei denen eine Kühlflüssigkeit durch die hierarchischen Kanäle zirkuliert, die Wärme abführen und so eine Überhitzung verhindern.(•ist das die Idee?•)
Suche nach neuen Materialien
Im Bereich «Material» haben sich jedoch fundamentalere Probleme gezeigt. Zum einen nimmt die Variabilität der Strukturen zu, je kleiner sie werden. Das lässt sich an einem Beispiel leicht verdeutlichen. Die Lithographie basiert auf lichtempfindlichen Lacken, die aus langkettigen organischen Molekülen bestehen. Die Ordnung der Moleküle in der aufgetragenen Lackschicht ist zufällig. Das ist ohne Belang, solange die Strukturen (etwa die Leiterbahnen auf einem Chip) deutlich grösser als die Moleküle sind. Gleichen sich die Grössenverhältnisse jedoch an, beginnt die Breite der Leiterbahnen zu schwanken, weil beispielsweise Moleküle quer zu einer vorgesehenen Leiterbahn liegen und damit nach der lithographischen Übertragung der Struktur zu einer «Ausbuchtung» führen können. Diese Variabilität erreicht heute durchaus die Grössenordnung von zehn Prozent, so Martin Schmatz, Technologiemanager am Forschungslabor der IBM in Rüschlikon.
Zum anderen stösst ein Grundstoff der CMOS-Technik, nämlich das als Isolatormaterial verwendete Siliziumdioxid, an seine physikalischen Grenzen. Das ist eines der Hauptprobleme beim derzeitigen Schritt von der 65-Nanometer- zur 45-Nanometer-Technologie. Die als Schaltelemente fungierenden Transistoren bestehen im Wesentlichen aus drei elektrischen Anschlüssen, die mit Source, Drain und Gate bezeichnet werden (siehe Abbildung). Der Stromfluss zwischen Source und Drain kann durch eine elektrische Spannung am Gate gesteuert werden, wobei die Gate-Elektrode allerdings durch eine Siliziumdioxid-Schicht gegen den stromführenden Kanal isoliert sein muss.
Im Zug der Verkleinerung wird diese isolierende Schicht immer dünner gestaltet. Das birgt das Risiko von Stromlecks. Derzeit beträgt die Schichtdicke nur noch 1,1 Nanometer (etwa fünf Atome). Damit ist die Grenze erreicht, in der Siliziumdioxid noch als Isolator wirken kann. Eine weitere Miniaturisierung der Transistoren setzt also zwingend neue Materialien voraus. Theoretisch ist seit längerem bekannt, welche Wege dazu beschritten werden müssen. So werden sogenannte high-K-Dielektrika untersucht – Materialien, die eine höhere Dielektrizitätskonstante als herkömmliches Siliziumdioxid aufweisen. Diese Zahl gibt die Durchlässigkeit eines Materials für elektrische Felder an und ist damit ein Mass für dessen isolierende Wirkung. Es reicht jedoch nicht, einen Stoff zu finden, der ein besserer Isolator ist als Siliziumdioxid. Das Material muss sich ausserdem optimal mit der bewährten CMOS-Technik kombinieren lassen, an der man aus ökonomischen Gründen unbedingt festhalten will. Dies bedeutet zum einen, dass sich die neuen Stoffe auf der rein physikalischen Ebene gut mit dem Silizium-Wafer verbinden lassen. Zum anderen sollten bei der industriellen Produktion nicht zu viele Anpassungen nötig sein. Zudem sollte der Stoff nicht zu teuer und ungiftig sein.
Die Unternehmen Intel und IBM haben kürzlich bekannt gegeben, dass Hafniumdioxid das Material der Wahl beim Schritt zur 45-Nanometer-Technologie sei. Hafnium war bisher ein strategisches Metall der Atomindustrie, weil es für die Steuerungsstäbe von Reaktoren verwendet wird. Soweit bekannt, sind Hafnium und seine Verbindungen nicht besonders giftig. Hafnium ist zwar selten – die Weltproduktion liegt pro Jahr bei etwa 50 Tonnen. Dennoch dürfte ein zunehmender Hafnium-Bedarf durch die Chipindustrie kaum zu einem Ressourcenengpass führen, weil die gesamte pro Jahr benötigte Materialmenge selbst bei ausschliesslichem Einsatz von Hafniumdioxid als Isolator – was unrealistisch ist – nur wenige hundert Kilogramm betragen dürfte. Hafniumdioxid erfülle alle relevanten physikalischen wie materialtechnischen Eigenschaften für eine erfolgreiche Integration in die bestehenden Produktionsprozesse, meint denn auch Roland Germann, Leiter der CMOS-Forschung bei IBM in Rüschlikon.
Aber nicht nur die Isolatorschicht, sondern auch weitere Komponenten des klassischen Transistors dürften künftig aus neuen Materialien bestehen. So wird die heute noch aus polykristallinem Silizium bestehende Gate-Elektrode bei der neuen Chip-Generation aus neuen Stoffen bestehen müssen, weil sich Hafniumdioxid nur schlecht mit polykristallinem Silizium kombinieren lässt. Noch geben IBM und Intel nicht bekannt, um welche Stoffe es sich dabei handeln soll. Der Blick in die Forschungsliteratur lässt aber die Vermutung zu, dass hier Nitride der Elemente Titan (TiN) und Tantal (TaN) zum Einsatz kommen könnten. In einigen Jahren könnte auch das Silizium selbst als stromleitendes Material ersetzt werden. Als Ersatzkandidaten werden seit längerem Germanium und sogenannte III/V-Halbleiter wie Galliumarsenid und Indiumarsenid gehandelt.
Mit Computern Computer verbessern
Im Hinblick auf die involvierten Materialien wird die CMOS-Welt also reicher. Die Festkörperphysiker durchforsten derzeit das Periodensystem der Elemente auf der Suche nach verheissungsvollen neuen Stoffen, welche die materialtechnischen Herausforderungen der stetigen Miniaturisierung zu lösen vermögen. Um die enorme Vielfalt an Möglichkeiten einzugrenzen, arbeiten sie eng mit Forschern zusammen, die auf dem Gebiet der Computer-Modellierung zu Hause sind. Ein exemplarisches Beispiel für diese Art der Zusammenarbeit ist das kürzlich veröffentliche Resultat einer Forschergruppe vom IBM-Forschungslabor in Rüschlikon. Die Gruppe erforschte das Verhalten von diversen Varianten von Hafniumsilikaten – jenen Substanzen, die in den künftigen 45-Nanometer-Chips an der Grenzfläche zwischen dem Silizium-Wafer und der isolierenden Hafniumdioxid-Schicht auftreten werden. Ein Verständnis dieser Substanzen ist für die Abschätzung der Funktionsweise der Transistoren zentral.
Die IBM-Forscher simulierten die Wechselwirkung zwischen Silizium und Hafniumdioxid «from first principles», also ohne Rückgriff auf empirisch ermittelte Daten. Das Modell beruhte allein auf bekannten physikalischen Gesetzen. Damit können die fundamentalen Möglichkeiten und Grenzen der neuen Chips errechnet werden. Man könne nicht nur das Systemverhalten nachbilden, sondern auch den Experimentatoren Hinweise geben, in welche Richtung sie forschen sollen, erläutert der IBM-Wissenschafter Alessandro Curioni den Nutzen der Simulation. So helfen die derzeit besten Supercomputer mit, dass das Mooresche Gesetz noch mindestens bis in die erste Hälfte des kommenden Jahrzehnts Gültigkeit beanspruchen darf.
Markus Christen