Advertisements

Moores Gesetz ist tot. Was jetzt?

Im Jahr 1965 beobachtete Gordon Moore, dass sich die Anzahl der Transistoren in einer dichten integrierten Schaltung alle 18 Monate verdoppelt (die er später auf zwei Jahre revidierte), wodurch die Verarbeitungsleistung erhöht wurde. 1968 gründete Moore gemeinsam mit Robert Noyce Intel und seine Beobachtung wurde zur treibenden Kraft hinter Intels Erfolg mit dem Halbleiterchip. Die Tatsache, dass Moores Gesetz über 50 Jahre als Leitfaden für Innovationen überlebte, überraschte Moore selbst, und in einem Interview-Interview von 2015 beschreibt er einige potenzielle Hindernisse im Zusammenhang mit einer weiteren Miniaturisierung: die Lichtgeschwindigkeit, die atomare Natur von Materialien und steigende Kosten .

Trotzdem haben Technologen das Mooresche Gesetz verinnerlicht und sich daran gewöhnt, dass sich die Computergeschwindigkeit alle 18 Monate verdoppelt, wie Moore vor über 50 Jahren beobachtete, und das war bis vor kurzem richtig. Das Mooresche Gesetz wird jedoch obsolet. Wieso den? Und welche Alternativen haben wir?

Was ist das Mooresche Gesetz?

Das Mooresche Gesetz ist die Beobachtung, dass sich die Anzahl der Transistoren in einer dichten integrierten Schaltung etwa alle zwei Jahre verdoppelt.

Mehr von Intels Front LinesIch konnte Cisco nicht erwerben. Ohne uns ging es ihnen besser.

Moores Gesetz und der Mikroprozessor

Zunächst ein kleiner Hintergrund: Eine CPU (Central Processing Unit) führt grundlegende arithmetische Operationen durch. Ein Mikroprozessor enthält die Merkmale einer CPU auf einer einzigen integrierten Schaltung, die selbst aus Transistoren besteht. Heutzutage ist eine CPU ein Mikroprozessor (bestehend aus einer einzigen Schaltung) mit Milliarden von Transistoren. Zum Beispiel hat eine Xbox One 5 Milliarden.

Der erste Intel-Mikroprozessor, Intel 4004, hatte 2.300 Transistoren mit einer Größe von jeweils 10 µm. Ab 2019 ist ein einzelner Transistor auf dem Massenmarkt durchschnittlich 14 Nanometer (nm), wobei viele 10-nm-Modelle 2018 auf den Markt kamen. Intel schaffte es, über 100 Millionen Transistoren auf jeden Quadratmillimeter zu packen. Die kleinsten Transistoren erreichen 1 nm. Viel kleiner geht es nicht.

Mehr zum Mooreschen Gesetz

Bedrohungen des Mooreschen Gesetzes und Grenzen der Innovation

Atomare Skala und explodierende Kosten

Die Lichtgeschwindigkeit ist endlich, konstant und stellt eine natürliche Begrenzung der Anzahl von Berechnungen dar, die ein einzelner Transistor verarbeiten kann. Schließlich können Informationen nicht schneller als Lichtgeschwindigkeit weitergegeben werden. Derzeit werden Bits durch Elektronen modelliert, die sich durch Transistoren bewegen, daher ist die Rechengeschwindigkeit durch die Geschwindigkeit eines Elektrons begrenzt, das sich durch Materie bewegt. Drähte und Transistoren zeichnen sich durch Kapazitäten aus C (Kapazität, Elektronen zu speichern) und Widerstand R (wie sehr sie dem Stromfluss widerstehen). Mit Miniaturisierung, R geht hoch während C sinkt und es wird schwieriger, korrekte Berechnungen durchzuführen.

Bei der weiteren Miniaturisierung von Chips werden wir zweifellos auf das Heisenbergsche Unschärferelationsprinzip stoßen, das die Präzision auf Quantenebene einschränkt und damit unsere Rechenkapazitäten einschränkt. James R. Powell berechnete, dass das Mooresche Gesetz allein aufgrund des Unsicherheitsprinzips bis 2036 obsolet sein wird.

Aber vielleicht sind wir schon da. Robert Colwell, Direktor des Büros für Mikrosystemtechnik bei der Defense Advanced Research Projects Agency, verwendet das Jahr 2020 und 7 nm als letzten prozesstechnischen Knoten. „In Wirklichkeit erwarte ich, dass die Industrie alles tut, was nötig ist, um auf 5 nm zu kommen, auch wenn 5 nm keinen großen Vorteil gegenüber 7 (nm) bieten, und das verschiebt das früheste Ende auf 2022. Ich denke, das Ende.“ kommt genau um diese Knoten herum.“

Ein weiterer Faktor, der das Mooresche Gesetz langsam zum Erliegen bringt, sind die steigenden Kosten für Energie, Kühlung und Herstellung. Der Bau neuer CPUs oder GPUs (Grafikprozessor) kann viel kosten. Die Herstellungskosten eines neuen 10-nm-Chips betragen rund 170 Millionen US-Dollar, fast 300 Millionen US-Dollar für einen 7-nm-Chip und über 500 Millionen US-Dollar für einen 5-nm-Chip. Diese Zahlen können nur mit einigen spezialisierten Chips wachsen. NVidia hat beispielsweise über 2 Milliarden US-Dollar für Forschung und Entwicklung ausgegeben, um eine GPU zu entwickeln, die die KI beschleunigen soll.

Apropos Chips…Wie sich Halbleiterengpässe auf Ihren Betrieb auswirken können

Die Zukunft der Informatik

Quanten-Computing

Unter Berücksichtigung all dieser Faktoren ist es notwendig, nach alternativen Rechenwegen außerhalb von Elektronen und Transistoren aus Silizium zu suchen.

Eine Alternative, die weiter an Fahrt gewinnt, ist das Quantencomputing. Quantencomputer basieren auf Qubits (Quantenbits) und nutzen Quanteneffekte wie Superposition und Verschränkung zu ihrem Vorteil und überwinden damit die Miniaturisierungsprobleme des klassischen Computings. Es ist noch zu früh, um vorherzusagen, wann sie weit verbreitet sind, aber es gibt bereits interessante Beispiele für ihren Einsatz in der Wirtschaft. Das dringendste Problem für Quantencomputer ist die Skalierung von Quantencomputern von Dutzenden von Qubits auf Tausende und Abermillionen von Qubits.

Lernen Sie von einem integrierten Quantencomputer-ExpertenPseudocode schreiben

Spezialisierte Architektur

Ein anderer Ansatz ist eine spezialisierte Architektur, die auf bestimmte Algorithmen abgestimmt ist. Dieser Bereich wächst dank der großen Nachfrage durch maschinelles Lernen sehr schnell. GPUs werden bereits seit über einem Jahrzehnt für KI-Training verwendet. In den letzten Jahren hat Google TPUs (Tensor Processing Units) eingeführt, um die KI zu steigern, und derzeit gibt es über 50 Unternehmen, die KI-Chips herstellen, darunter: Graphcore, Habana oder Horizon Robotics und die meisten führenden Technologieunternehmen.

FPGA

In der Praxis bedeutet FPGA (Field-Programmable Gate Arrays), dass eine Hardware nach dem Herstellungsprozess programmiert werden kann. FPGAs wurden erstmals 1985 von Seiko hergestellt, aber verschiedene umprogrammierbare Hardware kann bis in die 1960er Jahre zurückverfolgt werden. FPGAs kommen in letzter Zeit in Mode, insbesondere durch ihren Einsatz in Rechenzentren sowohl von Intel als auch von Microsoft. Microsoft hat auch FPGAs verwendet, um die Bing-Suche zu beschleunigen. Ein ähnliches Konzept wie FPGAs sind ASIC, anwendungsspezifische integrierte Schaltungen. In letzter Zeit waren sie beim Kryptowährungs-Mining sehr beliebt.

Mehr von Przemek ChojeckiEin Leitfaden für Anfänger zu NFTs und Cryptoart

Spintronik, optische Computer und mehr

Eine weitere Alternative zum klassischen Computing besteht darin, Silizium oder Elektronen durch etwas anderes zu ersetzen. Die Verwendung des Spins von Elektronen anstelle ihrer Ladung führt zur Spintronik, einer auf Spins basierenden Elektronik. Die breite Anwendung der Spintronik befindet sich noch in der Forschungsphase, ohne Massenmarktmodelle. Wissenschaftler forschen derzeit auch an Optical Computing – oder nutzen Licht, um Berechnungen durchzuführen. Es gibt jedoch noch viele Hindernisse beim Bau eines industriellen optischen Computers.

Schließlich sehen wir eine zunehmende Zahl von Experimenten mit Nicht-Silizium-Materialien. Verbundhalbleiter kombinieren zwei oder mehr Elemente des Periodensystems, wie Gallium und Stickstoff. Verschiedene Forschungslabore testen auch Transistoren aus Silizium-Germanium oder Graphen. Nicht zuletzt erforschen einige Forscher das biologische Rechnen mit Zellen oder DNA als integrierte Schaltkreise, aber das ist noch weiter von jeder industriellen Anwendung entfernt.

Um über das Mooresche Gesetz hinauszukommen, müssen wir die Grenzen des klassischen Rechnens mit Elektronen und Silizium überschreiten und in die Ära der Nicht-Silizium-Computer eintreten. Die gute Nachricht ist, dass es viele Möglichkeiten gibt, von Quantencomputern über Wundermaterialien wie Graphen bis hin zu optischem Computer und spezialisierten Chips. Wie auch immer der Weg vorangeht, die Zukunft des Computings ist auf jeden Fall spannend! Ruhe in Frieden, Moores Gesetz.

Dieser Artikel wurde ursprünglich auf Towards Data Science veröffentlicht.

Moores Gesetz ist tot. Was jetzt?

Leave a Reply

Your email address will not be published. Required fields are marked *

Scroll to top