Prozessor-Architektur

Der x86-Prozessor wird 30 - wie Intel dank IBM alle Gipfel stürmte

23.06.2008 von Simon Hülsbömer
Vor 30 Jahren stellte Intel den 8086-Prozessor vor. Die x86-Architektur feierte ihre Premiere. Dass sie eine Erfolgsgeschichte wurde, verdankt Intel nicht zuletzt IBM.

Am 8. Juni 1978 bewarb der Konzern das Release des Prozessors mit dem Slogan "Der Beginn einer neuen Ära" - es war nicht übertrieben. Mit der x86-Architektur begann Intel, den PC-Prozessormarkt über Jahre zu beherrschen: Die 8086-Nachfolger hießen 80186, 80286, 80386, 80486, danach Pentium in verschiedensten Ausführungen, mittlerweile sind Multicore- und Mobile-CPUs auf dem Markt. Die Chipfamilie hat vom Desktop-PC über den Server bis hin zu mobilen Computern und Supercomputern alle Rechner erobert. Seit einigen Jahren setzt sogar Apple die x86-Architektur ein.

Am Anfang stand ein Taschenrechner

Intels erster Prozessor war mit 4 Bit ausgestattet. Der 4004 wurde 1971 für einen Taschenrechner hergestellt. Zwei Jahre zuvor hatte das japanische Unternehmen Busicom Intel den Auftrag erteilt, Chips für eine programmierbare Rechenmaschine zu entwickeln. Nach den Plänen der Japaner war hierfür ein Design aus zwölf Halbleiterbausteinen erforderlich. Der zuständige Intel-Ingenieur Ted Hoff war dagegen davon überzeugt, dass vier um einen Allround-Logik-Baustein zentrierte Chips ausreichen würden. Außerdem glaubte Hoff, dass sein Chipset weitaus mehr Anwendungen zulassen würde als die Programmierung einer einzigen Rechenmaschine. Hoff entwickelte das Design im Sommer 1969, musste sich dann aber anderen Projekten zuwenden. Mehr als ein Jahr später setzte ein Entwicklungsteam unter Leitung des Intel-Ingenieurs Federico Faggin die Arbeit fort. Nach neun Monaten, im Herbst 1971, präsentierte er das Resultat: Der Mikroprozessor Intel 4004 mit einem 4 Bit breiten Datenbus war serienreif. Dieser erste "Computer auf einem einzigen Chip" bestand aus 2300 MOS-Transistoren. MOS (Metal Oxide Semiconductor) beschreibt die drei grundlegenden Schichten im Aufbau eines Transistors: Metall als elektrisch leitendes Material, Siliziumoxid als elektrisch nicht leitendes Material für die Isolierschicht und Silizium als Halbleiter.

Der Intel 4004 konnte weitaus mehr als nur Rechenaufgaben lösen. Deshalb entschloss sich das Intel-Management im November 1971, die Rechte am Design des ersten Mikroprozessors der Welt, der im Auftrag des japanischen Rechenmaschinen-Herstellers Busicom entwickelt worden war, für 60.000 US-Dollar zurückzukaufen. Dies erwies sich in der Rückschau als wichtiger strategischer Schachzug für die Erfolgsgeschichte des Unternehmens.

Im Jahr 1974 bekam Intels erster Mikroprozessor einen weiterentwickelten Nachfolger, den Intel 8080. Dieser 8-Bit-Prozessor wurde im ersten PC eingesetzt, dem Altair 8800, sowie in Steuergeräten oder Verkehrsampeln. Der 8080 war für seine Zeit sehr fortschrittlich, da er über sieben 8-Bit-Register verfügte, von denen sechs zu drei 16-Bit-Registern kombiniert werden konnten. Mit diesen Registern ließen sich 16-Bit-Werte addieren und subtrahieren. Das großzügige Design mit 40 Pins ermöglichte einen Adressbus mit 16 Bit, so dass der 8080 bereits 64 KB Speicher ansprechen konnte.

Die Fachzeitschrift "Popular Electronics" brachte den ersten Heim-PC Altair 8800 im Jahr 1975 als Bausatz auf den Markt und damit Microsoft ins Geschäft.

Der Altair-8800-Rechner kam 1975 als 400-Dollar-Bausatz durch die Fachzeitschrift "Popular Electronics" auf den Markt. Bill Gates und Paul Allen erkannten die Zeichen der Zeit und gründeten Microsoft, um ihren Altair-Interpreter für die Programmiersprache Basic vermarkten zu können. Schon 1972 hatten die beiden versucht, eine Programmiersprache für den 8008 zu entwickeln, waren aber noch gescheitert. Seither besteht zwischen den Unternehmen eine Partnerschaft, die die IT-Branche bis heute bestimmt.

IBM verhilft Intel zum Durchbruch

1978 feierte der 16-Bit-Prozessor 8086 sein Debüt. Aber erst die kurze Zeit später wegen des nur mäßigen Verkaufserfolgs fertig gestellte Variante 8088 verhalf Intel zum Durchbruch: IBM entschied sich, diese CPU (Central Processing Unit) in seinen Heimcomputern der frühen 80er Jahre einzusetzen und damit indirekt die x86-Architektur zum Industriestandard zu machen. Interessant war, dass der 8088 extern nur mit einem 8-Bit-Datenbus und einer von 6 auf 4 Byte verkleinerten Befehlswarteschlange (Prefetch-Queue) arbeitete. Daher war er kaum schneller als andere 8-Bit-Prozessoren.

Im Liefervertrag garantierte IBM die Abnahme von 10.000 Prozessoren pro Jahr. Intel wurde über Nacht zum Prozessor-Hauslieferanten für nahezu alle Hersteller IBM-kompatibler PCs. Aus den ersten 10.000 Mikroprozessoren sollten später Hunderte von Millionen jährlich werden. Mit dem IBM PC unter der Zusatzbezeichnung AT (Advanced Technology) kam wenig später auch der Intel 8086 als reiner 16-Bit-Mikroprozessor in hoher Stückzahl zum Einsatz.

Im März 1982 ging der 80286 an den Start. Dieser 16-Bit-Prozessor war auf Hochleistung getrimmt und übertraf das Leistungsvermögen aller bis dahin verfügbaren 16-Bit-Prozessoren um etwa das Dreifache. Die neue Hochleistungs-CPU integrierte auf einem Chip auch das Speicher-Management und erlaubte erstmals, gleichzeitig unterschiedliche Aufgaben zu erledigen. So wurde der Intel 286 zum Favorit aller PC-Anwender, die von ihrem Arbeitsplatzcomputer bestmögliche Leistung erwarteten. Performance war nicht zuletzt deshalb gefragt, weil die PC-Programme und deren Applikationen immer anspruchsvoller wurden. Im Einklang damit stand die magnetische Festplatte, ein Datenträger, der nur mit einem leistungsstarken Prozessor voll zur Wirkung kommt.

Der 286-Prozessor war zudem der erste Intel-Prozessor, der die Software abspielen konnte, die für seinen Vorgänger geschrieben wurde. Binnen sechs Jahren nach seinem Marktstart wurden rund 15 Millionen PCs verkauft, die auf dem 286-Prozessor von Intel basierten.

Mit 32 Bit in ein neues IT-Zeitalter

Mit dem 386-Prozessor vollzog Intel 1985 den Wechsel zur 32-Bit-Architektur (IA-32, oft auch i386 genannt), deren Funktionen auch in allen Nachfolgemodellen bis zum Intel-Core-2-Duo-Prozessor immer noch vorhanden sind. Die Register dieser Prozessorfamilie sowie der Adressraum der Architektur sind 32 Bit breit. Obwohl der Sprung von den 16 Bit in den 32 Bit breiten Datenpfad gewaltig war, blieb auch dieser Prozessor binärkompatibel zu seinen Vorläufern. Der Intel-386-Chip kam auf 275.000 Transistoren und erreichte - bei einer maximalen Taktrate von 33 Megahertz - eine Spitzenleistung von zwölf MIPS (Millionen Instruktionen pro Sekunde). Damit erschloss er eine neue Dimension des Personal Computing, indem er die Client-Server-Architektur und damit den Aufbau von PC-Netzwerken ermöglichte.

Chipdesigner Patrick Gelsinger, Executive Vice President bei Intel, stellt die Markteinführung des 32-Bit-Chips 80386 so denn auch als Wendepunkt für die gesamte PC-Industrie dar. Es sei seinerzeit nicht klar gewesen, warum das Unternehmen auf 32 Bit setzte. "Die Leute verstanden unser Vorgehen nicht und verspotteten uns als verschwenderisch. Sie meinten, dass eine 32-Bit-Architektur nur etwas für Minicomputer und Mainframes sei", blickt Gelsinger zurück.

IBMs Betriebssystem OS/2 kann rückblickend als Reinfall betrachtet werden.

Zu dieser Zeit kündigte Compaq einen PC mit Intels 386er-Chipsatz an, der IBMs Vorherrschaft auf dem Markt ein wenig abschwächte - der Compaq-Rechner war schließlich mehr als dreimal so schnell wie das 80286er-Modell von Big Blue. IBM seinerseits verschmähte eine höhere Taktfrequenz mit der Begründung, dass es noch keine 32-Bit-Software gebe, die die neue Geschwindigkeit ausreizen könne. Darüber hinaus arbeitete der blaue Riese selbst am 16-Bit-Betriebssystem OS/2.

"Bis dahin gehörte IBM alles: die Architektur, die Applikationen, die Betriebssysteme und das Hardwaredesign. Kam eine neue Generation Technik auf den Markt, war IBM das einzige Unternehmen, das sie in vollem Umfang anbieten konnte - eine Garantie, dass neue Komponenten auch zusammen mit alten funktionierten, gab es dementsprechend nicht", sagt Gelsinger. Mit dem 386-Prozessor, den der Intel-Vize mitentwickelte, löste sich das Monopol auf. Der Markt öffnete sich.

1989 kam der 486 zur Welt. Dieser Prozessor verfügte über 1,2 Millionen Transistoren, viermal mehr als der Vorgänger Intel 386. Anfangs war der neue Prozessor mit 25 Megahertz getaktet und leistete damit 20 MIPS. In der höchsten Ausbaustufe, die 1992 auf den Markt kam, erreichte der Intel 486 eine Taktrate von 66 Megahertz und schaffte damit als Intel 486 DX2 eine Spitzenleistung von 54 MIPS. Intel integrierte beim 486-Prozessor erstmals den mathematischen Co-Prozessor auf der CPU, der vor allem Fließkomma-Rechenoperationen auf Touren brachte. Auch ein Cache-Speicher mit einer Kapazität von 8 Kilobyte sowie ein Cache-Controller wurden erstmals auf einem Intel 486 integriert. Dadurch konnte der Prozessor auf die Befehle und Daten der Applikation schneller zugreifen, da sie nicht mehr aus dem Hauptspeicher geladen werden mussten.

"Riscante" Konkurrenz

Ende der Achtziger Jahre drohte Gefahr: Das "Reduced Instruction Set Computing" (Risc) kam auf, und Risc-Technologien wie der Sun Sparc, die Power-Architektur von IBM, Apple und Motorola sowie die Mips-Prozessoren der gleichnamigen Firma sollten Intel Konkurrenz machen. Ein vereinfachtes Chipdesign mit simplen Rechenoperationen sollte die Geschwindigkeit in die Höhe treiben und Cisc (Complex Instruction Set Computing) -Prozessoren wie die x86-Chips vom Markt verdrängen. "Das war eine schwere Zeit für uns", erinnert sich Gelsinger. Mit dem i860 wagte Intel damals selbst ein Risc-Experiment, auch weil viele unabhängige Experten das Ende der x86-Ära vorhersagten. Trotz allem überlebte die x86-Architektur - ihre Vorherrschaft am Markt war nicht zu stoppen.

Gelsinger erklärt das mit dem unschätzbaren wirtschaftlichen Vorteil, den Intel durch das große Softwareangebot für seine Chips hatte. "Bereits vor dem Release des 486 im April 1989 war Software im Wert von mehreren Milliarden Dollar für den Chip auf dem Markt. Die Risc-Hersteller dagegen brauchten eine gewisse Zeit, Programme zu entwickeln - in der Zwischenzeit haben wir unsere x86-Chips einfach noch schneller gemacht." Weder der i860 noch alle anderen Risc-Prozessoren konnten den Erfolg der x86-Linie jemals gefährden. Den Versuch, den i860 als weitere CPU-Plattform zu etablieren, sieht Intel heute selbst als Fehler an. Trotzdem flossen in die weitere Chipentwicklung immer wieder Ansätze der einstmals hochgelobten Technologie ein.

Der Pentium und die fetten Jahre

1993 erschien der erste Pentium. Intel rückte von seiner bisherigen Namensgebung ab, weil Zahlen nicht markenrechtlich geschützt werden können. Mit 3,1 Millionen Transistoren in Strukturen von anfangs 0,80 Mikrometer (800 Nanometer) übertraf er seinen Vorgänger um mehr als das Doppelte. Der erste Intel-Pentium-Prozessor war mit 60 Megahertz getaktet. Eine signifikante Leistungssteigerung erreichte er durch die Verdoppelung der Instruktions-Pipelines: Die CPU konnte in einem einzigen Taktzyklus zwei Befehle ausführen. Darüber hinaus verfügte der Pentium über zwei Cache-Speicher mit einem Volumen von jeweils 8 KB. Einer dieser beiden temporären Zwischenspeicher speicherte die aktuellen Instruktionen einer aktivierten Applikation, der andere Cache verwaltete die jeweils aktuellsten Daten auf dem Prozessorchip. Das Ergebnis: Der Datenzugriff beschleunigte sich erheblich, da der Prozessor seltener auf den Arbeitsspeicher des Computers zugreifen musste. Zudem war der externe Datenbus zum Hauptspeicher nicht mehr 32 Bit, sondern 64 Bit breit. Damit ließen sich in einem einzigen Buszyklus doppelt so viele Daten übertragen wie beim 486.

Bereits ein Jahr nach der Einführung des Pentium-Prozessors kam im März 1994 ein Modell mit einer Taktrate von 100 Megahertz auf den Markt, 1995 folgten eine Version mit 120 und eine mit 133 Megahertz. Im Januar 1996 schob Intel schließlich noch Varianten mit 150 und 166 Megahertz hinterher. Parallel modernisierte der Konzern den Fertigungsprozess von anfänglich 800 Nanometer auf 350 Nanometer. Folge dieser Miniaturisierung waren höhere Transistorzahlen im Prozessor (bis zu 3,3 Millionen) sowie eine höhere Leistung bei geringerem Energieverbrauch. Letzteres war wichtig, da elektrische Energie in Wärme umgewandelt wird, die einem Halbleiterchip mit hoher Transistorendichte durchaus Schaden zufügen kann. Doch eine aufwändige Prozessorkühlung widerspricht dem Charakter eines Mikroprozessors, der auf kleinstem Raum agieren soll. Intel setzte stattdessen die Prozessorintelligenz ein, um den Verbrauch an elektrischer Leistung zu senken. Wurde dem Prozessor nur eine geringe Arbeitsleistung abverlangt, etwa bei der Textverarbeitung, wechselte er automatisch in einen "Low-Power-Status". Wurde ein Computer zeitweilig nicht benutzt, versetzte sich der Pentium von selbst in einen Schlafmodus, um sich zu schonen und um Strom zu sparen. Damit erschloss sich der Pentium mobile Geräte wie Notebooks.

Das Fließkomma-Fiasko

Im Sommer 1994 entdeckten Intel-Entwickler einen winzigen Fehler in der Berechnung von Fließkomma-Operationen auf dem ersten Pentium-Chip. Intel behob das Problem, das zu selten auftrat und zu unbedeutend erschien, als dass der Rückruf bereits ausgelieferter Chips gerechtfertigt gewesen wäre. Ein großer Fehler: Der Mathematikprofessor Thomas Nicely entdeckte den Fehler einige Monate später und meldete ihn an Intel. Dort aber fühlte sich niemand zuständig. Nicely veröffentlichte den Fehler und seine Erfahrungen mit dem Kundenservice im Internet und sorgte für ein PR-Desaster für Intel. Die öffentliche Entrüstung kostete den Konzern Ansehen, die Pentium-Rückrufaktion 475 Millionen Dollar. "Damals haben wir gelernt, auf unsere Kunden zu hören", schreibt der ehemalige Vorstandschef Albert Yu in seinem Buch "Creating the Digital Future".

Neue Ideen unter Silizium

1995 erschien der Pentium Pro. Mit 5,5 Millionen Transistoren und einer anfänglichen Taktgeschwindigkeit von 150 Megahertz (später 200 Megahertz) konnte er erstmals innovative Techniken realisieren. Beispiele sind drei parallel arbeitende Risc-Pipelines, eine hohe Anzahl von Befehlen pro Taktzyklus, Level-Z-Cache, Speculative Execution und Out-of-Order-Execution. Applikationen wurden damit schneller, die Leerlaufzeiten der CPU verringert.

"Intel setzte mit kleinteiligeren Algorithmen auf die Vorteile der Risc-Technologie, ohne dabei die x86-Architektur umgehen zu müssen", analysiert Computerwissenschaftler Todd Mowry von der Carnegie Mellon University. Der Pentium Pro war nichts anderes als ein Risc-Prozessor innerhalb einer x86-Maschine und schaffte quasi über Nacht einen großen Fortschritt in der Performance. "Intel baute zunächst eine schnelle Maschine und überlegte sich dann, wie sich die x86-Architektur am besten einbinden ließ", verrät Mowry, der auch als Intel-Berater arbeitet. Der Ansatz, neue Ideen in fremden Architekturen zu suchen, war der richtige. Gelsinger blickt zurück: "Dieser Pentium war ein gewaltiger Sprung. Wir haben die besten Ansätze, die in Minicomputern und Mainframes schlummerten, implementiert und mit Silizium überzogen." Im Gegensatz zum Mainframe, dessen Komponenten über eine große Fläche verteilt seien, eröffne die Komprimierung auf kleinen Chips den Entwicklern mehr Möglichkeiten, so der Designer.

Im Mai 1997 stellte Intel den Pentium II Prozessor mit 7,5 Millionen Transistoren vor und ermöglichte dadurch PCs einer neuen Leistungsklasse. Der Chip verband die fortschrittliche Architektur des Pentium Pro mit der eigens entwickelten MMX-Technologie. Sie erweiterte die Mikroprozessor-Architektur mit ihren damals 220 Befehlen um 57 neue Instruktionen, die rechenintensive Routinen speziell für Multimedia- und Kommunikationsanwendungen beschleunigten. Intel bot den Chip mit Taktfrequenzen von 233 bis 450 Megahertz an.

Der Prozessor geht auf Reisen

Nach dem speziell für günstige Heim- und Bürorechner sowie Notebooks konzipierten Billigprozessor "Celeron" im Jahr 1998 veröffentlichte Intel Anfang 1999 den Pentium III. Die erste Chipgeneration mit Taktraten bis zu 600 Megahertz verfügte über 70 neue Befehle, die Internet Streaming SIMD Extensions (ISSE). Sie verbesserten die Leistung bei Multimedia- und Video-Anwendungen, Spracherkennung und Spielen. Die zweite Generation des Pentium III wurde mit Strukturbreiten von nur noch 0,18 Mikrometer (180 Nanometer) gefertigt. Ihn gab es in Taktfrequenzen von 600 bis 1133 Megahertz. Damit war er der erste Intel-Prozessor, der die Gigahertz-Grenze überschritt.

Der Pentium 4 war anfangs mit 1,5 Gigahertz getaktet.

Im November 2000 brachte Intel den Pentium 4 mit einem Datenbus von 400 Megahertz und Taktraten zwischen 1,5 und 2 Gigahertz auf den Markt. Die nächsten Modelle hießen "Xeon", "Itanium" und im Jahr 2002 "Pentium M" und brachten vor allem für mobile Anwendungen einen Geschwindigkeitsschub. Hervorzuheben ist die 2003er-Mobiltechnologie "Centrino", die von Intel selbst als wichtigster Meilenstein seit dem 08386er-Chip im Jahr 1985 bezeichnet wird. Centrino basiert auf einem Pentium-M-Prozessor, der mit fortschrittlichen Stromspartechnologien eine lange Lebensdauer der Akkus ermöglichte.

Im April 2005 läutete Intel mit seinem ersten Dualcore-Prozessor "Pentium Processor Extreme Edition 840" eine neue Ära ein. Dieser bestand aus zwei vollständig unabhängigen Rechenkernen, die sich in einem Prozessor befanden und mit derselben Taktfrequenz arbeiteten. Beide Kerne waren in einem Gehäuse untergebracht und benutzten dieselbe Schnittstelle zum Chipsatz.

Ende des gleichen Jahres stellte das Unternehmen seinen ersten im 65-Nanometer-Prozess gefertigten Prozessor vor: den "Pentium Extreme Edition 955". Die Isolierschicht (Dielektrum) am Gate, das je nach Spannungsstärke den Transistor ein- und ausschaltet, war wie beim 90-Nanometer-Prozess nur mehr 1,2 Nanometer dick - das sind nur fünf Atomlagen. Eine weitere Neuerung war der Einsatz der zweiten Generation des so genannten Strained Silicon. Beim Strained-Silicon-Verfahren wird das Silizium durch eine Veränderung der Atomstruktur um etwa ein Prozent gestreckt, was zur Folge hat, dass die Beweglichkeit der Elektronen erheblich zunimmt und sich dadurch der erreichbare Takt um rund ein Drittel steigern lässt.

Foto: Intel

2006 führte Intel die "Centrino-Duo"-Mobiltechnologie mit dem neuen Zweikernprozessor Core 2 Duo ein. Die Core-Architektur löste die im Jahr 2000 vorgestellte Netburst-Architektur ab. Sie kennzeichnet sich durch ihren niedrigen Energieverbrauch bei gleichzeitiger Verbesserung der Ausführung von Programmen.

Vier Kerne für ein Halleluja

Mit den ersten CPUs, die vier Rechenkerne (Cores) integrierten, leitete Intel im November 2006 die Quadcore-Ära ein. Erste Prozessoren waren die Xeon-5300er-CPUs und der "Core 2 Extreme". Die Xeon-Chips erreichten in einer Reihe wichtiger Standard-Benchmarks im High-Performance-Computing neue Rekordmarken.

2007 kamen die ersten Vierkern-Prozessoren auf den Markt.

Der 45-Nanometer-Fertigungsprozess im Jahr 2007 stellte einen weiteren Höhepunkt dar. Im Vergleich zur aktuellen 65 Nanometer-Technologie brachte Intel damit - ganz im Sinne von Moore's Law - doppelt so viele Transistoren auf der gleichen Fläche unter. Dadurch fanden jetzt 410 Millionen Transistoren auf einem Dualcore- und 820 Millionen Transistoren auf einem Quadcore-Prozessor Platz. Um diese weitere Miniaturisierung zu erreichen, setzte Intel anstelle von Silizium beim Gate des Transistors erstmals neue Materialien ein: Hafnium in der Isolationsschicht (Gate-Dielektrikum) und ein Metall im Gate. Ziel war es, die Ladung des Gates zu halten und damit Leckströme zu vermeiden. Die Aufgabe des Gate-Dielektrikums ist es, das Transistor-Gate vom Rest des Transistors, Source, Channel und Drain, zu trennen und zu verhindern, dass Elektronen vom Gate in den Channel sickern (Leckströme). Die Taktraten der so gefertigten Prozessoren lagen bis Ende 2007 bei bis zu 3,40 Gigahertz.

Was die Zukunft bringt

Die Atom-Prozessoren sind die kleinsten Chips, die Intel bisher gebaut hat. Sie sollen neue Maßstäbe im Highend-Computing setzen.
Foto: Intel

Heute steht die x86-Architektur für immer neue Extreme im Highend-Computing. Anfang April kündigte Intel mit dem Atom-Prozessor die kleinste Recheneinheit an, die das Unternehmen jemals gebaut hat. Seit Ende April arbeitet Intel mit Cray Inc. zusammen, um neue Supercomputer auf Basis von x86-Prozessoren zu entwickeln. Allerdings setzt Cray bereits seit längerem auch die Opteron-Chips von AMD ein.

Es darf also bezweifelt werden, dass x86 so schnell abgelöst wird. "Ich kann mir keinen Grund vorstellen, warum diese 30 Jahre lang erfolgreiche Technologie vom Markt verschwinden sollte. Dafür gibt es zu viel gute Software, die auf den Maschinen läuft", meint Mowry.

Die Konkurrenz schläft nicht

Über die Jahre sah sich Intel trotzdem immer wachsender Konkurrenz ausgesetzt. Die taiwanische Firma VIA Technologies gründete sich 1987 in Silicon Valley, um unter anderen Core-Logic-Chipsets mit x86-Technologie für Motherboards und andere Komponenten zu vertreiben. Heute ist VIA in verschiedenen Bereichen aktiv - mit x86-Chips vornehmlich im mobilen Bereich.

AMD (Advanced Micro Devices) ist seit etwa dem Jahr 2000 mit eigenen Chips am Markt. In den 20 Jahren zuvor hatte das Unternehmen lediglich x86-Chips kopiert. Mit dem x86-64 stellte AMD im Jahr 2000 dann ein eigenes 64-Bit-Superset für die Intel-Architektur vor, mit dem Anwender erstmals 32-Bit-Software auf 64-Bit-Rechnern betreiben konnten. Intels eigene 64-Bit-Architektur Itanium war dagegen nicht mit den 32-Bit-Programmen für die eigene x86-Architektur kompatibel. Erst 2004 konnte Intel diesen Nachteil ausgleichen, als es das 64-Bit-Superset "EM64T" veröffentlichte. AMD ist auch heute noch Intels schärfster Konkurrent, auch wenn sich Intel in den vergangenen Jahren mit neuen Entwicklungen wieder ein wenig nach vorne geschoben hat.

Zeitleiste: Die Geschichte des x86

1947: Forscher in den Bell Laboratories entwickeln den Transistor.

1965: Gordon Moore, zu der Zeit tätig bei Fairchild Semiconductor, veröffentlicht einen Artikel im "Electronics Magazine", in dem er vorhersagt, dass sich die Zahl der möglichen Transistoren auf einem Halbleiter jährlich verdoppeln werde. Die Zahl auf einem Mikroprozessor werde sich alle zwei Jahre verdoppeln - und das mehr als drei Jahrzehnte lang (Mooresches Gesetz / Moore's Law).

1968: Moore, Robert Noyce und Andy Grove gründen "INTegrated ELectronics", kurz Intel.

1969: Intel veröffentlicht die erste Halbleiterspeicher-Technologie (RAM) auf Basis eines Metall-Oxid-Halbleiters (MOS). Das 1101 genannte Produkt läutet das Ende der magnetisch arbeitenden Kernspeicher ein.

1971: Der 4004 erscheint. Es ist der erste Mikroprozessor der Welt, Federico Faggin hat ihn für einen japanischen Taschenrechner entwickelt.

1972: Intel kündigt den 8008-Chip mit 8 Bit an. Die Jugendlichen Bill Gates und Paul Allen versuchen, eine Programmiersprache für den Chip zu entwickeln, scheitern jedoch.

1974: Der Nachfolger heißt 8080, arbeitet mit 4500 Transistoren und ist zehnmal so schnell wie der 8008.

1975: Mit dem Altair 8800 beginnt die PC-Revolution. Gates und Allen schaffen mit ihrem Basic-Interpreter für den im Altair verbauten 8080-Chip im zweiten Anlauf den Durchbruch.

1976: Steve Jobs und Steve Wozniak stellen den Apple II vor, der auf Motorolas 8-Bit-Prozessor 6502 basiert. Auch PC-Hersteller Commodore setzt auf diesen Chip.

1978: Der 16-Bit-Prozessor 8086 erscheint. Er wird zum Industriestandard.

1979: Intel stellt eine preisgünstigere Variante des 8086 vor, den 8088, der mit einem 8-Bit-Bus ausgestattet ist.

1980: Intel veröffentlicht den 8087 Co-Prozessor.

1981: IBM entscheidet sich, seinen PC mit dem 8088-Chip auszustatten.

1982: Mit AMD holt sich IBM einen zweiten Halbleiterproduzenten für 8086er- und 8088er-CPUs an Bord. Intel stellt den 80286er vor, einen 16-Bit-Prozessor mit 134.000 Transistoren.

1984: IBM entwickelt seine zweite Generation von PCs, den PC-AT. Er basiert auf dem 80286-Chip, läuft mit Microsofts Betriebssystem MS-DOS und wird fast zehn Jahre lang zum Standard im PC-Bereich.

1985: Intel verlässt das DRAM-Geschäft, um sich auf Mikroprozessoren zu konzentrieren. Das Unternehmen bringt den 80386er auf den Markt. Der 32-Bit-Chip weist 275.000 Transistoren auf und kann erstmals mehrere Rechenoperationen gleichzeitig ausführen.

1986: Compaq Computer überholt IBM im Markt mit einem 80386er-PC.

1987: VIA Technologies wird gegründet. Das Unternehmen will x86-Chipsets verkaufen.

1989: Der 80486 erscheint. Er arbeitet mit 1,2 Millionen Transistoren und einem eingebauten Co-Prozessor. Intel kündigt die Entwicklung von Multikern-Prozessoren für die Zeit nach dem Jahr 2000 an.

Späte 1980er: Die komplexe Cisc-Architektur der x86-Reihe gerät unter den Druck der simpleren Risc-Technologie, die im Sun Sparc, dem Power PC von IBM, Apple und Motorola sowie den Mips-Prozessoren zum Einsatz kommt. Intel kontert mit einem eigenen Risc-Chip, dem i860. Risc kann sich nicht durchsetzen und verschwindet als eigene Technik wieder vom Markt.

1990: Compaq bringt die ersten PC-Server für Unternehmenskunden auf Basis des 80486 auf den Markt.

1993: Der erste Pentium-Prozessor erscheint. 3,1 Millionen Transistoren machen ihn 66 Megahertz schnell.

1994: AMD und Compaq schließen sich zusammen, um Compaq-Rechner mit Am486-Prozessoren auszustatten.

1995: Im Pentium Pro verbaut Intel Risc-Technologie innerhalb der x86-Architektur. Der Performance-Gewinn ist enorm.

1997: Die Epic-Prozessor-Technology mit 64 Bit wird vorgestellt. Auch der MMX Pentium zur Unterstützung von Multimedia-Anwendungen erscheint.

1998: Der im unteren Preissegment angesiedelte Celeron-Prozessor kommt auf den Markt.

1999: VIA übernimmt Cyrix und Centaur Technology. Beide Unternehmen hatten bis dato x86-Chips und x87-Co-Prozessoren hergestellt.

2000: Intels Pentium 4 mit 42 Millionen Transistoren erscheint.

2003: AMD stellt den x86-64, ein 64-Bit-Superset der x86-Architektur, vor.

2004: AMD zeigt einen x86-Dual-Core-Prozessor.

2005: Intel verkauft die erste Dual-Core-CPU. Apple kündigt an, seine Macintoshs künftig mit Intels x86-Chips auszustatten. Bisher kamen Power-PC-Prozessoren von IBM und Freescale (ehemals Motorola) zum Einsatz. AMD verklagt Intel, da es seine Marktmacht ausnutzen und den Wettbewerb einschränken würde. Das Verfahren läuft noch.

2006: Dell kündigt an, dass seine Systeme künftig AMD-Prozessoren unterstützen.