Die 6 besten Intel-CPUs aller Zeiten
Von allen Akteuren in der Computerwelt ist Intel sowohl einer der ältesten als auch einer der titanischsten. Es kann schwierig sein, sich für Intel zu begeistern, egal ob das Unternehmen so dominiert wie in den 2010er Jahren oder ins Stocken geriet wie in den 2020er Jahren; Es ist ziemlich schwierig für Menschen, sich in den Status quo zu verlieben oder in ein großes Unternehmen, das gegenüber kleineren verliert. Das Gegenteil gilt für Intels Rivalen AMD , der schon immer der Außenseiter war, und jeder (normalerweise) liebt den Außenseiter.
Aber Intel konnte nicht der monolithische Gigant werden, der es heute ist, ohne einst ein heißer und innovativer Emporkömmling zu sein. Hin und wieder hat Intel es geschafft, die CPU-Szene zum Besseren zu verändern. Hier sind sechs der besten CPUs von Intel aller Zeiten.
Intel 8086
Intel wird zum Marktführer
Der Intel 8086 erfüllt im Grunde alles, was eine großartige CPU ausmacht: Er war ein massiver kommerzieller Erfolg, er stellte einen bedeutenden technologischen Fortschritt dar, und sein Vermächtnis hat so lange Bestand, dass er der Vorläufer aller x86-Prozessoren ist. Die x86-Architektur ist tatsächlich nach genau diesem Chip benannt.
Obwohl Intel behauptet, dass der 8086 der erste 16-Bit-Prozessor war, der jemals auf den Markt gebracht wurde, trifft dies nur mit sehr spezifischen Vorbehalten zu. Der 16-Bit-Computing-Trend entstand in den 1960er Jahren durch die Verwendung mehrerer Chips, um einen vollständigen Prozessor zu bilden, der für den 16-Bit-Betrieb geeignet ist. Der 8086 war nicht einmal der erste Single-Chip-Prozessor mit 16-Bit-Fähigkeit wie andere CPUs, nachdem er vom General Instrument CP1600 und dem Texas Instruments TMS9900 überholt worden war. Tatsächlich wurde der 8086 überstürzt herausgebracht, um Intel mit seinen Konkurrenten auf Augenhöhe zu bringen, und kam schließlich 1978 nach einer Entwicklungszeit von nur 18 Monaten heraus.
Anfangs waren die Verkäufe für den 8086 aufgrund des Drucks von konkurrierenden 16-Bit-Prozessoren schlecht, und um dem entgegenzuwirken, beschloss Intel, ein Risiko einzugehen und eine massive Werbekampagne für seine CPU zu starten. Unter dem Codenamen Operation Crush hat Intel 2 Millionen US-Dollar allein für die Werbung durch Seminare, Artikel und Verkaufsprogramme bereitgestellt. Die Kampagne war ein großer Erfolg, und der 8086 wurde in etwa 2.500 Designs verwendet, von denen das wichtigste wohl der Personal Computer von IBM war.
Ausgestattet mit dem Intel 8088, einer günstigeren Variante des 8086, kam 1981 der IBM Personal Computer (der Ur-PC) auf den Markt und eroberte schnell den gesamten Heimcomputermarkt. Bis 1984 war der Umsatz von IBM mit seinem PC doppelt so hoch wie der von Apple, und der Marktanteil des Geräts lag zwischen 50 % und über 60 %. Als die IBM PS/2 herauskam, wurde schließlich die 8086 selbst zusammen mit anderen Intel-CPUs verwendet.
Der massive Erfolg des IBM-PCs und damit der 8086-Familie von Intel-CPUs war für den Verlauf der Computergeschichte äußerst folgenreich. Da der 8086 in einem so beliebten Gerät enthalten war, wollte Intel natürlich seine Architektur iterieren, anstatt eine neue zu entwickeln, und obwohl Intel seitdem viele verschiedene Mikroarchitekturen entwickelt hat, ist die übergreifende x86 -Befehlssatzarchitektur (oder ISA) geblieben seitdem herum.
Die andere Folge war ein Unfall. IBM forderte Intel auf, einen Partner zu finden, der zusätzliche x86-Prozessoren herstellen konnte, nur für den Fall, dass Intel nicht genug produzieren konnte. Das Unternehmen, mit dem sich Intel zusammengetan hat, war kein anderer als AMD, das damals nur ein kleiner Chiphersteller war. Obwohl Intel und AMD als Partner begannen, brachten AMDs Bestrebungen und Intels Zurückhaltung, Boden aufzugeben, die beiden Unternehmen auf einen Kollisionskurs, auf dem sie bis heute geblieben sind.
Celeron 300A
Die beste Budget-CPU der Stadt
In den zwei Jahrzehnten nach dem 8086 begann sich das moderne PC-Ökosystem zu entwickeln, in dem Enthusiasten ihre eigenen Maschinen mit handelsüblichen Teilen bauten, genau wie wir es heute tun. In den späten 90er Jahren wurde ziemlich klar, dass man, wenn man einen PC bauen wollte, Windows wollte, das nur auf x86-Hardware lief. Natürlich wurde Intel zu einer extrem dominierenden Figur bei PCs, da es nur zwei andere Unternehmen mit einer x86-Lizenz gab (AMD und VIA).
1993 brachte Intel die allererste Pentium-CPU auf den Markt und würde in den kommenden Jahren CPUs unter dieser Marke auf den Markt bringen. Jeder neue Pentium war schneller als der letzte, aber keine dieser CPUs war besonders bemerkenswert und definitiv nicht so wirkungsvoll wie der 8086. Das soll nicht heißen, dass diese frühen Pentiums schlecht waren, sie erfüllten nur die Standarderwartungen. Das war alles in Ordnung, bis AMD seine K6-CPU auf den Markt brachte, die ähnliche Leistungsniveaus wie Pentium-CPUs zu niedrigeren Preisen bot. Intel musste auf AMD reagieren und tat dies mit einer brandneuen CPU-Reihe: Celeron.
Auf den ersten Blick scheinen Celeron-CPUs nichts anderes zu sein als abgespeckte Pentiums mit einem niedrigeren Preisschild. Aber das Übertakten dieser Chips verwandelte sie in vollwertige Pentiums. CPUs, die auf dem Mendocino-Design basierten (nicht zu verwechseln mit den Mendocino-basierten APUs von AMD ), waren besonders beliebt, da sie genau wie High-End-Pentium-CPUs über L2-Cache verfügten, wenn auch nicht annähernd so viel.
Von den Mendocino-Chips war der 300A der langsamste, konnte aber extrem übertaktet werden. In seinem Test konnte Anandtech es auf 450 MHz bringen , was einer Übertaktung von 50 % entspricht. Intels 450-MHz-Pentium II wurde für etwa 700 US-Dollar verkauft, während der Celeron 300A für 180 US-Dollar verkauft wurde, was den Celeron äußerst attraktiv für diejenigen machte, die mit der etwas geringeren Leistung umgehen konnten, die aus weniger L2-Cache resultierte. Anandtech kam zu dem Schluss, dass zwischen AMDs K6 und Intels Celeron letzteres die CPU sei, die man kaufen sollte.
Tatsächlich war der 300A für Anandtech so überzeugend, dass es eine Zeit lang nur empfahl, einen 300A anstelle von etwas schnelleren Celerons zu kaufen. Und als der 300A zu alt wurde, begann die Veröffentlichung, neuere Low-End-Celerons an seiner Stelle zu empfehlen. Unter den CPU-Rezensionen von Anandtech aus den späten 90er und frühen 2000er Jahren waren diese Low-End-Celerons die einzigen Intel-CPUs, die durchgehend einen Daumen nach oben bekamen; selbst AMDs eigene Low-End-CPUs wurden nicht so gut aufgenommen, bis das Unternehmen seine Duron-Serie auf den Markt brachte.
Core 2 Duo E6300
Das Imperium schlägt zurück
Obwohl Intel Ende der 90er Jahre ein extrem starkes Imperium hatte, traten ab dem Jahr 2000 erste Risse auf. Dies war das Jahr, in dem Intel den Pentium 4 auf den Markt brachte, der auf der berüchtigten NetBurst-Architektur basierte. Bei NetBurst hatte Intel entschieden, dass eine schnell steigende Taktrate der richtige Weg sei; Intel hatte sogar Pläne, bis 2005 10 GHz zu erreichen . Was das Servergeschäft des Unternehmens betrifft, brachte Intel Itanium auf den Markt, die weltweit erste 64-Bit-Implementierung der x86-Architektur und hoffentlich (für Intel) die Server-CPU, die jeder verwenden würde.
Unglücklicherweise für Intel scheiterte diese Strategie schnell, als sich herausstellte, dass NetBurst nicht in der Lage war, die von Intel angenommenen Taktraten zu erreichen. Itanium lief auch nicht gut und wurde nur langsam angenommen, selbst als es die einzige 64-Bit-CPU in der Stadt war. AMD nutzte die Gelegenheit, um sich seinen eigenen Platz an der Sonne zu erarbeiten, und Intel begann, Marktanteile sowohl bei Desktops als auch bei Servern schnell zu verlieren. Ein Teil der Reaktion von Intel bestand darin, OEMs einfach zu bestechen, keine Systeme mit AMD zu verkaufen , aber Intel wusste auch, dass es eine wettbewerbsfähige CPU brauchte, da das Unternehmen Dell, HP und anderen nicht ewig Milliarden von Dollar zahlen konnte.
Intel brachte schließlich 2006 seine Core 2-CPU-Serie auf den Markt und ersetzte damit alle auf NetBurst basierenden Desktop- und Mobil-CPUs sowie die ursprünglichen Core-CPUs, die Anfang des Jahres ausschließlich für Laptops auf den Markt kamen. Diese neuen CPUs brachten nicht nur eine vollständig überarbeitete Architektur (die Core-Architektur hatte fast keine Ähnlichkeit mit NetBurst), sondern auch die ersten Quad-Core-x86-CPUs. Core 2 hat Intel nicht nur auf eine Stufe mit AMD gestellt, sondern Intel direkt wieder an die Spitze gebracht.
Obwohl High-End-Core-2-CPUs wie der Core 2 Extreme X6800 und der Core 2 Quad Q6600 die Leute mit hoher Leistung überraschten ( der X6800 verlor keinen einzigen Benchmark in Anandtechs Test ), gab es eine CPU, die alle wirklich beeindruckte: der Core 2 Duo E6300. Der E6300 war ein Dual-Core mit anständiger Gesamtleistung, aber genau wie der 300A war er ein großartiger Übertakter. Anandtech war in der Lage, seinen E6300 auf 2,59 GHz (von 1,86 GHz auf Lager) zu übertakten , was es ihm ermöglichte, AMDs Top-End Athlon FX-62 (ein weiterer Dual-Core) in fast jedem einzelnen Benchmark, den die Veröffentlichung durchführte, zu schlagen.
Die Core 2-Serie und die Core-Architektur belebten Intels Technologieführerschaft, die es seit den 90er Jahren nicht mehr gegeben hatte. AMD hatte es inzwischen sehr schwer, aufzuholen, geschweige denn wettbewerbsfähig zu bleiben; Bis 2007 brachte es nicht einmal eine eigene Quad-Core-CPU auf den Markt. Core 2 war jedoch nur der Anfang, und Intel hatte keine Lust, langsamer zu werden. Zumindest jetzt noch nicht.
Core i5-2500K
AMD im Staub lassen
Im Gegensatz zu NetBurst war Core keine Sackgasse, was es Intel ermöglichte, die Architektur mit jeder Generation zu wiederholen und zu verbessern. Gleichzeitig schuf das Unternehmen in stetigem Tempo neue Fertigungsprozesse oder Knotenpunkte. Daraus entstand das „Tick-Tock“-Modell, wobei das „Tick“ für eine Prozessverbesserung und das „Tock“ für eine architektonische Verbesserung steht. Die ersten Core 2-CPUs waren ein Tock (da sie denselben 65-nm-Prozess wie NetBurst verwendeten) und spätere Core 2-CPUs waren ein Tick, da sie im 45-nm-Prozess hergestellt wurden.
Bis 2011 hatte Intel bereits zwei volle Zyklen von Tick-Tack durchlaufen und lieferte immer bessere CPUs wie ein Uhrwerk. Unterdessen tat sich AMD extrem schwer, aufzuholen. Seine neuen Phenom-Chips brachten endlich Quad-Cores (und später Hexa-Cores) in AMDs Lineup, aber diese CPUs waren selten (wenn überhaupt) Leistungsführer, und AMD kehrte zu seiner alten wertorientierten Strategie zurück. Der Druck auf AMD war groß, als Intel 2011 seine CPUs der 2. Generation auf den Markt brachte.
Die Core-CPUs der 2. Generation mit dem Codenamen Sandy Bridge waren ein Tock und deutlich verbesserte Anweisungen pro Takt (oder IPC), zusätzlich zur Erhöhung der Frequenz selbst. Das Endergebnis war eine Leistungssteigerung von 10-50 % gegenüber CPUs der 1. Generation. Sandy Bridge hatte auch eine ziemlich anständige integrierte Grafik und war die erste CPU, die Quick Sync, einen Videokodierungsbeschleuniger, einführte.
In seinem Core i7-2600K und Core i5-2500K empfahl Anandtech den 2500K gegenüber dem 2600K . Der 2500K kostete nur 216 US-Dollar, hatte die meiste Leistung des 2600K (der 100 US-Dollar mehr kostete) und schlug so ziemlich jeden einzelnen Chip der letzten Generation mit Ausnahme des Core i7-980X der Workstation-Klasse. Bis heute ist der 2500K als Mittelklasse-CPU mit viel Leistung zu einem guten Preis in guter Erinnerung.
In der Zwischenzeit wurde AMD einfach im Staub gelassen; Anandtech erwähnte Phenom-CPUs nicht einmal als praktikable Alternative zur 2. Generation. AMD musste eine CPU auf den Markt bringen, die mit Sandy Bridge konkurrieren konnte, wenn sie mehr als nur die preisgünstige Alternative sein wollte. Später im Jahr 2011 brachte AMD schließlich seine neue FX-Serie auf Basis der Bulldozer-Architektur auf den Markt.
Es lief schlecht für AMD. Das Flaggschiff FX-8150 konnte manchmal mit dem Core i5-2500K mithalten, war aber insgesamt langsamer, insbesondere in Single-Thread-Benchmarks; manchmal verlor es sogar gegen alte Phenom-CPUs. Insgesamt war Bulldozer sowohl für AMD- als auch für PC-Benutzer eine Katastrophe. Ohne einen konkurrenzfähigen AMD, der seinen Konkurrenten in Schach halten könnte, könnte Intel im Grunde tun, was es wollte, worüber sich Anandtech Sorgen machte :
„Wir alle brauchen AMD, um erfolgreich zu sein“, hieß es damals in seiner Berichterstattung. „Wir haben gesehen, was ohne einen starken AMD als Konkurrenten passiert. Wir erhalten Prozessoren, die künstlich begrenzt sind, und strenge Einschränkungen beim Übertakten, insbesondere am unteren Ende des Segments. Uns wird die Wahl verweigert, einfach weil es keine andere Alternative gibt.“
Leider würde sich diese Vorhersage als allzu genau erweisen.
Core i7-8700K
Intel geht mit der Zeit
Obwohl Sandy Bridge großartig war, läutete es ein dunkles Zeitalter für PC-Benutzer ein, die immer erwartet hatten, dass die nächste Generation schneller und billiger als die vorherige sein würde. Aber da AMD aus dem Bild war, hatte Intel keinen Grund, bessere CPUs für weniger anzubieten. In den nächsten sechs Jahren bot Intel nur Quad-Cores auf seinen Mainstream-Plattformen an, und zwar immer zum gleichen Preis: 200 $ für den i5 und 300 $ für den i7. Darüber hinaus begann Intel, wie von Anandtech vorhergesagt, damit, seine CPUs aggressiver als je zuvor zu sperren. Alle i3-Prozessoren bis 2017 hatten keinerlei Übertaktungsunterstützung, und es dauerte nicht lange, bis die meisten i5s und i7s die gleiche Behandlung erhielten.
Als Intels Kaby Lake der 7. Generation Anfang 2017 herauskam, wurde es sehr frustrierend. Laut dem Tick-Tock-Modell hätte Intel eine 10-nm-CPU mit einer ähnlichen Architektur wie die 14-nm-Skylake-CPUs der 6. Generation von 2015 auf den Markt bringen sollen Die CPUs waren identisch mit den CPUs der 6. Generation: der gleiche alte 14-nm-Prozess, die gleiche alte Skylake-Architektur. Damit kündigte Intel das Ende des Tick-Tock-Modells an und führte das Prozess-Architektur-Optimierungsmodell ein, wobei 7th Gen die Optimierung ist. Die Leute waren verständlicherweise nicht glücklich mit Intel, da sogar Generationenverbesserungen zu Ende gingen.
Es lag letztendlich an AMD, die Situation zu ändern und die Dinge aufzurütteln, und das tat es definitiv, als es Ryzen nur ein paar Monate nach dem Erscheinen der CPUs der 7. Generation auf den Markt brachte. Basierend auf der neuen Zen-Architektur haben Ryzen 1000-CPUs AMD dank ausreichend guter Single-Thread-Leistung und extrem hoher Multi-Thread-Leistung endlich wieder ins Spiel gebracht und erstmals acht Hochleistungskerne in den Mainstream gebracht. Intels konkurrierende 7. Generation hatte zwar einen Vorsprung bei Single-Thread-Anwendungen und Spielen, aber nicht genug, um Zen zum neuen Bulldozer zu machen. Zum ersten Mal seit Jahren war Intel gezwungen, etwas wirklich Neues und Wertvolles anzubieten.
Intel nahm Ryzen sehr ernst und schickte so schnell wie möglich eine neue Generation aus der Tür. Die 7. Generation hielt nur 9 Monate, bevor sie durch Coffee Lake der 8. Generation ersetzt wurde, was eine weitere Optimierung von Skylake war, aber mit noch höheren Taktraten und entscheidend mehr Kernen. Core i7-CPUs hatten jetzt 6 Kerne und 12 Threads, Core i5s hatten 6 Kerne und 6 Threads und Core i3s hatten 4 Kerne und 4 Threads (was mit den alten i5s identisch war). Aber eine Sache, die sich nicht änderte, war der Preis, was bedeutete, dass der Wert der 8. Generation viel, viel höher war als der früherer Core-CPUs.
Ausgestattet mit der schnellen Single-Thread-Leistung des 7700K und zwei zusätzlichen Kernen war der Core i7-8700K Intels bestes Flaggschiff seit Jahren. Gegen AMDs Ryzen 7 1800X lag der 8700K in Multi-Thread-Benchmarks nur wenig zurück und in allem anderen deutlich vorne. Techspot kam zu dem Schluss: „Es war fast nicht einmal ein Wettbewerb.“ Mit 360 US-Dollar war es auch 100 US-Dollar billiger als das Flaggschiff von AMD. Der 8700K war eine sehr abgerundete CPU mit einem relativ niedrigen Preis; Wenn der 8700K etwas anderes wäre, wäre er einfach nicht annähernd so gut gewesen.
Die Aussichten für Intel waren jedoch düster. Bereits bei den CPUs der 8. Generation scheiterte das Prozessarchitektur-Optimierungsmodell, da die 8. Generation die zweite Optimierung in Folge war. Als 2018 schließlich die 10-nm-Cannon-Lake-CPUs auf den Markt kamen, wurde klar, dass Intels neuester Prozess extrem kaputt war. Wie viele weitere Optimierungen würde Intel durchlaufen, bevor es endlich etwas Neues macht?
Es stellt sich heraus, ziemlich viele.
Core i9-12900K
Ein dringend benötigtes Comeback
2018 war 10nm nur für kaum funktionierende Handychips geeignet. Die Dinge verbesserten sich 2019, als Intel seine mobilen Ice-Lake-CPUs auf den Markt brachte, aber das waren nur Quad-Cores mit anständiger integrierter Grafik; nicht annähernd Desktop-Klasse. Im Jahr 2020 verbesserten sich die Dinge erneut mit der Einführung von Tiger Lake-Prozessoren der 11. Generation, die eine Optimierung von Ice Lake mit noch besserer Grafik waren, aber immer noch nicht gut genug für den Desktop.
Intel benötigte dringend 10-nm-Desktop-CPUs. Sein 14-nm-Prozess war sehr alt und verhinderte eine Erhöhung der Kernanzahl und der Taktgeschwindigkeit. Im Gegensatz dazu war AMD mit Ryzen 3000 Zen 2-CPUs und dann Ryzen 5000 Zen 3-Prozessoren immer stärker geworden, jeder beeindruckender als der letzte, und stahl jetzt sogar die Gaming-Performance-Krone von Intel. Es brauchte ein großes Comeback.
Schließlich brachte Intel Ende 2021 seine ersten 10-nm-CPUs für den Desktop auf den Markt, Alder Lake der 12. Generation. Diese CPUs unterschieden sich radikal von früheren; Seine Hybridarchitektur kombiniert große und leistungsstarke Leistungskerne (oder P-Kerne) mit kleineren und effizienteren Effizienzkernen (oder E-Kernen), die eine unglaubliche Multi-Thread-Leistung für die Top-Chips und eine stark verbesserte Single-Thread-Leistung für alles andere liefern .
Der Core i9-12900K, Intels neues Flaggschiff, hatte eine Kernkonfiguration von 8 P-Kernen plus 8 E-Kernen, was ihn sowohl für Multi-Threaded-Aufgaben als auch für Single-Threaded-Aufgaben großartig machte. In unserem Test haben wir festgestellt, dass der 12900K Intel nicht nur auf Augenhöhe mit AMD, sondern in jeder einzelnen Metrik wieder an die Spitze gebracht hat. Der Ryzen 9 5950X, der als teures Premium-Flaggschiff auf den Markt kam, sah plötzlich wie eine preisgünstige Alternative aus, aber der 12900K war auch viel billiger. Alder Lake als Comeback zu bezeichnen, ist eine Untertreibung.
Der einzige Nachteil war, dass der 12900K (und Alder Lake im Allgemeinen) ein Jahr zu spät zur Party kam und auch viel Strom verbrauchte, ein Zeichen dafür, dass 10 nm noch nicht ganz bereit für die Hauptsendezeit war. Dennoch wirkte sich die Erneuerung des Wettbewerbs für im Grunde alle sehr positiv aus. Ryzen 5000-CPUs fielen im Preis, um mit Intel mitzuhalten, und AMD brachte schließlich neue Modelle für preisbewusste Käufer auf den Markt, als Reaktion auf Alder-Lake-CPUs der unteren Preisklasse, wie den Core i5-12400, der 100 US-Dollar billiger als der 5600X war und gleichzeitig deutlich schneller war. Alder Lake hat einmal mehr bewiesen, dass wir sowohl Intel als auch AMD brauchen, um zu konkurrieren, sonst bekommen PC-Anwender ein schlechtes Geschäft.
Intels ungewisse Zukunft
Alder Lake ist jetzt etwa ein Jahr alt, und Intel lässt mit Raptor Lake nach: eine Optimierung. Es ist ein bisschen enttäuschend, aber Intel wird nicht zu seinen alten Praktiken zurückkehren, da CPUs der 13. Generation mehr Kerne bieten als die 12. Generation zum gleichen Preis, was ähnlich ist wie bei der 8. Generation. Raptor Lake ist nicht besonders aufregend und Es ist vielleicht nicht schnell genug, um die Führung von AMDs Ryzen 7000-Serie zurückzuerobern , aber alle sind sich einig, dass mehr Kerne zum gleichen Preis ein gutes Geschäft sind.
Aber darüber hinaus ist die Zukunft von Intel ungewiss. Das Unternehmen macht offenbar gute Fortschritte bei seinem 7-nm-Prozess (offiziell Intel 4 genannt), der in Meteor Lake debütieren wird, aber ich habe einige Bedenken hinsichtlich der Strategie von Intel geäußert . Bei einem so komplexen Design, das nicht weniger als vier verschiedene Prozesse umfasst, fühle ich mich sehr unwohl angesichts der vielen Fehlerquellen, die Meteor Lake hat. Hoffentlich führt Intel seine zukünftigen CPUs mit dieser Designphilosophie gut aus, da es sich keine weiteren Verzögerungen leisten kann.
Selbst wenn Meteor Lake ein Erfolg ist, ist es schwer vorstellbar, dass Intel zu dem Maß an Vorherrschaft zurückkehrt, das es historisch genossen hat. Anfang dieses Jahres hat AMD Intel bei der Marktkapitalisierung übertroffen , was bedeutet, dass AMD kein Außenseiter mehr ist, sondern ein vollwertiger Konkurrent. In dieser neuen Ära der Intel-AMD-Rivalität müssen wir sehen, wie die Dinge laufen, wenn beide Unternehmen auf Augenhöhe konkurrieren. Intel schrumpft immer noch und gibt Marktanteile an AMD ab, aber hoffentlich kann es gleich bleiben und nicht weiter zerfallen. Theoretisch könnte ein Machtgleichgewicht das beste Ergebnis für alle sein.