Die schlechtesten GPUs aller Zeiten: laut, enttäuschend, uninspiriert
Wenn man sich einige der besten Grafikkarten von heute ansieht, vergisst man leicht, dass Nvidia und AMD (und neuerdings auch Intel) nicht immer die einzigen Akteure im GPU-Spiel waren. Obwohl sowohl AMD als auch Nvidia eine Menge GPU-Fehler begangen haben, sind sie nicht die einzigen beiden Marken, die hinter einigen der schlechtesten GPUs aller Zeiten stehen.
Werfen wir einen Blick auf einige der Grafikkarten, mit denen Sie die aktuelle GPU-Landschaft zu schätzen wissen, und ja, sogar mit Karten, bei denen es sich um grenzwertige Fehler handelt. (Hallo, RTX 4060 Ti .) Hier sind die GPUs, die es furchtbar, furchtbar falsch gemacht haben, obwohl jede etwas Interessantes oder Innovatives mitzubringen hatte.
Wir konzentrieren uns hier auf die Vergangenheit, hauptsächlich auf Marken, die aus dem Rampenlicht verschwunden sind. Schauen Sie sich unbedingt unsere anderen Zusammenfassungen an, um modernere Beispiele zu finden:
Intel740
Arc Alchemist war nicht Intels erster Versuch, diskrete GPUs zu entwickeln, und der DG1 war es auch nicht. Lange vor einem dieser Projekte kam der Intel i740 auf den Markt, und es ist eine GPU, die alle anderen Versuche von Intel noch viel besser aussehen lässt.
Mitte bis Ende der 1990er Jahre sprang Intel auf den Zug der 3D-Grafikbeschleunigung auf. Der aufstrebende PC-Gaming-Markt mit Titeln wie Doom, Quake und Tomb Raider begann wirklich in den Fokus zu rücken, wie wichtig 3D-Grafiken in Zukunft sein würden. Vielleicht war das der Grund, warum Intel dazu verleitet wurde, sich von seinem Hauptgeschäftsfeld zu lösen – das schon damals in der Herstellung einiger der besten Prozessoren bestand – und zu versuchen, diskrete GPUs herzustellen.
Der Intel740, auch bekannt als i740, wurde Anfang 1998 veröffentlicht. Es handelte sich um eine 350-nm-GPU, die auf der inzwischen längst vergessenen AGP-Schnittstelle basierte, die damals im Vergleich zu PCI (beachten Sie den Unterschied – nicht PCIe) vielversprechend aussah. Tatsächlich war es eine der ersten GPUs, die AGP nutzte, was später zu ihrem Untergang beitrug.
Es taktete mit bescheidenen 66 MHz und verfügte über 2–8 MB VRAM über einen 64-Bit-Bus. Diese Spezifikationen klingen nach heutigen Maßstäben lächerlich, und selbst damals lagen sie etwas daneben. Die Menge an VRAM war geringer als bei manchen Intel-Konkurrenten, aber die AGP-Schnittstelle sollte Abhilfe schaffen; Leider verringerte es nur die CPU-Leistung, indem es den Hauptspeicher mit Texturen füllte und die Kapazität des Prozessors beanspruchte. Auch die GPU war von diesem komplizierten Prozess betroffen.
Trotz viel Hype scheiterte der Intel740. Obwohl es möglicherweise als Lösung für die Darstellung von 3D-Grafiken gedacht war, konnte es manchmal nicht gut damit umgehen und lieferte stattdessen Artefakte und eine geringe visuelle Klarheit. Gerüchte über die schlechte Leistung verbreiteten sich schnell. Obwohl sich Intel mit dieser GPU vor allem an Hersteller vorgefertigter PCs (OEMs) richtete, geriet sie schon nach kurzer Zeit in Vergessenheit, da Gaming-Enthusiasten wussten, dass sie sich vom i740 fernhalten sollten.
Der Grafikmarkt war damals sehr volatil und entwickelte sich schnell, sodass ein solcher Flop ein Rückschlag für Intel gewesen sein muss. Nach einigen weiteren Versuchen, diskrete GPUs herzustellen, wechselte das Unternehmen jedoch zu integrierten Grafiken, wo es in den folgenden Jahren Erfolg hatte.
S3 ViRGE
Bevor wir uns in der aktuellen Landschaft von AMD, Nvidia und Intel niederließen, gab es auf dem GPU-Markt noch ein paar weitere Namen, die um Aufmerksamkeit wetteiferten. Ein solches Unternehmen war S3, das Anfang bis Mitte der 1990er Jahre sehr schnell berühmt wurde. Ähnlich wie Intel nutzte S3 den Boom der 3D-Grafik und entwickelte Grafikchips, die 3D-Beschleunigung boten. Am Ende wurde der S3 ViRGE als „3D-Verzögerer“ bekannt und gilt heute als eine der schlechtesten GPUs aller Zeiten.
Bei der Markteinführung wurde der S3 ViRGE als „weltweit erster integrierter 3D-Grafikbeschleuniger“ vermarktet. Es war tatsächlich einer der ersten Chipsätze dieser Art, die für den Mainstream-Markt entwickelt wurden. Es unterstützte etwa 2 MB bis 4 MB SDRAM über einen 64-Bit-Bus und hatte einen Kerntakt von 55 MHz. Es konnte sowohl 2D- als auch 3D-Grafiken rendern und bot Auflösungen von bis zu 800 x 600 in 3D. Während er in 2D recht gute Arbeit leistete, konnte er in 3D nicht überzeugen – und das war der ganze Zweck und das Marketingschema des Chips.
Beim relativ einfachen 3D-Rendering war der S3 ViRGE tatsächlich etwas schneller als die damals beste CPU-basierte Lösung. Als es jedoch um das immer komplexer werdende Rendering ging, das für 3D-Spiele erforderlich war, einschließlich Aufgaben wie bilinearer Filterung, erwies sich die GPU tatsächlich als langsamer als Software-Rendering (was im Wesentlichen bedeutete, dass die CPU für Grafikzwecke verwendet wurde). Dies brachte ihm den spöttischen Namen „weltweit erster 3D-Verzögerer“ ein, da Benutzer die 3D-Beschleunigung am liebsten ausschalten und stattdessen einfach die CPU nutzen würden.
Die schlechte 3D-Leistung des Chips sprach sich schnell herum, auch der rasante Wechsel von 2D zu 3D im Gaming-Markt half hier nicht weiter. S3 versuchte zu beheben, was bei zukünftigen GPUs wie ViRGE/DX und ViRGE/GX schief lief, hatte aber mit Nvidia, ATI (später AMD) und 3dfx ziemlich starke Konkurrenten. Letztlich konnte S3 auf dem wachsenden 3D-Markt nicht mithalten, obwohl das Unternehmen weiterhin Chips für das Mittelklasse-Segment herstellte.
Nvidia GeForceFX 5800
Lernen Sie die GeForce FX 5800 Ultra kennen – die erste (und einzige?) GPU, über die Nvidia ein gefälschtes Video erstellt hat. Ja, Nvidia selbst hat ein zweiminütiges Video gedreht, in dem sie sich über diese GPU lustig gemacht hat, aber das geschah erst, nachdem sie auf den Markt kam und als „Dustbuster“ unter den Grafikkarten bekannt wurde.
Nvidia hatte große Pläne für die FX-Serie. Es sollte dieser große Sprung in die DirectX 9-Ära sein, die einen bedeutenden Übergang für PC-Spiele bedeutete. Diese GPU kam zu einer Zeit, als Nvidia bereits Marktführer war, obwohl ATI Technologies mit der Radeon-Grafikkartenreihe knapp dahinter lag. Das Stolpern von Nvidia bei der FX-Serie war ein unerwarteter Rückschlag, aber wie wir jetzt wissen, hielt die Dominanz von ATI/AMD nicht lange an und Nvidia kontrolliert mittlerweile den Großteil des Marktes, vielleicht zum Nachteil der PC-Spieler .
Der FX 5800 Ultra wurde in einem 130-nm-Prozess hergestellt und mit 500 MHz getaktet (Takt und Speicher, also effektiv 1 GHz). Es nutzte 128 MB GDDR2-Speicher über eine 128-Bit-Schnittstelle. Nvidia hat es mit der CineFX-Architektur ausgestattet, um das filmische Rendering zu verbessern, und es mit dem Plan entwickelt, es bei der DirectX 9-Shader-Verarbeitung effizient zu machen.
Auf dem Papier klang es großartig. In Wirklichkeit war dies eindeutig nicht der Fall. In DirectX-8-Spielen schnitt es recht gut ab, hatte aber bei bestimmten DX9-Titeln Probleme, und die Radeon 9700 Pro von ATI war eine verlockende Alternative, die nicht die gleichen Probleme hatte. Das Hauptproblem beim FX 5800 Ultra war jedoch der Lärm.
Nvidia hat in dieser GPU eine innovative Kühllösung namens FX Flow implementiert. Dadurch sollte die normalerweise heiß laufende GPU auch bei intensivem Gaming auf einer angenehmen Temperatur gehalten werden. Allerdings musste der winzige Ventilator, der das Gerät antreibt, mit sehr hoher Geschwindigkeit laufen, um mithalten zu können. Das Ergebnis war eines der lautesten Geräusche, die jemals von einer Consumer-GPU erzeugt wurden.
Nvidia hielt nicht lange an diesem Kühlmodell fest. Die meisten Partner griffen beim FX 5900 XT und 5900 Ultra auf herkömmliche Kühlmethoden zurück, und so etwas haben wir seitdem nicht mehr gesehen.
3dfx Voodoo Rush
3dfx war einst ein gewaltiger Rivale von Nvidia und ATI. Es erlangte in den frühen 1990er-Jahren Berühmtheit, und wie mehrere andere GPU-Hersteller dieser Zeit ritt es auf der Welle der 3D-Grafik, bis es abstürzte und brannte. Nvidia kaufte schließlich im Jahr 2000 die meisten seiner Vermögenswerte. Auch wenn der Niedergang des Unternehmens nicht auf eine einzelne Karte zurückzuführen ist, verfügte es über einige interessante Lösungen, die am Mainstream-Markt scheiterten, und die 3dfx Voodoo Rush-GPU ist vielleicht eine der am meisten betroffenen anerkannte Beispiele.
Der Voodoo Rush-Chipsatz war eine Weiterentwicklung des ersten Produkts des Unternehmens, des Voodoo1. Es integrierte 2D- und 3D-Beschleunigung in einer einzigen Karte und kombinierte die 3D-Fähigkeiten der Voodoo-Grafik mit einem 2D-Kern anderer Hersteller. Das ist richtig, ich spreche hier von einer Dual-Chip-Konfiguration.
Die GPU bot 6 MB EDO-DRAM, eine maximale Kerntaktrate von etwa 50 MHz und Unterstützung für Dinge wie Glide API, Direct3D und OpenGL sowie eine maximale Auflösung von 800 x 600 in 3D-Anwendungen. Auf dem Papier klang es vielversprechend, aber als das eigentliche Produkt auf den Markt kam und die Leute es testen konnten, lugten durch den Hype mehrere Probleme hervor.
Zum einen handelte es sich um eine riesige GPU mit einer Tendenz zur Erwärmung, aber das Hauptproblem lag in der Architektur und wie sich das alles zu einer Leistung zusammenfügte, die in 3D-Spielen oft schlechter war als die des Voodoo 1. Kompatibilitätsprobleme und visuelle Artefakte waren keine Seltenheit, und als diese Probleme ans Licht kamen, kehrten sowohl Rezensenten als auch Benutzer dieser GPU den Rücken.
Der schlechte Empfang des Voodoo Rush war jedoch nicht der Ausschlag für das Schicksal von 3dfx. Es wurden weitere GPUs produziert, darunter die (ebenfalls umstrittene) Voodoo 5 6000, die mit einem eigenen Netzteil geliefert wurde. Hoffen wir, dass Nvidia nicht auf eine ähnliche Idee für eines seiner Flaggschiff-Giganten der nächsten Generation kommt, denn das Endergebnis war ziemlich lustig anzusehen .