Nvidia GPUs through the ages: The history of Nvidia’s graphics cards

Nvidia GPUs through the ages The history of Nvidias graphics - Nvidia GPUs through the ages: The history of Nvidia's graphics cards

Source: Nvidia GPUs through the ages: The history of Nvidia’s graphics cards

(Pocket-lint) – Nvidia wurde ursprünglich 1993 gegründet, aber erst 1995 veröffentlichte das Unternehmen sein erstes Grafikprodukt – das NV1. Die Dinge haben sich seitdem stark verändert und wir werden jetzt mit Raytracing, DLSS und anderen wunderbaren Technologien verwöhnt, die unsere Spielerlebnisse noch angenehmer machen.

Wir werfen einen Blick zurück auf die Geschichte der Nvidia-Grafikkarten und wie diese Geräte im Laufe der Jahre ausgesehen haben.

NVIDIA NV1

Die Nvidia NV1 kam 1995 auf den Markt und konnte sowohl 2D- als auch 3D-Videos verarbeiten. Es wurde als “Diamond Edge 3D” verkauft und hatte sogar einen Sega Saturn-kompatiblen Joypad-Anschluss.

Mehrere Sega Saturn-Spiele wurden für den PC portiert, darunter Panzer Dragoon und Virtua Fighter Remix. Diese Funktionen allein reichten jedoch nicht aus, um den Markt anzusprechen, da der Saturn Schwierigkeiten hatte, mit der ursprünglichen PlayStation zu konkurrieren.

NV1 hatte einen holprigen Start, der durch die Veröffentlichung von Microsoft DirectX verschlimmert wurde, das mit der GPU nicht kompatibel war und viele Spiele nicht liefen.

NVIDIA RIVA 128

1997 veröffentlichte Nvidia den NV3 alias Riva 128, Riva stand für „Real-time Interactive Video and Animation“. Diese Grafikkarte verwendete sowohl 2D- als auch 3D-Beschleunigung zusammen mit Polygon-Textur-Mapping.

Zu der Zeit dominierte Nvidias Rivale 3dfx den Markt, aber der NV3 hatte einen Kern-/Speichertakt von 100 MHz und verdoppelte im Wesentlichen die Spezifikation von Voodoo 1 von 3dfx.

Es gab zwei Varianten des NV3 in Form des Riva 128 und des Riva 128ZX. Letzteres war mit 8 MB VRAM und einer Taktrate von 250 MHz leistungsstärker.

Der NV3 war viel erfolgreicher als die erste GPU des Unternehmens und verhalf Nvidia zu einer weit verbreiteten Popularität.

NVIDIA NV4

1998 veröffentlichte Nvidia NV4, auch bekannt als Riva TNT. Diese Grafikkarte wurde gegenüber den Vorgängermodellen durch die Unterstützung von 32-Bit True Color verbessert. Der NV4 hatte auch mehr RAM mit 16 MB SDR SDRAM, was bedeutete, dass er auch mehr Leistung bot.

Ungefähr zu dieser Zeit begann Nvidia, Grafiktreiber regelmäßig zu aktualisieren, um eine gute Leistung und Kompatibilität für den Endbenutzer zu gewährleisten, was das Unternehmen bis heute tut.

Riva TNT von Nvidia war zu dieser Zeit günstiger als Vodoo2 von 3dfx, wenn auch etwas langsamer in Bezug auf die Leistung. Die Treiberunterstützung war der Schlüssel zum Erfolg von NV4.

NVIDIA NV5

1999 folgte Nvidia NV4 mit dem RIVA TNT2. NV5, wie es unter dem Codenamen hieß, kaufte eine Reihe von Updates, darunter 32-Bit-Z-Buffer/Stencil-Unterstützung, bis zu 32 MB VRAM und 2048 x 2048 Textur-Unterstützung.

Noch wichtiger ist, dass diese Grafikkarte verbesserte Taktraten (bis zu 150+ MHz) hatte, was ihr eine Leistungssteigerung von bis zu 17 Prozent gegenüber dem Vorgängermodell bescherte.

Diese Karte war ein direkter Konkurrent von 3dfx Voodoo3 und beide waren unglaublich beliebt.

NVIDIA GeForce 256

Ende 1999 veröffentlichte Nvidia in Form der Nvidia GeForce 256 das, was es als „weltweit erste GPU“ bezeichnete.

Dies war ein cleverer Marketing-Schachzug von Nvidia und der Beginn einer jahrelangen Liebesaffäre mit Grafikkarten der Marke GeForce.

Sie verbesserte frühere RIVA-Karten, indem sie die Pixel-Pipelines vergrößerte, bot aber auch einen großen Leistungssprung für PC-Spiele.

Diese Karte unterstützt bis zu 64 MB DDR SDRAM und arbeitet mit bis zu 166 MHz. Als solches war es 50 Prozent schneller als das NV5.

Noch wichtiger ist, dass die GeForce 256 auch Direct3D 7 vollständig unterstützte, was bedeutete, dass sie viele der besten damals verfügbaren PC-Spiele unterstützen konnte.

Kurz nach diesem Start ging 3dfx bankrott und ATI wurde Nvidias Hauptkonkurrent.

Nvidia GeForce2

Nvidia folgte der weltweit ersten GPU mit dem passenden Namen GeForce2.

Diese GPU war in verschiedenen Varianten erhältlich, darunter die Modelle Ti, Pro, GTS und Ultra. Dies waren im Wesentlichen NV11-, 15- und 16-Karten. In den Veröffentlichungen von 2000 und 2001 folgten zunehmende Pipelines und höhere Taktraten.

Was GeForce2 interessant machte, war der Beginn der Unterstützung für Multi-Monitor-Setups.

Ungefähr zu dieser Zeit erwarb Nvidia 3dfx.

Nvidia GeForce3

Kurz nach GeForce2 kam GeForce3. Diese Grafikkartenserie mit dem Codenamen NV20 repräsentierte die ersten DirectX 8-kompatiblen GPUs von Nvidia.

Es gab drei Versionen – GeForce3, GeForce3 Ti 200 und GeForce3 Ti 500. Diese nächste GeForce-GPU fügte programmierbare Pixel- und Vertex-Shader sowie Multisample-Anti-Aliasing hinzu.

Eine als NV2A bezeichnete Version von GeForce3 wurde in der ursprünglichen Xbox-Konsole verwendet.

Nvidia GeForce FX-Serie

Springen Sie ein paar Generationen nach vorne und 2003 haben wir die Veröffentlichung von Nvidias GeForce FX-Serie.

Dies war die fünfte Generation der GeForce-Grafikkarten und unterstützte Direct3D 9 sowie eine Reihe neuer Speichertechnologien. Dazu gehörten DDR2, GDDR2 und GDDR3 sowie Nvidias erster Versuch eines Speicherdatenbusses, der breiter als 128 Bit ist.

Unterdessen sorgte die GeForce FX 5800 dafür, dass sie die erste GPU war, die mit einem großen Kühler ausgestattet war. Einer, der so groß ist, dass er wegen der Menge an Lüftergeräuschen, die er abgibt, oft als “Dustbuster” bezeichnet wird.

Nvidia GeForce 6-Serie

Kurz nach der Veröffentlichung der GeForce FX-Serie kam die 6er-Serie (alias NV40). GeForce 6 war der Beginn von Nvidia, die SLI-Technologie voranzutreiben, die es Menschen ermöglicht, mehr als eine Grafikkarte für mehr Leistung zu kombinieren.

Das Flaggschiff dieser Reihe war die GeForce 6800 Ultra, eine Grafikkarte mit 222 Millionen Transistoren, superskalaren 16-Pixel-Pipelines und sechs Vertex-Shadern. Es hatte Shader Model 3.0-Unterstützung und war sowohl mit Microsoft DirectX 9.0c als auch mit OpenGL 2.0 kompatibel.

Die Serie enthielt auch die Nvidia PureVideo-Technologie und konnte H.264-, VC-1-, WMV- und MPEG-2-Videos mit reduzierter CPU-Auslastung decodieren.

Als Ergebnis all dessen war die GeForce 6-Serie sehr erfolgreich.

Nvidia GeForce7-Serie

Im Jahr 2005 kam die GeForce7-Serie mit dem Highlight-Gedanken 7800 GTX.

Diese Karte allein war für die damalige Zeit ein echtes Kraftpaket, und mit einer cleveren Kühlung konnte Nvidia die Taktrate auf 550 MHz steigern. Gleichzeitig gelang es dem Unternehmen auch, die Latenz zu reduzieren und den Bus auf 512 Bit zu erhöhen.

Interessanterweise wurde eine Version der 7er-Serie als RSX Reality Synthesizer hergestellt, der die proprietäre CPU war, die von Nvidia und Sony gemeinsam für die PlayStation 3 entwickelt wurde.

Nvidia GeForce8-Serie

2006 veröffentlichte Nvidia die GeForce8-Serie und enthüllte seine Tesla-Mikroarchitektur. Dies war das erste einheitliche Shader-Design des Unternehmens und würde auch in zukünftigen Karten eine der am häufigsten verwendeten Architekturen sein.

Die beliebte Nvidia GeForce 8800 GTX war das Flaggschiff der Reihe und war unglaublich beliebt. Es verfügte über 681 Millionen Transistoren, hatte 768 MB GDDR3-Speicher und kam mit 128 Shadern, die mit 575 MHz getaktet waren.

Am wichtigsten war, dass diese Grafikkarte Crysis ausführen konnte, was zu dieser Zeit alles war, was PC-Spieler wollten.

2006 ging es auch heiß her, als AMD ATI für 5,4 Milliarden US-Dollar kaufte und Nvidia für die kommenden Jahre ein Dorn im Auge sein sollte.

Nvidia GeForce9-Serie

Anfang 2008 veröffentlichte Nvidia die GeForce9-Reihe. Diese Karten verwendeten weiterhin die Tesla-Architektur, fügten aber auch PCIe 2.0-Unterstützung, verbesserte Farbe und Z-Komprimierung hinzu.

Zu diesem Zeitpunkt steigerte Nvidia die Leistung um eine Stufe mit Taktraten von bis zu 675 MHz und reduzierte gleichzeitig den Stromverbrauch.

AmazonasNvidia-GPUs im Wandel der Zeit Foto 13

Nvidia GeForce 400-Serie

Das nächste bedeutende Update kam 2010, als Nvidia die GeForce 4000-Serie auf den Markt brachte. Zu diesem Zeitpunkt enthüllte Nvidia die Fermi-Mikroarchitektur, die die nächste große Architektur des Unternehmens war.

Diese Serie sah auch Unterstützung für OpenGL 4.0 und Direct3D 11 und war ein direkter Konkurrent der Radeon HD 5000-Serie.

Die Serie wurde jedoch durch hohe Betriebstemperaturen und einen hohen Stromverbrauch enttäuscht, was bei den Benutzern viel Murren auslöste.

Nvidia GeForce 600-Serie

Die GeForce 600-Serie führte die Kepler-Architektur von Nvidia ein, die entwickelt wurde, um die Leistung pro Watt zu erhöhen und gleichzeitig die Leistung der vorherigen Fermi-Mikroarchitektur zu verbessern.

Mit Kepler gelang es Nvidia, den Speichertakt auf 6 GHz anzuheben. Es fügte auch GPU Boost hinzu, der garantierte, dass die GPU mit einer minimalen Taktrate laufen konnte, aber auch die Leistung bei Bedarf steigerte, bis sie ein vordefiniertes Leistungsziel erreichte.

Diese Reihe unterstützte auch Direct3D 11 und Direct3D 12. IT führte auch eine neue Anti-Aliasing-Methode namens TXAA ein.

Nvidia GeForce 700-Serie

Im Jahr 2013 hat Nvidia mit der 700er-Serie, die mit der wahnsinnigen High-End-Enthusiast-GTX-Titan-Karte gekrönt wurde, die Dinge eine Stufe höher gelegt.

Diese Serie war eine Auffrischung der Kepler-Mikroarchitektur, aber einige spätere Karten enthielten auch Femi- und Maxwell-Architekturen.

Die GTX Titan verfügte über 2688 CUDA-Kerne, 224 TMUs und 6 GB RAM. Zu diesem Zeitpunkt gelang es Nvidia, bis zu sieben Milliarden Transistoren in seine GPUs zu quetschen.

Die GeForce 700-Serie wurde entwickelt, um die Energieeffizienz zu maximieren, enthielt aber auch andere Funktionen wie Hardware-H.264-Codierung, PCI Express 3.0-Schnittstelle, Unterstützung für DisplayPort 1.2 und HDMI 1.4a 4K x 2K-Videoausgabe sowie GPU-Boost 2.0.

Nvidia GeForce 900-Serie

2014 übersprang Nvidia scheinbar eine Generation und stieg direkt in die GeForce 900-Serie ein. Dies war die Einführung in die Maxwell-Mikroarchitektur, die verbesserte Grafikfähigkeiten sowie eine bessere Energieeffizienz bot.

Diese Serie hatte die GeForce GTX 980 als erstes Flaggschiff, später gefolgt von der 980 Ti und der GeForce GTX TITAN X am äußersten Ende.

NVENC wurde für diese Serie ebenfalls verbessert und die Unterstützung für Direct3D 12_1, OpenGL 4.6, OpenCL 3.0 und Vulkan 1.3 erschien.

Nvidia GeForce10-Serie

2014 stellte Nvidia die GeForce10-Serie vor, die auf der Pascal-Mikroarchitektur basiert. Die GTX 1080 Ti ist vielleicht die bekannteste der GPUs aus dieser Serie und hat sich als vielleicht eine der bedeutendsten Karten, die Nvidia herausgebracht hat, in die Geschichte eingeschrieben.

Diese Grafikkarte dominierte den Markt und bot eine so hervorragende Leistung und Energieeffizienz im Verhältnis zu den Kosten, dass sie im Vergleich zu zukünftigen GPUs oft genannt wurde.

Die 10er-Serie enthielt auch neue Funktionen wie GPU Boost 3.0, ein dynamisches Lastausgleichs-Planungssystem, dreifache Pufferung und Unterstützung für DisplayPort 1.4 und HDMI 2.0b.

Nvidia GeForce20-Serie

Die GeForce20-Serie wurde 2018 veröffentlicht und stellte die Turing-Mikroarchitektur der Welt vor.

Bemerkenswerterweise waren diese Grafikkarten die erste Generation von RTX-Karten und sahen, dass Nvidia Raytracing als Hauptverkaufsargument vorantreibt.

Die Verwendung von Tensor Cores und anderen Verbesserungen verhalfen diesen Karten zu einem gewaltigen Sprung in der grafischen Leistungsfähigkeit. Das Ergebnis sind eine realistische Beleuchtung und überzeugende Reflexionseffekte im Spiel.

Verbesserungen waren jedoch mit Kosten verbunden, da der RTX 2080 Ti für atemberaubende 1.199 US-Dollar im Einzelhandel erhältlich war (im Vergleich zu den 699 US-Dollar des 1080 Ti).

Tasche FlusenNvidia-GPUs im Wandel der Zeit Foto 19

Nvidia GeForce30-Serie

Die GeForce30-Serie löste 2020 die 20er-Serie ab und wurde leider am bekanntesten dafür, dass sie aufgrund der Silikonknappheit einfach nicht mehr erhältlich war.

Dennoch sollte die Nvidia RTX 3080 für 699 US-Dollar im Einzelhandel erhältlich sein, was sie viel erschwinglicher macht als das Flaggschiff der vorherigen Generationen, und die Serie hat auch erhebliche Verbesserungen gebracht.

Das im März 2022 angekündigte Flaggschiff GeForce RTX 3090 Ti hatte 10.752 CUDA-Kerne, 78 RT-TFLOPs, 40 Shader-TFLOPs und 320 Tensor-TFLOPs an Leistung. Dieses leistungsstarke Biest wurde auch als stromhungrig bezeichnet und benötigt mindestens 850 Watt Leistung, was bedeutet, dass Sie wahrscheinlich ein 1.000-Watt-Netzteil benötigen würden, um es zu betreiben.

PC Gaming Week (9. – 13. Mai) in Zusammenarbeit mit Nvidia GeForce RTX
Egal, ob Sie ein PC-Gaming-Veteran oder ein absoluter Neuling sind, wir haben alles für Sie!
Besuchen Sie unseren PC-Gaming-Hub, um die neuesten Nachrichten und Rezensionen zu erhalten, einige großartige Funktionen zu sehen und Details zu den besten Produkten zu finden.
Da jeden Tag viele großartige Inhalte fallen, sollten Sie die Seite mit einem Lesezeichen versehen und für Ihre tägliche Lösung zurückkehren.

Schreiben von Adrian Willings. Bearbeitung von Chris Hall.

Via: toplistreviewspro.com



from toplistreviewspro.com https://ift.tt/U2saiKt
via Toplistreviewspro.com

Post a Comment

Previous Post Next Post