- 6800GT
-
GeForce
GeForce est le nom donné par nVidia à ses séries de cartes graphiques depuis 1999. La première GeForce était la GeForce 256. Lancée en automne 1999, elle fut la première carte vidéo grand public à pouvoir prendre en charge l'intégralité des calculs graphiques. De nombreuses séries et évolutions ont été commercialisées, et restent parmi les produits les plus connus en ce domaine.
Sommaire
Les évolutions
- Les GeForce 256, connues sous le nom de SDR/DDR, ont été lancées en août 1999, supportent DirectX 7, furent les premières cartes graphique à embarquer de la DDR-SDRAM ;
- Les GeForce 2, connues sous le nom de GTS/PRO/ULTRA/MX, ont été lancées en avril 2000, supportent DirectX 7 ;
- Les GeForce 3, connues sous le nom de TI, ont été lancées en février 2001, supportent DirectX 8.0 shaders ;
- Les GeForce 4, connues sous le nom de Ti 4xxx, ont été lancées en février 2002, sont compatibles avec DirectX 8.0 ;
- Les seules exceptions sont les Geforce 4 MX qui ne supportent pas DirectX 8.0 mais DirectX 7.0;
- Les GeForce FX, connues sous le nom de FX 5xxx, ont été lancées à partir de novembre 2002. Elles supportent DirectX 9 ;
- Les GeForce 6, connues sous le nom de 6xxx, ont été lancées en avril 2004, supportent DirectX 9.0c et les shaders évolués. Elles proposent en plus une réduction de la consommation par rapport aux précédents modèles et le support du scalable link interface ;
- Les GeForce 7, connues sous le nom de GS/GT/GTX 7xxx, ont été lancées en juin 2005 et équipent notamment la PlayStation 3. Elles supportent DirectX 9.0c, les accélérations par transparency supersampling anti-aliasing (TSAA), et transparency multisampling anti-aliasing (TMAA) ;
- Les Geforce Go, processeurs graphiques pour plates-formes mobiles.
- Les Geforce 8, ce type de carte dont la première est la 8800 sont les premières cartes à supporter DirectX 10 et les 8800 GT et 8800 GTS 512 à supporter le nouveau bus PCI-Express 2.0.
- Les Geforce 9, lancées en février 2008, supportent DirectX 10 et utilisent le bus : PCI-Express 2.0.
- Les Geforce 200 Series, lancées en juin 2008, supportent toujours DirectX 10 et utilisent le bus : PCI-Express 2.0.
Les GeForce 256
- La Geforce de première génération (nom de code : NV10, nom commercial Geforce 256 SDR et Geforce 256 DDR) était dans les premières (avec les Savage S4 2000) à fournir au public la technologie de "Transform and Lighting" (T&L) implantée au sein d'une carte graphique. Le T&L matériel (c’est-à-dire non plus calculé par le processeur central mais directement par la puce graphique) permet d'effectuer certains calculs nécessaires à la réalisation d'une scène en trois dimensions plus de cinq fois plus vite que par les anciennes techniques. Quatre unités de texturing (contre deux sur les cartes « haut de gamme » précédentes) et l'utilisation sur certaines cartes de mémoire DDRSDRAM (Double Data Rate SDRAM) en lieu et place de mémoire SDRAM classique, permit aux Geforce 256 de largement surclasser la concurrence du moment, même quand les jeux ne profitaient pas du T&L matériel. Les Geforces 256 furent les premières puces graphiques à être désignées par le terme GPU (Graphic Processor Unity : Processeur Graphique).
- DirectX 7 est nécessaire à la pleine exploitation de la carte.
- Le processeur central étant déchargé d'une bonne partie du travail, le processeur graphique devint plus important que celui-ci pour les jeux en trois dimensions.
Caractéristiques communes
- T&L matériel (DirectX 7)
- 4 unités de texturing
- 32 Mo de mémoire
- AGP 4x
Gamme, fréquence et performances théoriques
Modèle Date de sortie Nom de code Gravure (nm) interface Bus Memoire max (Mo) Fréquence du GPU max (MHz) Fréquence mémoire max (MHz) Config GPU1 Mémoire Bibliothèque graphique supportée(version) Notes Bande passante max (GB/s) Type de bus Taille de bus (bit) DirectX® OpenGL GeForce 256 SDR Octobre 1999 NV10 220 AGP 4x 32/64 120 166 0:4:4:4 2.7 SDR 128 7 1.2 Transform & Lighting matériel GeForce 256 DDR Janvier 2000 NV10 220 AGP 4x 32/64 120 300 0:4:4:4 4.8 DDR 128 7 1.2 Transform & Lighting matériel Les GeForce 2
Les Geforce 2 GTS (NV15) sont une évolution des Geforce 256. Elles sont gravées par une nouvelle technique qui permet de mettre plus de fonctions dans une même puce fonctionnant à une vitesse supérieure, tout cela en consommant deux fois moins d'énergie (8 W au lieu de 16 W). De plus, les unités de texturing sont capables de calculer deux texels en même temps pour chaque pixel. Ceci permet au GPU des Geforce 2 GTS d'être le premier à dépasser le milliard de texels calculé par seconde (GTS : Giga Texel Shader). Le principal défaut de la Geforce 2 GTS vient de sa mémoire qui n'est pas capable de délivrer assez vite les données aux unités de calcul du processeur graphique.
En juin 2000, nVidia sort la Geforce 2 MX (NV11), qui est une version allégée de la GeForce 2 GTS. La Geforce 2 MX ne possède que deux unités de texturing, une fréquence revue à la baisse (puissance de 4 W seulement) et de la mémoire SDR (Single Data Rate) en lieu et place de la mémoire DDR. Malgré ses performances bien moindres que la Geforce 2 GTS, la Geforce 2 MX bénéficiait d'un bon rapport qualité-prix.
En septembre 2000, nVidia sort la Geforce 2 Ultra, version plus hautement cadencée de la Geforce 2 GTS avec une mémoire plus rapide qui ne bride plus ses performances. Les cartes Geforce 2 Ultra étaient équipées d'un système de refroidissement plus performant pour dissiper l'énergie générée par l'augmentation de la fréquence. Les Geforce 2 Ultra étaient rares et chères : près de 600 €. nVidia sortit aussi les Geforce 2 Pro, qui étaient constituées d'une Geforce 2 GTS normale équipée de meilleure mémoire, et ce pour un prix nettement inférieur.
En mai 2001, pour compléter par le bas la Geforce 3, la Geforce 2 MX est déclinée en Geforce 2 MX200 et Geforce 2 MX400.
En octobre 2001, pour accompagner par le bas la gamme des Geforce 3 Titanium, nVidia sort une Geforce 2 Ti de performance intermédiaire entre la Geforce 2 Pro et Ultra.
Caractéristiques communes
- T&L matériel (DirectX 7)
- Unités de texturing gérant deux Texels
- AGP 4x
Gamme, fréquence et performances théoriques
Modèle Geforce 2 GTS Geforce 2 Ultra Geforce 2 Pro Geforce 2 Ti Geforce 2 MX (modèle d'origine) Geforce 2 MX 200 Geforce 2 MX 400 Fréquence GPU (MHz) 200 250 200 250 175 175 200 Unités de Texturing 4 4 4 4 2 2 2 Fillrate (GTexel/s) 1,6 2 1,6 2 0,7 0,7 0,8 Quantité de mémoire Mo 32, 64 64 64 64 32 32 64 Type de mémoire DDR 128 bits DDR 128 bits DDR 128 bits DDR 128 bits SDR 128 bits SDR 64 bits SDR 128 bits Fréquence de la mémoire (MHz) 166 230 200 200 166 166 166 Bande passante théorique (Go/s) 5 6.9 6 6 2,5 1,2 2,5 Les GeForce 3
Les Geforce 3 (NV20) furent les premières cartes à avoir des unités programmables (à la différence des générations de puces graphiques précédentes qui avaient des fonctions fixes pré-établies et donc non modifiables). Les "programmes", nommés shaders, permettent de créer un nombre infini d'effets. De puissance brute équivalente à celle des Geforce 2 Ultra, les Geforce 3 se distinguaient par une variété et une qualité d’effets impossibles à obtenir avec les générations précédentes.
Le processeur graphique de la Xbox (première du nom) est un nVidia NV2A, variante du NV20 adapté aux consoles (prix, partage de la mémoire, etc.). Les fonctions et les performances sont comparables.
A partir d'octobre 2001, nVidia sort la gamme Ti (comme Titanium), qui se caractérise par des modèles ayant un meilleur rapport performance/prix (par augmentation des performances ou par baisse des prix). nVidia profite aussi du lancement de la gamme Titanium pour sortir ses nouveaux pilotes Detonator XP qui améliorent les performances de toutes les Geforce 3.
Caractéristiques communes à toute la gamme
- Shader (Vertex et Pixel Shader 1.1) (DirectX 8)
- 4 unités de texturing gérant deux Texels
- 64 Mo de mémoire DDR sur bus 128 bits
- AGP 4x
Gamme et fréquences
Modèle Geforce 3 (modèle d'origine) Geforce 3 Ti200 Geforce 3 Ti500 Fréquence GPU (MHz) 200 175 240 Fillrate (GTexel/s) 1,6 1,4 1,9 Fréquence de la mémoire (MHz) 230 200 250 Bande passante théorique (Go/s) 6,9 6 7,4 Les GeForce 4
Les Geforce 4 Ti
La Geforce 4 Ti (NV25) est une évolution de la Geforce 3. Grâce à une meilleure maîtrise des procédés de fabrication, la Geforce 4 Ti est plus hautement cadencée que ses prédécesseurs, et grâce à l'augmentation du nombre de transistors, elle bénéficie d'optimisations qui permettent d'avoir des performances pratiques plus proches des performances théoriques. La Geforce 4 bénéficie aussi d'une évolution des shaders qui donne plus de liberté aux programmeurs (liberté de faire mieux, plus complexe ou différemment).
Caractéristiques communes à toute la gamme
- Shader (dont Pixel Shader 1.3) (DirectX 8.0)
- 4 unité de texturing gérant deux Texels
- 128 Mo de Mémoire DDR sur bus 128 bits (parfois 64 Mo pour la Geforce 4 Ti4200)
- AGP 4x (AGP 8x après novembre 2002, les TI4800 et 4800SE ne sont que des TI4600 et TI4400 en AGP 8x)
Gammes et fréquences
Modèle Geforce 4 Ti4200 Geforce 4 Ti4400 Geforce 4 Ti4600 Geforce 4 Ti4800 Geforce 4 Ti4800SE Fréquence GPU (MHz) 225 275 300 300 275 Fréquence mémoire (MHz) 250 275 325 325 275 Bande passante mémoire (Go/s) 8 8,8 10,4 10,4 8,8 Opérations par seconde (milliards) 1,03 1,12 1,23 1,23 1,12 Les Geforce 4 MX
Le Geforce 4 MX est un processeur graphique destiné à l'entrée de gamme, et qui est sorti en même temps que le Geforce 4 Ti. Pourtant, le Geforce 4 MX est techniquement proche du Geforce 2 MX, avec un certain nombre d'améliorations et de fonctions multimédias (fonctions autres que le calcul de scène en trois dimensions) venant effectivement de la gamme Geforce 4 Ti.
Caractéristiques communes à toute la gamme
- T&L matériel (DirectX 7)
- 2 unités de texturing gérant deux Texels
- 64 Mo de mémoire
- AGP 4x
Gamme et fréquences
Modèle GeForce4 MX 420 GeForce4 MX 440 GeForce4 MX 460 Fréquence GPU (MHz) 250 270 300 Type de mémoire SDR 64 bits DDR 64 bits DDR 64 bits Fréquence mémoire (MHz) 166 200 275 Les GeForce 5 FX
Gamme et fréquences
Modèle Geforce FX 5200 Geforce FX 5200 Ultra Geforce FX 5600 Geforce FX 5600 XT (128/256) Geforce FX 5600 Ultra Geforce FX 5700 LE Geforce FX 5700 Geforce FX 5700 Ultra Geforce FX 5800 Geforce FX 5800 Ultra Geforce FX 5900 XT Geforce FX 5900 Value Geforce FX 5900 Geforce FX 5900 Ultra Geforce FX 5900 ZT Fréquence GPU (MHz) 250 325 325 235 350 250 425 475 400 500 350 400 450 450 350 Fillrate (GTexel/s) en pratique 0,8 1,1 1,1 1,3 1,6 ? 3,3 ? ? ? 3.2 2.8 3.2 3.6 2.6 Fréquence de la mémoire (MHz) 250 DDR 128 bits 325 DDR 128 bits 275 DDR 128 bits 275 DDR 128 bits 350/425 DDR II 128 bits 200 DDR 128 bits 275 DDR 128 bits (550 MHz) 450 DDR II 256 bits 400 DDR 256 bits 425 DDR II 256 bits 350 DDR 256 bits DDR II 256 bits (275 MHz) 425 DDR 256bits DDR II 256 bits (500 MHz) DDR II 256 bits (350 MHz) Bande passante théorique (Go/s) 6.3 Go/s 10.4 Go/s 8.8Go/s 6.4 Go/s 12,8 Go/s 6.4 Go/s 8.0 Go/s 14,4 Go/s 12.8 Go/s 16.0 Go/s 22.4 Go/s 17.6 Go/s 27.2 Go/s 27.2 Go/s 22.4 Go/s Mémoire Mo 64 / 128 64 / 128 128 128 128 128 128 128 128/256 128/256 128 128/256 128/256 256 128 Techniquement parlant, la série des Geforce FX (ou Geforce 5) fut introduite par l'arrivée de la Geforce 5800 Ultra , modèle de nombreuses fois retardé à cause de la complexité de production. Il introduit non seulement de nouvelles technologies, mais il fut le premier modèle à utiliser de la DDR II, cadencée a 1 Ghz.
À cause de la chaleur interne de la carte, un système fut développé par ABIT sous le nom de OTES. Il s'agissait du premier modèle de OTES, performant mais malheureusement extrêmement bruyant. Seul la marque Leadtek (qui fut la première à distribuer des modèles de 5800, sous le nom de A300 TD et Ultra) mis au point un système de refroidissement basé sur un boîtier entièrement en aluminium qui recouvrait la carte et la ventilait grâce à deux ventilateurs (l'un faisait passer l'air frais dans le boîtier, puis, après un passage dans le radiateur, il était extrait de celui-ci par un second ventilateur chargé de l'extraction). Si l'idée pouvait paraitre astucieuse, elle n’en est pas moins restée très bruyante, et la carte pouvait largement monter dans les 110 °C. La carte sortit avec presque 6 mois de retard, les délais n'étaient pas respectés, et ce fut un échec commercial total pour Nvidia qui perdit le monopole du chipset graphique pour la 1er fois face a ATI et leur surpuissante 9700Pro. La Geforce 5800 normale et ultra furent produites en très peu d'exemplaires et sont quasiment des pièces de collection. Les rares modèles se négocient aux alentours des 300 €. Toutefois le modèle fut décliné :
Les Geforce 5600 sont en réalité basées sur des cœurs de 5800 ultra et sont uniquement les dérivés. La fameuse DDR II laisse la place à la bonne veille DDR. Les capacités sont réduites et ont obtient ainsi un modèle milieu de gamme plutôt performant. Il faut toutefois noter que deux modèles de 5600 ultra sont sortis d'usine, la différence résidait dans la fréquence du GPU, qui est passé de 350 MHz à 400 MHz. Et même si les performances s'en sont trouvées améliorées, ce fut encore un mauvais coup de pub pour Nvidia.
Puis vint la relève. Pas de changement de gamme, toutefois le diminutif FX est ici tout simplement supprimé. On parle désormais de GeForce 5xxx, cela afin de faire oublier les erreurs passées et les ventes catastrophiques des FX. Cette nouvelle gamme se fait avec l'introduction de la Geforce 5900 ultra (et le modèle normal par la suite). Elle abandonne la DDR II de son illustre ainée au profit de la DDR I, les fréquences sont elles aussi baissées, toutefois la 5900 profite de 256 bits là ou la 5800 Ultra n'en n'avait que 128. Les performances ne sont pas largement supérieures, elles seraient même en deçà, mais la 5900 profite de ses 256 bits en haute résolution et dispose en réalité d'une durée de vie assez courte. Elle marque juste le changement de nom et sert à l'introduction du modèle le plus haut de gamme des Geforce 5 : La Geforce 5950 Ultra.
En même temps que la sortie de celle-ci (censée être opposée à la vague ATI 9800 pro puis XT), Nvidia profite du changement de gamme pour sortir la 5700 SE, normale et Ultra, censée remplacer les vieillissantes 5600. Toutefois, Nvidia commet encore une erreur (moindre) en sortant simultanément ses 5700 ultra et des dérivées de 5900 ultra qui sont les 5900 XT. Les 2 modèles sont quasiment équivalents, toutefois la seconde profite de son architecture plus récente et de meilleures spécificités tout cela pour un prix quasi similaire.
Enfin, bien longtemps après, Nvidia écoule les stocks en proposant des cartes de type 5300 ou 5500 qui sont destinées davantage au ordinateur de ventes en supermarchés à cause de leur performances médiocres. Elle profite de 256 bits et 256 DDR, mais les scores sous Aquamark ne dépassent rarement les 3 000 points (indice : entre 48 000 et 60 000 pour les modèles les plus puissants de la gamme).
Finalement, la série des Geforce introduit de nouvelles technologies, malheureusement pas contrôlées. Et même si elle est considérée comme la phase noire de Nvidia, on a tendance à oublier que l'introduction des 5900 à permis de rattraper le retard.
Les GeForce 6
Lancée en 2004, la famille des cartes GeForce 6 (6200/6600/6800) se divise en 3 catégories :
- 6200 : cartes pour petits budgets en entrée de gamme de la marque
- 6600 : cartes milieu de gamme de la marque, valables pour les jeux
- 6800 : cartes haut de gamme de la marque (les plus puissantes jusqu'à l'arrivée de la génération suivante GeForce 7800GT/GTX)
Ces cartes sont dotées de nouvelles technologies comme le PureVideo qui permet un décodage de flux vidéo haute définition (cette évolution n'est toutefois pas fonctionnelle sur la série 6800 avec connecteur AGP).
Ces cartes disposent aussi de toutes nouvelles fonctions Shader Model 3 et HDR que la concurrence (ATI Radeon X7xx X8xx) n'a pas. C'est aussi avec ces cartes que la technologie SLI (Scalable Link Interface) fut remise au goût du jour. Celle ci permet à deux cartes PCI-Express de communiquer entre elles pour augmenter les performances de calcul 3D. La gamme des Geforce 6xxx signe aussi l'introduction du Pci-Express destiné à remplacer l'AGP 8x vieillissant introduit avec les Geforce 4
6800GT
La carte GeForce 6800GT se décline en deux catégories.
La première est la version AGP (Accelerated Graphic Port). Cette carte est dotée de 16 pixels pipeline et 6 vertex engine, elle est cadencée à 350 MHz pour le processeur graphique, de type nv40. La mémoire est quant à elle cadencée à 1 GHz (500 MHz DDR). Sur cette version AGP, le Pure Video est inopérant.
Caractéristiques du GeForce 6800 GT AGP
- Gravure : 130 nm
- Fréquence core : 350 MHz
- Transistors : 222 millions
- Ramdac : 400 MHz
- Version DirectX : DirectX 9.0c
- Pipelines : 16
- Mémoire embarquée : 256 Mo
- Fréquence mémoire : 500 MHz
- Interface mémoire : 256 bits
- Bande passante : 32,7 Go/s
La seconde version, pour port PCI express, reprend toutes les caractéristiques de la 6800GT AGP, seul le processeur graphique est modifié, le nv40 est remplacé par un nv42 qui lui est compatible avec le PureVideo. La carte a besoin d'être alimentée par un connecteur Molex qui se branche sur l'alimentation.
Caractéristiques du GeForce 6800 GT PCI
La gamme des Geforce 6xxx a permis l’introduction de nouvelles technologies comme le SLI ou encore le h284, et reste encore une gamme de cartes extrêmement puissantes bien que vieillissantes. Les 6200 ont permis de développer de manière plutôt efficace la vente de cartes graphiques pour ordinateur de supermarchés, car elles introduisaient la technologie TC "turbo cache" qui consiste à booster les performances de la carte et à utiliser la mémoire du PC en cas de besoin (Aquamark env: 22 000 / 25 000 pts).
Les 6600 sont longtemps restées dans le cœur des joueurs.
Il existe plusieurs variantes comme la 6600 ou la 6600 256DDR ou encore les fameuses 6600 ultra, mais la carte qui a sans doute le plus boosté les ventes de nVidia sont les 6600 GT. Elles disposent de performances hors normes pour le prix proposé, et nVidia les propose de manière abondante en format PCI EXPRESS et AGP. De plus elles s'overclockent de façon excellente et se comportent parfaitement bien dans toutes les situations. Jamais un milieu de gamme ne s'était aussi bien vendu. Pari réussi pour nVidia.
Les GeForce 7
Le 22 juin 2005, nVidia dévoile sa toute nouvelle carte graphique de la gamme GeForce : la GeForce 7800 GTX, toute première de la série GeForce 7xxx . Une annonce mondiale, qui pour une fois, est suivie de la sortie et de la disponibilité immédiate du produit. Revers de la médaille, le prix de cette nouvelle carte s'élève à près de 550€ au moment de sa sortie.
Technologies
Les Geforce 7xxx sont en réalité, bien qu'elles semblent totalement différentes, de simples évolutions architecturales des Geforce 6xxx et gardent les traits principaux de leurs grandes sœurs.
Performances
Concernant les performances, c'est la meilleure carte du moment qui propose les meilleures performances 3D. A configuration égale, la GeForce 7800 GTX est 20% à 40% plus rapide que la 2e meilleure carte graphique nVidia, la GeForce 6800 Ultra. Comme sa précédente version, le branchement de deux cartes en parallèle offre les meilleures performances possibles.
En 2006, la GeForce 7800GTX 512 Mo DDR3 fait son apparition sur le marché offrant encore plus de performance aux amateurs de jeux vidéo.
Top Performance
La GeForce 7xxx marque aussi l'introduction de technologies toujours plus étranges les unes que les autres (ce procédé fut entamé avec les GeForce 6xxx, comme ce fut le cas des GeForce 6600GT Duo ou les 6800 Ultra SLI-Dual qui ne sont jamais sorties). Ici on retrouve tout d'abord les 7800GTX Ultra qui sont des 7800GTX arborant 512 Mo de DDR III cadencés à 850 MHz (1 700 MHz) afin de lutter contre les ATI X1800XTX). Elles restent extraordinaires, car elles furent rares et extrêmement chères (850€) et leur système de ventilation (signé CoolerMaster) fut très prisé par les joueurs à cause de leur silence (Vt 8 cm) et de leur taille surdimensionnée (4 heat pipes).
Puis ce fut le tour des bi-7800 GT uniquement produites par la firme ASUS à 2 000 exemplaires, toutes numérotées au laser d'un chiffre. Il s'agissait en fait de deux 7800GT aux cadences de 7800GTX (moins les quad engine). Elles coûtaient, lors de leurs sorties, la bagatelle de 1000€ et se négocient aujourd'hui même a 800/900€ (ASUS Extreme N7800GT-Dual). De plus il faut les alimenter par une alimentation externe fournie.
Enfin le dernier cas de phénomène rare fut l'arrivée des surpuissantes et très largement produites 7950GX2.
Il s'agissait de deux 7900 mises en SLI via deux PCB superposés. Elles introduisaient donc le QUAD-SLI avec quatre 7900 en simultané.
Évolutions technologiques
Si les performances de cette nouvelle carte graphique ont beau être évidentes, elle ne présente pas pour autant un grand nombre d'évolutions, elle en est elle-même une de la GeForce 6800 en rapportant la même structure avec quelques petites différences et retouches. La 7800 embarque près de 302 millions de transistors (80 millions de plus que la GeForce 6800 Ultra) gravés en 0,11µm. Mais les principales améliorations se trouvent au niveau du pipeline au sein desquelles sont réalisés la plupart des calculs. Ainsi par rapport à la 6800, les vertex pipeline (liés au traitement des côtés des polygones) passent de 6 à 8 et les pixels pipelines (liés au traitement des pixels) de 16 à 24. Le gain de performance est pratiquement proportionnel aux pipelines en plus. Les 256 Mo de mémoire implantés sur la carte disposent, quant à eux, d'une interface 256 bits assurant une bande passante en accord avec les capacités du processeur.
Les 7500LE
La carte graphique NVidia Geforce 7500 LE (LE signifiant Lite Edition) est principalement conçue pour les ordinateurs d'entrée de gamme vendus dans le commerce. Par conséquent, ses performances sont suffisantes pour regarder des vidéos en Haute Définition (HD), exploiter l'interface Aero de Windows Vista ou faire de la retouche photographique. En revanche, la plupart des jeux modernes ont des difficultés à fonctionner convenablement avec cette carte graphique.
Caractéristiques
Modèle Geforce 7500 LE (Lite Edition) Code NV46 / G72 Bus ou port PCI Express 16x Shaders Pixel/Vertex: 4/3 Fréquence GPU (MHz) 552 ou 450 (selon le modèle) Fréquence Shader (MHz) ? Support de la technologie T&L (Transform and Lighting) Oui Support Pixels Shaders version 3.0 Support Vertex Shaders version 3.0 Support de la fonction HDR (High Dynamic Range) Oui Fréquence de la Mémoire (MHz) 400 ou 324 (selon le modèle) Bus Mémoire (bit) 64 Vitesse du bus mémoire 1.3 Ghz Bande passante théorique (Go/s) 2.5 Quantité de mémoire(mo) 128 Mo (jusqu'à 728 Mo en Turbocache, selon la quantité de RAM système) ou 256 Mo (jusqu'à 1024 Mo en Turbocache, selon la quantité de RAM système), diffère selon le modèle unités ROPs 2 version de directX supportée 9.0c date de commercialisation 3ème trimestre 2006 Les 7600GT
La NVidia 7600GT est un modèle de carte graphique de milieu de gamme de la série 7 NVIDIA, apparue sur le marché en avril 2006. Cette carte a un excellent rapport qualité/prix, car elle emporte 256 Mo de mémoire DDR3 cadencée à 560/1400 MHz, pour un prix raisonnable, ce qui la rend intéressante pour les joueurs aux moyens financiers limités.
Caractéristiques
- Bus (ou Port) : AGP 8x ou PCI Express 16x
- Type de Bus mémoire : 128 bit(s)
- Taille mémoire vidéo: 256 Mo
- Type de mémoire : GDDR3
- Nombre de pipelines : 12
- Nombre de vertex : 5
- Nombre de Rops : 8
- Fréquence : 560/1400 MHz
- Compatible SLI(Seulement pour le Pci-Express) (système à double carte graphique)
- Compatible DirectX 9.0c
- Version des shaders models supportés : Pixels Shaders 3.0, Vertex Shaders 3.0, HDR (High Dynamic Range)
- Débit : (en Go/s) 22,4
- Elle possède, entre autres, une sortie HD pour la télévision à haute définition, suivant le modèle.
- Mise en commerce : 2006
Sa concurrente officielle chez ATI/AMD est la Radeon X1650XT.
Résumé des caractéristiques des Geforces série 7
Les Geforce série 7 se décomposent en quatre sous-famille correspondant à quatre processeurs de type G7x :
- Les G70 et G71 correspondent aux cartes graphiques haut de gamme
(G70: Geforce 7800GS,7800GT,7800GTX) (G71: Geforce 7800GS+,7900GS,7900GT,7950GT,7900GTO,7900GTX,7900GX2,7950GX2)
- Le G72 correspond aux cartes graphiques bas de gamme
(Geforce 7100GS,7200GS,7300 SE,7300 LE, 7300GS,7500 LE)
- Le G73 correspond aux cartes graphiques milieu de gamme
(Geforce 7300GT,7600GS,7600GT,7650GS)
Ces quatre familles diffèrent par:
- La largeur du bus mémoire:
*256 bits pour les G70 et G1 *64 bits pour le G72 *128 bits pour le G73
- Le nombre de transistors et d'unités de calculs :
*Le G70 est pourvu de 302 millions de transistors, de 8 à 16 unités ROPs, de 16 à 24 Pixel shaders, de 6 à 8 vertex shaders *Le G71 est pourvu de 278 millions de transistors, de 12 à 16 unités ROPs, de 8 à 24 Pixel shaders, de 7 à 8 vertex shaders *Le G72 est pourvu de 112 millions de transistors, 2 unités ROPs, de 2 à 4 Pixel shaders, de 2 à 3 vertex shaders *Le G73 est pourvu de 178 millions de transistors, de 4 à 8 unités ROPs, de 8 à 12 Pixel shaders, de 4 à 5 vertex shaders
- La finesse de gravure :
*110nm pour le G70 *90nm pour les G71, G72 et G73 *80nm pour certains G73 (Geforce 7650GS)
Les fréquences de fonctionnement de ces GPU ne dépendent pas de ces familles, de même que la présence d'un bus AGP ou PCI express. Ainsi, on peut trouver des G73 cadencé à 560 MHz (Geforce 7600GT) ou 350 MHz (Geforce 7300GT) par exemple.
Les GeForce 8
Sorties le 8 novembre 2006, les Geforce 8800 GTX et 8800 GTS sont les premières cartes graphiques supportant Direct X 10 et ayant des shaders unifiés : les Vertex Shaders et les Pixel Shader ont fusionnés en une seule entité capable de remplir successivement le rôle de l'un ou de l'autre, ainsi que le nouveau rôle de Geometry Shader. D'une organisation interne et logique très différente des cartes précédentes, les performances sous DirectX 9.0c des Geforce 8800 sont au moment de leur sortie deux fois supérieures à celles des meilleures cartes de la génération précédente.
La déclinaison GeForce 8M, basée sur la série des GeForce 8 des processeurs graphiques, est destinée aux plates-formes mobiles.
Les déclinaisons GeForce 8400GS et 8300GS sont destinées aux intégrateurs, elles devraient équiper les PC d'entrée de gamme. Elles sont techniquement très proches des GeForce 8500 GT avec cependant un bus mémoire réduit à 64 bits ; alors que la GeForce 8300 GS comporte 8 unités de ROPs (contre 4 pour la 8500 GT), la 8400 GS embarque le moteur Pure Vidéo 2 (absent sur la 8300 GS) permettant un décodage des flux vidéos Haute-définition avec une utilisation minimale du processeur.
Les cartes 8800GT et 8800GTS 512 Mo, dernières sorties de la série 8, sont équipées du nouveau GPU G92. D'un excellent rapport performances/prix, ces cartes sont très bien accueillies par les joueurs et donnent une nouvelle jeunesse à la série 8. Certains considèrent ceci comme une nouvelle erreur stratégique de nVidia, puisque de ce fait les cartes de la série 9, elles aussi équipées du G92, ne seront ressenties que comme des évolutions mineures.
Caractéristiques
Modèle Geforce 8300 GS Geforce 8400 GS Geforce 8500 GT (256 Mio) GeForce 8600M GS (laptop) GeForce 8600M GT (laptop) GeForce 8600 GTS GeForce 8600 GT Geforce 8800 GTX Geforce 8800 GTS (640 Mio) Geforce 8800 GTS (320 Mio) Geforce 8800 GT (512 Mio) - G92 Geforce 8800 GTS (512 Mio) - G92 Nombre de Shaders Unifié 16 16 16 16 32 32 32 128 96 96 112 128 Fréquence GPU (MHz) 450 450 450 600 475 675 540 575 500 500 600 650 Fréquence Shader (MHz) 900 900 900 1200 950 1450 1190 1350 1200 1200 1500 1625 Fréquence de la Mémoire (MHz) 400 400 400 700 700 1000 700 900 800 800 900 970 Bus Mémoire (bit) 64 64 128 128 128 128 128 384 320 320 256 256 Bande passante théorique (Gio/s) 6,4 6,4 12,8 22.4 12.8 (22.4 avec DDR3) 32 22.4 86.4 64 64 57.6 62.1 Quantité de mémoire Mo 256 256 256 256/512 256/512 256/512 256/512 768 640 320 512 512 Nombre de transistors (millions) 210 210 210 289 289 289 289 681 681 681 754 754 unités ROP 8 4 4 8 8 8 8 24 20 20 16 16 Moteur de décodage HD Non Pure Vidéo 2 Pure Vidéo 2 Pure Vidéo 2 Pure Vidéo 2 Pure Vidéo 2 Pure Vidéo 2 Pure Vidéo 1 Pure Vidéo 1 Pure Vidéo 1 Pure Vidéo 2 Pure Vidéo 2 Puissance shading (GFLOPS) 21.6 43.2 43.2 57.6 91.2 139.2 114.2 518 403 345 504 624 Les GeForce 9
Le premier modèle de Geforce 9, la 9600GT est sortie le 21 février 2008 et se base sur un nouveau chipset dénommé G94.
La 9500GS, basée sur le chipset G84, c'est-à-dire celui des 8600 GT et 8700 GT, possède un chipset G84-50. Cette carte est surtout présente dans les ordinateurs portables de milieu de gamme sous le nom de "9500M GS".
La dernière carte prévue pour le haut de gamme des Geforce 9 était la 9800GTX+ (amélioration du 9800GTX, voir ci-dessous), sortie le 20 juin 2008.
Concernant le milieu de gamme, nVidia a sorti en été 2008 la 9800GT. [1] Mais en fait, ce n'est pas du tout une nouvelle carte par rapport aux autres de la gamme, puisqu'il s'agit tout simplement de 8800GT renommées. Les caractéristiques sont exactement les mêmes avec cependant en plus une compatibilité avec la technologie Hybrid Power. nVidia a en effet un stock important d'anciennes cartes de la génération Geforce 8 à écouler donc c'est le moyen le plus simple et le plus économique pour écouler ses stocks.
nVidia jongle donc actuellement entre 2 générations de cartes graphiques avec les Geforce 9 et les GT200.
Caractéristiques
Modèle Geforce 9300M GS (laptop) Geforce 9400 GT Geforce 9500 GT Geforce 9600 GSO Geforce 9600 GT Geforce 9800 GT Geforce 9800 GTX Geforce 9800 GTX+ Geforce 9800 GX2 Code NB9M G92 G96 G92 G94 G92 G92 G92 G92 Nombre de Shaders Unifié 8 16 32 96 64 112 128 128 128x2 = 256 Fréquence GPU (MHz) 580 550 550 550 650 600 675 738 600 (x2) Fréquence Shader (MHz) 1450 1400 1375 1375 1625 1500 1688 1738 1500 (x2) Fréquence de la Mémoire (MHz) 800 400 700 800 900 900 1100 1100 1000 (x2) Bus Mémoire (bit) 64 128 128 192 256 256 256 256 256 (x2) Bande passante théorique (Gio/s) 6.4 12.8 25.6 38.4 57.6 70.4 70,4 70,4 64x2 = 128 Quantité de mémoire Mo 256/512 GDDR2 512/1024 DDR2 512/1024 GDDR3 384/768 GDDR3 512/1024 GDDR3 512/1024 GDDR3 512 GDDR3 512 GDDR3 512x2 = 1024 GDDR3 Nombre de transistors (millions) 760 754 505 754 754 754 754x2 = 1 508 unités ROP 16 12 16 16 16 16 16x2 = 32 PureVideo HD PureVideo HD PureVideo HD PureVideo HD PureVideo HD PureVideo HD PureVideo HD PureVideo HD Puissance shading (GFLOPS) 34 67 134 396 312 504 648 705 2x576 Les GeForce 200 Series
En juin 2008, nVidia a lancé une nouvelle série de cartes graphiques basée sur la toute nouvelle "GT200", destinées à remplacer les Geforce 9, réputés auprès des joueurs de n'être que des Geforce 8 améliorés.
La série est pour l'instant composée de la GTX280, sortie le 17 juin 2008, et de la GTX260 sortie en juillet 2008.
Les GT200 reprennent les mêmes caractéristiques de base des Geforce 9, c'est à dire le support du PCI-Express 2.0 et de DirectX 10.0. nVidia ne s'intéresse donc toujours pas à la technologie DirectX 10.1, déjà présent chez les Radeon HD3K et les HD4K d'ATI. Pour le reste, tout est différent à commencer par l'architecture, les GT200 désormais utilisent le tout nouveau GT200 à la place des G92/G94. La finesse de gravure est de 65 nm et la bande passante est portée à plus de 140 Go/s soit le double de celle d'une 9800GTX. Idem pour le nombre de transistors qui passe de 754 (9800GTX) à 1400.
La GTX 280 est la nouvelle carte graphique très haut de gamme de nVidia, elle détrône la 9800 GX2 après seulement 3 mois d'existence pour cette dernière. La GTX 280 est une solution mono-GPU, c'est-à-dire qu'elle ne possède qu'un seul processeur graphique principal, contrairement à la 9800 GX2.
A noter que le concurrent d'nVidia, ATI, peine à trouver sa place sur le très haut de gamme, toutefois la dernière série 4000 est une réussite avec des produits certes moins performants sur le haut de gamme, mais des tarifs généralement plus bas et donc un bon rapport performances / prix.
Mais nVidia est connu, depuis les 6800, pour baisser ses prix de façon assez brutale lorsque ATI lance une nouvelle carte à prix réduit, c'est encore le cas à l'heure actuelle avec les GTX280 qui ont baissé de plus de 200€ en quelques semaines à cause d'une HD4870 à prix très agressif. Ainsi nVidia reprend la tête au niveau performances / prix et garde toujours la couronne de la carte graphique la plus performante depuis la 8800 GTX, malgré quelques "coups d'état" ponctuels d'ATI.Depuis janvier 2009, nVidia a renouvelé son très haut de gamme en proposant la GTX 295, une carte bi-GPU, composée de deux G200b (le b signifiant une gravure en 55 nm). Les fréquences de la carte sont les mêmes que celles des GTX 260, soit 576 Mhz pour le GPU, 1242 Mhz pour les shaders et 999 Mhz pour la mémoire. Cette nouvelle carte permet à nVidia de reprendre la première place en termes de performances, dépassant ainsi la 4870X2. Cependant l'écart de performances entre les deux cartes est minime, alors que le prix de lancement de la solution bi-GPU nVidia est nettement plus élevé que celle d'Ati (459€ contre 370-390€ chez Ati). Toujours en janvier 2009, nVidia a également lancé la GTX 285, une carte haut de gamme qui est une révision de la GTX 280. La carte étant la encore équipée du G200b, la gravure passe en 55 nm, et les fréquences augmentent, passant de 602 à 648 Mhz pour le GPU, 1296 à 1476 Mhz pour les shaders, et de 1107 à 1242 Mhz pour la mémoire. Cette carte est, à son lancement, la carte mono-GPU la plus puissante du marché. Depuis avril 2009, nVidia commercialise également la GTX 275,sensée concurrencer la HD 4890 de chez Ati. Elle se situe, en termes de performances, entre une GTX 260+, et une GTX 285, tout en affichant des performances très proches de la GTX 280. Ces deux dernières cartes (GTX 285 et 275) permettent ainsi à nVidia, d'une part, de baisser ses couts de production par rapport aux GTX 260 et 280, et donc ses prix, et d'autre part, de proposer des processeurs plus hautement cadencés. Ainsi, en baissant les prix et en montant les performances, nVidia souhaite améliorer encore le rapport performance / prix de son haut de gamme. Enfin, depuis mars 2009, est également commercialisée la GTS 250, qui n'est en réalité qu'une 9800GTX+ équipée d'un nouveau PCB. Le GPU reste donc le G92 qui équipait déjà les GeForce 9. Cette carte renouvelle ainsi le milieu de gamme de la marque (concurrençant ainsi la HD 4850 d'Ati).
Le futur GT300 [2] prévu pour fin 2009-debut 2010 devrait bénéficier d'une gravure en 40 nm et de la prise en charge de DirectX 11 et DirectX 10.1. [3] Depuis mi-mai, les premiers exemplaires de la puce (A1) sont sortis des usines de TSMC, et sont fonctionnels. Par ailleurs, on en sait un peu plus: elle mesurerait 23mm de coté, ce qui correspond donc à une surface de chip de 529 mm². De plus, le GT300 embarquerait 2,4 milliards de transistors (pour comparaison, le GT200 embarque 1,4 milliards de transistors dans 576 mm²). Le GT300 enfermerait également 512 processeurs de flux. La mémoire serait de la GDDR5 sur un bus de 512 bits. Enfin, les fréquences seraient les suivantes: 700 Mhz pour le GPU, 1600 Mhz pour les shaders, et 1100 Mhz pour la mémoire.
Caractéristiques [4]
Modèle Geforce GTS 250 Geforce GTX 260 Geforce GTX 275 Geforce GTX 280 Geforce GTX 285 Geforce GTX 295 Code G92 G200 G200b G200 G200b G200b Nombre de Shaders Unifié 128 216 240 240 240 480 (240 x 2) Fréquence GPU (MHz) 738 576 633 602 648 576 Fréquence Shader (MHz) 1836 1242 1404 1296 1476 1242 Fréquence de la Mémoire (MHz) 1100 999 1134 1107 1242 999 Bus Mémoire (bit) 256 448 448 512 512 896 (448 x 2) Bande passante théorique (Gio/s) 70.4 111.9 127.0 141,7 159,0 223,8 Quantité de mémoire Mo 512/1024 GDDR3 896 GDDR3 896 GDDR3 1024 GDDR3 (GDDR5 prévu) 1024 GDDR3 1792 (896 x 2) GDDR3 Nombre de transistors (millions) 754 1400 1400 1400 1400 2800 (1400 x 2) unités ROP 28 28 32 32 28 Moteur de décodage HD PureVideo HD PureVideo HD PureVideo HD PureVideo HD PureVideo HD PureVideo HD Puissance shading 705 GFlops 715 GFlops 894 GFlops 933 GFlops 1063 GFlops 1788 (894 x 2) GFlops Consommation max. / alimentation PC min. 150 W / 450 W 182 W / 500 W 219 W / 550 W 236 W / 550 W 204 W / 550 W 289 W / 680 W Liens externes
- (fr) Pas de drivers nVidia GeForce4 MX 440 sous Windows Vista (Blog)
- (en) Site officiel
- (fr) Site officiel français
- Portail de l’informatique
- Portail du jeu vidéo
Catégories : NVIDIA | Carte graphique
Wikimedia Foundation. 2010.