Materiali segreti da ATi. Recensione delle nuove schede video della serie Radeon X800

Quando furono messi in vendita nel 2004, gli acceleratori grafici Radeon 9200 appartenevano alla categoria entry-class. Prestazioni della scheda video ATI Radeon 9200 era più che sufficiente per risolvere i problemi più comuni dell'epoca. Questo adattatore ha funzionato di più giochi per computer. Oggi questa scheda video ha prestazioni inferiori rispetto alle soluzioni grafiche integrate. Le sue capacità e specifiche vedremo in questo materiale.

ATI Radeon 9200: a quale segmento di mercato è rivolto l'adattatore?

Nel 2004 il mercato delle schede video era dominato da due produttori. Queste sono le società Nvidia e ATI. Se prima del rilascio dei prodotti della serie Radeon 9XXX la posizione di leader era occupata dai dispositivi Nvidia, dopo il rilascio del primo adattatore grafico Radeon 9XXX la situazione è cambiata radicalmente. Gli adattatori dello sviluppatore ATI hanno ottenuto il primo posto in termini di velocità e prestazioni. L'intero mercato della grafica discreta è stato diviso in tre grandi segmenti.

  1. Schede video entry-level. Questi dispositivi si distinguevano per prestazioni minime e un prezzo abbastanza conveniente. La maggior parte dei sistemi PC dell'epoca contenevano proprio questi adattatori grafici. Il produttore Nvidia ha posizionato i prodotti delle serie GeForceFX-5200 e GeForce 4MX 4XX per questa parte del mercato. A sua volta, il produttore ATI si è opposto a loro con un solo prodotto: Radeon.Se confrontiamo questi acceleratori in termini di produttività, l'eroe della nostra recensione di oggi era più veloce dell'MX 4XX, ma allo stesso tempo leggermente peggiore dell'FX-5200 . Tuttavia, in questa parte del mercato degli acceleratori grafici non c'era alcun vantaggio fondamentale a favore di nessuno in termini di velocità e prestazioni. La scelta si basava in gran parte sulle preferenze personali degli utenti e sul costo dell'acceleratore.
  2. Acceleratori grafici di fascia media. Nel 2004 a questa categoria appartenevano le seguenti schede video: della Nvidia – FX-5700 e FX-5600, della ATI – Radeon 9600 e Radeon Il vantaggio totale in questo caso era già dalla parte del produttore ATI. La potenza di calcolo dell'adattatore grafico Radeon 9600 si avvicinava quasi all'ammiraglia dell'epoca di Nvidia, la scheda video GeForceFX-5900.
  3. Gli acceleratori grafici discreti più produttivi. Questa nicchia è stata occupata dal già citato FX-5900 e dalla scheda video Radeon 9800 di ATI. Quest'ultimo dispositivo ha dimostrato prestazioni eccezionali in quel momento. Ha permesso di risolvere quasi tutti i problemi.

Ecco come era suddiviso il mercato delle schede video nel 2004.

ATI Radeon 9200: specifiche tecniche

Il processore video discusso in questa recensione aveva le seguenti caratteristiche:

— designazione del codice RV-25;

— tecnologia di produzione dei cristalli semiconduttori – 150 nm;

— frequenza operativa del chip video – 250 MHz;

— 4 pixel pipeline, ciascuna con 1 unità TMU;

— tre slot per l'installazione della versione AGP 8X.

C'è stata anche una modifica più avanzata di questo adattatore grafico: Radeon 9200 Pro. La differenza principale tra questi dispositivi era che nel secondo caso le frequenze del chip grafico erano aumentate a 275 MHz. La RAM in questo caso operava a 500 MHz, mentre per un acceleratore convenzionale questo valore era di 400 MHz. È stato rilasciato anche un chip video per un laptop con caratteristiche identiche.

ATI Radeon 9200: memoria video

L'adattatore grafico ATI Radeon 9200 era dotato di bus memoria ad accesso casuale 128 bit. In questo caso è stato utilizzato un buffer video di tipo DDR con frequenza operativa di 400 MHz. La capacità RAM di questo acceleratore potrebbe essere 64, 128 o 256 MB. Il livello di prestazione in quest'ultimo caso è aumentato in modo significativo, ma il costo di tali acceleratori era molto più elevato. Di conseguenza, tali dispositivi non sono stati riscontrati molto spesso.

ATI Radeon 9200: sistema di raffreddamento

Come notato in precedenza, la soluzione grafica ATI Radeon 9200 è un prodotto di classe media. Il dispositivo non può vantare un pacchetto termico impressionante. Di conseguenza, tali acceleratori erano spesso dotati di un sistema di raffreddamento passivo costituito da un solo radiatore compatto. Spesso venivano trovati anche sistemi di raffreddamento attivi, che utilizzavano refrigeratori di piccole dimensioni. Nel primo caso si consigliava di utilizzare l'acceleratore solo nella modalità operativa nominale. Nel secondo caso, è stato possibile eseguire l'overclocking. Esisteva una versione simile del chip video per un laptop, dotato di un sistema di raffreddamento attivo.

ATI Radeon 9200: analoghi al momento del rilascio del dispositivo

Come notato in precedenza, la scheda video ATI Radeon 9200 in precedenza competeva con due famiglie di prodotti Nvidia. Questi erano i modelli GeForceFX-5200 e MX 4XX. Il secondo dispositivo è stato rilasciato molto prima dell'eroe della recensione di oggi, inoltre, era significativamente inferiore in termini di prestazioni al suo diretto concorrente del produttore ATI. Utilizzando la GeForceFX-5200, è stato possibile ottenere un leggero aumento delle prestazioni in alcune applicazioni. C'era parità nella maggior parte dei programmi.

ATI Radeon 9200: funzionalità di configurazione dei driver per una scheda video

Questa soluzione grafica è al livello Software conforme alle specifiche DirectX 8.1 A. ATI Radeon 9200 non supportava la versione successiva di questo pacchetto software: 9.0. Ma la sala operatoria Sistema Windows 7 può rivelare pienamente le sue capacità solo alla fine Versioni DirectX. Inoltre, la ATI Radeon 9200 non disponeva di un set completo di driver per questo sistema operativo. È stato possibile installare i driver più recenti per Windows XP e far funzionare questo acceleratore con uno più recente sistema operativo. L'algoritmo di installazione del driver in questo caso è stato utilizzato come segue:

— installa i driver per XP su Windows 7 con diritti di amministratore di sistema in modalità compatibilità XP/2000. Nella stessa modalità lanciamo i driver con gli stessi diritti. È importante impedire il riavvio del sistema.

— sposta il file ati2dvag.dll dalla directory Windows\System in una posizione comoda, ad esempio sul "Desktop". Successivamente, disconnettersi dal sistema e accedere nuovamente.

— riporta il file ati2dvag.dll nella sua posizione originale.

— riavviamo il personal computer.

Il driver dovrebbe quindi funzionare normalmente.

ATI Radeon 9200: costo

È passato molto tempo dal rilascio del chip video ATI Radeon 9200. Anche le scorte di magazzino dei dispositivi sono esaurite da tempo. Oggi non è più possibile acquistare un chip nuovo. Ma gli apparecchi usati si possono trovare facilmente su diverse piattaforme commerciali in Internet. Il costo di tali soluzioni varia da 240 a 500 rubli. Tutto dipende dalle condizioni dell'adattatore. Tuttavia, non dovresti considerare un tale acceleratore come base per assemblarne uno nuovo unità di sistema, anche se come componenti vengono utilizzati componenti obsoleti. A questo proposito sarebbe più corretto prestare attenzione agli adattatori grafici della serie AMD Radeon HD. Sono almeno finalizzati all'installazione in uno slot PCI-E più recente. Ciò ti consentirà di aggiornare il sistema se necessario.

pubblicità

Più recentemente, il rilascio di schede video con doppia GPU ha causato molte polemiche. Molti utenti erano sicuri che questo fosse un percorso di sviluppo senza uscita. Tuttavia, oggi le ammiraglie dual-chip sono sicuramente al top serie di modelli entrambi i produttori di schede video: ATI (AMD) e Nvidia.

Oggi portiamo alla vostra attenzione una recensione della nuova ammiraglia ATI: la Radeon HD 5970, che è il diretto successore di schede come HD 3870 X2 e HD 4870 X2. Oltre al fatto che questo è l'acceleratore 3D più potente al mondo, il produttore ha svolto un lavoro serio per semplificare la vita a noi overclocker. Iniziamo la nostra recensione osservando l'architettura della nuova scheda video.

Architettura dell'ATI Radeon HD 5970

Diamo un'occhiata alla tabella contenente le caratteristiche principali di Hemlock (questo è il nome "in codice" dell'HD 5970) rispetto ad altre schede video basate sulla GPU Cypress e alla generazione precedente ATI "tandem" - Radeon HD 4870x2.

Nome della scheda video RadeonHD4870x2 Radeon HD5850 Radeon HD5870 Radeon HD5970
Procedimento tecnico, nm 55 40 40 40
Area centrale, mm 22×256 338 338 2×338
Numero di transistor, milioni di pezzi2×956 2150 2150 2x2150
Numero di processori di flusso2×800 1440 1600 2×1600
Numero di blocchi di trama2×40 72 80 2×80
Numero di blocchi di rasterizzazione2×16 32 32 2×32
Frequenza del core clock, MHz 750 725 850 725
Frequenza effettiva della memoria video, MHz 3600 4000 4800 4000
Tipo di memoria videoGDDR5GDDR5GDDR5GDDR5
Larghezza del bus della memoria video, bit2×256 256 256 2×256
Larghezza di banda della memoria, GB/s2×115,2 128 153,6 2×128
Volume della memoria video, MB2×1024 1024 1024 2×1024
TDP, W 286 170 188 294
DirectX 10.1 11 11 11

Recentemente, tenendo conto del trend di sviluppo del mercato degli acceleratori grafici, ci siamo tutti abituati al rapido cambiamento delle generazioni di adattatori video. Sebbene per molto tempo il ruolo principale in AMD sia stato occupato dalla scheda video ATI HD3870 (in seguito ATI HD3870X2), basata sul chip RV670. Non appena sono iniziate a trapelare le prime indiscrezioni sul nuovo chip RV770, l’interesse dei media si è riposizionato sul futuro “padrone del trono”.

L'apparizione del nuovo chip ha segnato il debutto di nuove soluzioni di AMD ATI (sul chip RV770 PRO) e AMD ATI HD4870 (sul chip RV770 XT).

Prima del rilascio delle soluzioni grafiche basate sul chip RV770, la posizione di mercato dell'azienda non era delle migliori. Nella famiglia di schede HD non c'era un solo degno rivale delle soluzioni di punta dell'eterno concorrente californiano NVIDIA. Il rilascio di un nuovo chip era più una necessità vitale che il semplice rilascio di una nuova soluzione accelerata. Gli ingegneri hanno fatto del loro meglio: il chip si è rivelato molto promettente e di successo.

Nel nuovo chip si è deciso di cambiare tradizione e invece del già familiare bus ad anello, passare a un'architettura con un hub centrale.

Secondo i comunicati stampa ATI, questa soluzione aumenta significativamente l'efficienza della larghezza di banda. Inoltre, il controller di memoria ora supporta i nuovi chip di memoria GDDR5.

La nuova GPU contiene già 800 processori scalari in grado di eseguire calcoli a 32 e 64 bit.

Ma l'architettura dei processori stream è rimasta praticamente invariata (rispetto all'RV670), sebbene la loro densità sia stata aumentata, il che ha permesso di aumentarne il numero senza modificare il processo tecnico. Ora la prestazione di picco teorica del chip RV770 è aumentata a 240 gigaflop.

Dettagli tecnici degli acceleratori della serie HD4800:

  • Nome in codice del chip RV770;
  • Tecnologia a 55 nm;
  • 956 milioni di transistor;
  • Un'architettura unificata con una serie di processori comuni per l'elaborazione del flusso di vertici e pixel, nonché di altri tipi di dati;
  • Supporto hardware per DirectX 10.1, incluso il nuovo modello di shader - Shader Model 4.1, generazione di geometrie e registrazione di dati intermedi da shader (output stream);
  • Bus di memoria a 256 bit: quattro controller a 64 bit con supporto GDDR3/GDDR5;
  • Frequenza principale 625-750 MHz;
  • 10 core SIMD, incluse 800 ALU scalari per calcoli in virgola mobile (formati interi e mobili, supporto per precisione FP32 e FP64 all'interno norma IEEE 754);
  • 10 unità texture ingrandite, con supporto per i formati FP16 e FP32;
  • 40 unità di indirizzamento della trama;
  • 160 unità di campionamento delle texture;
  • 40 unità di filtraggio bilineare con la capacità di filtrare le texture FP16 alla massima velocità e supportare il filtraggio trilineare e anisotropico per tutti i formati di texture;
  • Possibilità di ramificazioni dinamiche in pixel e vertex shader;
  • 16 blocchi ROP con supporto per modalità antialiasing e capacità di campionare in modo programmabile più di 16 campioni per pixel, incluso con formato frame buffer FP16 o FP32 - prestazioni di picco fino a 16 campioni per clock (incluso per buffer di formato MSAA 2x/4x e FP16) , in modalità senza colore (solo Z) - 64 campioni per clock;
  • Registra i risultati da un massimo di 8 frame buffer simultaneamente (MRT);
  • Supporto integrato per due RAMDAC, due porte Dual Link DVI, HDMI, HDTV, DisplayPort.

Specifiche della scheda di riferimento:

  • Frequenza centrale 625 MHz;
  • Numero di processori universali 800;
  • Numero di blocchi texture - 40, blocchi di fusione - 16;
  • Frequenza di memoria effettiva 2000 MHz (2*1000 MHz);
  • Tipo di memoria GDDR3;
  • Capacità di memoria 512 MB;
  • Larghezza di banda della memoria 64 GB/s;
  • Velocità di riempimento massima teorica di 10,0 gigapixel al secondo;
  • Velocità teorica di campionamento della texture 25,0 gigatexel al secondo;
  • Due connettori CrossFireX;
  • bus PCI Express 2.0 x16;
  • Due connettori DVI-I Dual Link, supportano l'uscita con risoluzioni fino a 2560x1600;
  • Uscita TV, uscita HDTV, supporto HDCP, HDMI, DisplayPort;
  • Consumo energetico fino a 110 W (un connettore a 6 pin);
  • Design del sistema di raffreddamento a slot singolo;
  • Prezzo consigliato: $ 199.

Uno di questi sarà discusso nella recensione di oggi, vale a dire AMD ATI con 512 MB di memoria integrata.

GeForce9800GTX

GeForce 9800 GTX+

Chip grafico

RV770 PRO

Frequenza principale, MHz
Frequenza dei processori unificati, MHz
Numero di processori universali
Numero di blocchi texture/blocchi di fusione
Capacità di memoria, MB
Frequenza di memoria effettiva, MHz

2000 (2*1000)

Tipo di memoria
Larghezza del bus di memoria, bit

La scheda video si basa sul processore grafico ATI di AMD, realizzato sul chip RV770 PRO utilizzando la tecnologia a 55 nm. Allo stesso tempo, vengono seguite tutte le raccomandazioni del produttore della GPU sopra indicate, quindi l'acceleratore ripete le capacità e aspetto la stragrande maggioranza di 512 MB, tranne, forse, la configurazione.

Passiamo ad una conoscenza più ravvicinata della scheda video testata EAH4850/HTDI/512M.

La scheda video arriva in una grande confezione doppia in cartone che si apre a libro. A differenza delle confezioni precedenti dei modelli di punta, questa scatola non ha una maniglia in plastica.

L'aspetto e il design della scatola non sono cambiati. Come prima, i colori nero e arancione simboleggiano l'appartenenza dell'adattatore alla famiglia AMD ATI. Nella parte inferiore della casella solitamente è presente il nome dell'acceleratore, oltre ad alcune delle sue caratteristiche. Questa volta l'attenzione è rivolta all'adattatore DVI-HDMI, che l'acquirente riceve “gratuitamente”.

Il retro della confezione descrive le funzionalità consigliate dell'acceleratore grafico requisiti di sistema, oltre a una breve presentazione delle tecnologie proprietarie, che può essere trovata in modo più dettagliato sul sito ufficiale di ASUSTeK Computer.

Il set di consegna è sufficiente per il pieno utilizzo dell'adattatore video. Oltre alla scheda video stessa, include:

  • Adattatore da Molex al connettore di alimentazione della scheda video a 6 pin;
  • Adattatore da S-Video a uscita componente;
  • Adattatore da DVI a D-Sub;
  • Adattatore da DVI a HDMI;
  • Ponte CrossFire;
  • CD con driver;
  • CD con documentazione elettronica;
  • Brevi istruzioni per l'installazione di una scheda video.

Esternamente, il modello testato è molto simile all'AMD ATI HD 3850. La scheda video stessa è realizzata secondo il progetto di riferimento su un PCB rosso ed è dotata di un sistema di raffreddamento a slot singolo che ne copre la maggior parte. L'unica differenza esterna tra la nostra scheda video è che l'involucro di plastica non copre scheda a circuito stampato completamente. Le dimensioni dell'adattatore sono compatte, la lunghezza è di 233 mm, che gli consentirà di adattarsi a quasi ogni custodia.

Sul retro sono presenti adesivi con il nome esatto dell'acceleratore grafico, numero di serie e numero di lotto.

Tutti i connettori sono protetti da cappucci in plastica, cosa non sempre visibile sugli adattatori video da . Il pannello di interfaccia ha due uscite DVI e un'uscita TV. Per collegare un monitor analogico sarà necessario utilizzare l'adattatore incluso nella confezione.

Ora diamo un'occhiata al sistema di raffreddamento della scheda video testata. Come abbiamo già descritto sopra, occupa uno slot ed è un piatto enorme. Al centro c'è un dissipatore di calore in rame adiacente alla GPU.

I chip di memoria e gli elementi di potenza sono in contatto con il substrato del wafer tramite pad termici.

Sotto l'involucro di plastica del sistema di raffreddamento si trova un radiatore costituito da sottili alette di rame collegate tra loro. I flussi d'aria dal radiatore passano attraverso queste alette verso la parete posteriore del case, quindi per la normale uscita dell'aria calda è necessario rimuovere la spina nel pannello posteriore accanto alla scheda video.

Il circuito stampato non è saturo di un gran numero di elementi, ma c'è un'innovazione: i chip di memoria si trovano in due righe sopra e a destra del chip grafico e una coppia di chip centrali di ciascuna riga è raggruppati.

La parte di potenza del tabellone non sorprende per la sua complessità. Nell'angolo superiore c'è un connettore di alimentazione per la scheda video a 6-pin, il che non sorprende considerando il consumo energetico dichiarato fino a 110 W. Secondo le specifiche, l'acceleratore video richiede un alimentatore con una potenza di 450 W o più.

La memoria è composta da otto chip GDDR3 prodotti da Qimonda (HYB18H512321BF-10) con un tempo di accesso di 1,0 ns, che consente loro di funzionare a frequenze fino a 2000 MHz. La frequenza effettiva di memoria del modello di scheda video testato è leggermente inferiore e ammonta a 1986 MHz, il che lascia come riserva uno stretto corridoio di frequenza. La capacità totale della memoria è di 512 MB e la larghezza del bus di scambio con essa non è cambiata ed è di 256 bit.

La frequenza operativa della GPU corrisponde al valore consigliato di 625 MHz. Come già descritto sopra, il chip RV770 stesso è realizzato utilizzando la tecnologia di processo a 55 nm, che ne determina un consumo energetico relativamente basso, nonostante includa 956 milioni di transistor. Il numero di processori shader unificati è stato aumentato a 800, le unità texture a 40 e il numero di ROP rimane invariato a 16. La frequenza operativa del chip in modalità 2D è ridotta a 500 MHz.

Per valutare l'efficienza del sistema di raffreddamento standard, abbiamo utilizzato l'utility FurMark e il monitoraggio è stato effettuato utilizzando GPU-Z versione 0.2.6. Lavorando a frequenze standard, il processore grafico si è riscaldato fino a 92° C, che non è così basso, soprattutto considerando la comparsa di un po' di rumore proveniente dal sistema di raffreddamento.

Test

I risultati dei test mostrano che è un concorrente diretto della GeForce 9800GTX e si avvicina quasi molto alle prestazioni degli acceleratori più costosi della GeForce GTX260. L'eccezione sono le applicazioni di gioco ottimizzate per l'architettura NVIDIA.

La scheda video è stata overcloccata utilizzando fondi regolari Centro di controllo ATI Catalyst. La scheda video è stata in grado di funzionare stabilmente a frequenze di 670 MHz per il core grafico (+45 MHz) e 2180 MHz (1090 MHz DDR) per la memoria video (+186 MHz).

Un risultato piuttosto modesto, inizialmente ci aspettavamo di più, ma vediamo quanto aumenteranno le prestazioni dell'adattatore.

Pacchetto di prova

Frequenze standard

Scheda video overcloccata

Guadagno di produttività,%

Futuremark 3DMark'05
Punteggio 3DMark
Punteggio SM2.0
Punteggio HDR/SM3.0

Serious Sam 2, qualità massima, NO AA/AF, fps

1024×768
1280×1024
1600×1200

Serious Sam 2, qualità massima, AA4x/AF16x, fps

1024×768
1280×1024
1600×1200

Call Of Juarez, qualità massima, NO AA/AF, fps

1024×768
1280×1024
1600×1200

Su un bus a 128 bit. La “velocità” che dimostrano è semplicemente imbarazzante da ricordare. Pertanto, potrebbero arrivare tempi difficili per ATI nel segmento di prezzo $ 150-250 sul mercato AGP, soprattutto se NVIDIA rilascia la GeForce 6600 in una variante AGP, il che è abbastanza probabile.

A questo punto abbandoneremo previsioni e ipotesi e ci concentreremo sul nuovo prodotto rilasciato dall'azienda canadese per astrarci temporaneamente dal mercato AGP e confrontare la RADEON X700XT con la GeForce 6600GT.

Specifiche ufficiali di RADEON X700XT/PRO (RV410)

  1. Nome in codice del chip RV410
  2. Tecnologia 110 nm (TMSC, low-k, connessioni in rame)
  3. 120 milioni di transistor
  4. Custodia FC (chip invertito, senza copertura metallica)
  5. Interfaccia di memoria a 128 bit (controller a doppio canale) (!)
  6. Fino a 256 megabyte di memoria DDR/GDDR-2/GDDR-3
  7. Interfaccia bus PCI-Express 16x integrata (forse in futuro ATI utilizzerà il proprio bridge PCI-Express->AGP 8x per produrre schede AGP)
  8. 8 processori Pixel, un'unità texture ciascuno
  9. Calcola, fonde e registra fino a 8 pixel completi (colore, profondità, pattern buffer) per ciclo di clock
  10. Calcola fino a 16 valori di profondità per ciclo di clock in modalità MSAA (ovvero MSAA 2x senza cicli di clock di penalità)
  11. Supporto per buffer modello "bidirezionale";
  12. MSAA 2x/4x/6x, con modelli di campionamento programmabili in modo flessibile. Compressione frame buffer e buffer di profondità nelle modalità MSAA. Possibilità di modificare i modelli MSAA da un fotogramma all'altro (AA temporale);
  13. Filtraggio anisotropico fino a 16x compreso
  14. 6 processori Vertex (!)
  15. Tutto ciò di cui hai bisogno per supportare pixel e vertex shader versione 2.0
  16. Funzionalità aggiuntive dei pixel shader basati sulla versione estesa 2.0, la cosiddetta. 2.0.b
  17. Piccolo caratteristiche aggiuntive shader di vertice, oltre la base 2.0
  18. Una nuova tecnica di compressione delle texture ottimizzata per la compressione di mappe normali a due componenti (il cosiddetto 3Dc, rapporto di compressione 4:1).
  19. Supporta il rendering su buffer in formato mobile, con precisione FP16 e FP32 per componente.
  20. Sono supportati i formati di texture 3D e FP (fluttuanti).
  21. 2 RAMDAC 400 MHz
  22. 2 interfacce DVI
  23. Interfaccia TV-Out e TV-In (quest'ultima richiede un chip di interfaccia)
  24. Possibilità di elaborazione video programmabile: i processori pixel vengono utilizzati per elaborare il flusso video (attività di compressione, decompressione e post-elaborazione)
  25. Acceleratore 2D con supporto per tutte le funzioni GDI+

Specifiche della scheda di riferimento RADEON X700XT

  1. Frequenza principale 475 MHz
  2. Frequenza di memoria effettiva 1,05 GHz (2*525 MHz)
  3. Bus di memoria 128 bit
  4. Tipo di memoria GDDR3
  5. Capacità di memoria 128 (o 256) megabyte
  6. Larghezza di banda della memoria 16,8 gigabyte al secondo.
  7. Il tasso di riempimento teorico è di 3,8 gigapixel al secondo.
  8. La velocità teorica di campionamento delle texture è di 3,8 gigatexel al secondo.
  9. Un connettore VGA (D-Sub) e un connettore DVI-I
  10. Uscita TV
  11. Consuma meno di 70 Watt di energia (ovvero sulla scheda PCI-Express è presente un connettore per cibo aggiuntivo non necessaria, si consiglia una fonte di alimentazione con una potenza totale di 300 watt o più)

Elenco delle carte attualmente rilasciate basate su RV410:

  • RADEON X700XT: 475/525 (1050) MHz, 128/256MB GDDR3, PCI-Express x16, 8 pixel e 6 vertex pipeline ($199 per una scheda da 128 MB e $249 per una scheda da 256 MB) - concorrente di NVIDIA GeForce 6600GT;
  • RADEON X700 PRO: 425/430 (860) MHz, 128/256MB GDDR3(?), PCI-Express x16, 8 pixel e 6 vertex pipeline ($149 per una scheda da 128 MB e $199 per una scheda da 256 MB) - concorrente NVIDIA GeForce 6600;
  • RADEON X700: 400/350 (700) MHz, 128/256 MB DDR, PCI-Express x16, pipeline da 8 pixel e 6 vertici ($99 per una scheda da 128 MB e $149 per una scheda da 256 MB) - concorrente di NVIDIA GeForce PCX5900 e soppianta giù precedente X600XT;

Come possiamo vedere, non ci sono particolari differenze architetturali rispetto all'R420, il che, tuttavia, non sorprende: l'RV410 è una soluzione ridimensionata (riducendo il numero di processori pixel e canali del controller di memoria) basata sull'architettura R420. La situazione è la stessa della coppia NV40/NV43. Inoltre, come abbiamo già notato, in questa generazione i principi architettonici di entrambi i concorrenti sono estremamente simili. Per quanto riguarda le differenze tra RV410 e R420, sono quantitative (mostrate in grassetto nel diagramma) e non qualitative: dal punto di vista architettonico il chip è rimasto praticamente invariato.

Quindi, ci sono 6 processori vertex (come era - il che è potenzialmente una piacevole sorpresa per le applicazioni DCC affamate di triangoli) e due (c'erano quattro) processori pixel indipendenti, ciascuno dei quali funziona con un quad (frammento di pixel 2x2). Come nel caso dell'NV43, PCI Express è un'interfaccia bus nativa (cioè implementata sul chip) e le schede AGP 8x (se ciò accade) conterranno un bridge PIC-E -> AGP aggiuntivo (mostrato nel diagramma), che dovrà essere sviluppato e prodotto dall'ATI.

Inoltre, notiamo un punto limite molto importante: un controller a doppio canale e un bus di memoria a 128 bit - come nel caso dell'NV43, discuteremo e studieremo ulteriormente questo fatto in dettaglio.

L'architettura dei processori vertex e pixel e del processore video è rimasta la stessa: questi elementi sono stati descritti in dettaglio nella nostra recensione della RADEON X800 XT. Ora parliamo di potenziali considerazioni tattiche:

Considerazioni su cosa è stato tagliato e perché

In generale, al momento, disponiamo della seguente linea di soluzioni basate sulle architetture NV4X e R4XX:

Pixel/
Vertice

Striscia di memoria

Tasso di riempimento
MPix.

Frequenza centrale

256 (4×64)
DDR3 1100

256 (4×64)
DDR3 1000

256 (4×64)
DDR700

256 (4×64)
DDR700

128 (2x64)
DDR3 1000

128 (2x64)
DDR 500-600-700

256 (4×64)
DDR3 1000/1100

256 (4×64)
DDR3 900

256 (4×64)
DDR700

128 (256 opzionale)(2x64)
DDR3 1050

256 (128 opzionale) (2x64)
GDDR3964

128 (256 opzionale) (2x64)
DDR700

Basato sull'architettura della generazione precedente

Non è vero che la foto è molto simile? Possiamo quindi prevedere che il punto debole della famiglia X700, come nel caso della 6600, saranno le grandi risoluzioni e le modalità con anti-aliasing a schermo intero, soprattutto su semplici applicazioni e strong - programmi con shader lunghi e filtraggio anisotropico senza (o, per ATI, possibilmente con) MSAA. Successivamente, verificheremo questa ipotesi con test di gioco e sintetici.

È difficile ora giudicare quanto fosse giustificato il passaggio a un bus di memoria a 128 bit: da un lato ciò riduce il costo del corpo del chip e riduce il numero di chip difettosi, dall'altro la differenza di prezzo di un circuito stampato per 256 bit e 128 bit non è grande ed è più che compensato dalla differenza di prezzo tra la memoria DDR normale e la memoria GDDR3 ad alta velocità ancora costosa. Probabilmente, dal punto di vista dei produttori di schede, una soluzione con bus a 256 bit sarebbe più conveniente, almeno se avessero la possibilità di scegliere, ma dal punto di vista di NVIDIA e ATI, che producono chip e spesso vendi memoria con loro, 128 bit è la soluzione più redditizia inclusa con GDDR3. Un'altra cosa è come ciò influirà sulla velocità: dopo tutto, esiste una potenziale limitazione delle eccellenti capacità del chip (8 pipeline, frequenza core di 475 MHz) a causa della larghezza di banda della memoria significativamente ridotta.

Tieni presente che NVIDIA ha riservato per ora il suffisso Ultra: dato il grande potenziale di overclock della tecnologia a 110 nm, possiamo aspettarci la comparsa di una scheda con una frequenza core di circa 550 o addirittura 600 MHz, 1100 o addirittura 1200 memoria (in futuro ) e il nome 6600 Ultra. Ma quale sarà il suo prezzo?

I processori vertex e pixel dell'RV410, a quanto pare, sono rimasti invariati, ma la cache interna potrebbe essere ridotta, almeno in proporzione al numero di pipeline. Tuttavia, il numero di transistor non è motivo di preoccupazione: date le dimensioni non così grandi delle cache, sarebbe più saggio lasciarli (come nel caso dell'NV43, compensando così la notevole mancanza di memoria Tutte le tecnologie di risparmio della larghezza di banda della memoria sono state completamente mantenute: compressione del buffer di profondità e buffer dei frame, ritaglio precedente con buffer di profondità gerarchico su chip, ecc.

È interessante notare che, a differenza dell'NV43, che, come abbiamo già detto, può eseguire il blending e registrare non più di 4 pixel risultanti per ciclo di clock, i pixel pipeline dell'RV410 sono pienamente coerenti con l'R420 a questo riguardo. Di conseguenza, nel caso di shader semplici con una trama, l'RV410 riceverà un vantaggio quasi doppio nella velocità di ombreggiatura. A differenza di NVIDIA, che dispone di una gamma abbastanza ampia di transistor ALU che eseguono post-elaborazione, verifica, generazione Z e fusione di pixel in formato flottante, l'RV410 ha combinatori più modesti e quindi il loro numero non è stato così ridotto. Tuttavia, nella maggior parte dei casi PRATICI, la larghezza di banda ridotta della memoria non consentirà di registrare 3,8 gigapixel completi al secondo, ma nei test sintetici la differenza tra RV410 e NV43 nel caso di una trama può diventare molto evidente.

Non meno interessante è la decisione di lasciare tutti e 6 i blocchi dei vertici. Da un lato, questo è un argomento nell'area DCC, dall'altro sappiamo che dipende soprattutto dai driver e, prima di tutto, da OpenGL, tradizionalmente i punti di forza di NVIDIA. In più si possono apprezzare il float blending e gli shader 3.0 - esattamente quello che manca all'ultima generazione di ATI. Pertanto la decisione sui 6 trasportatori vertici e il posizionamento attivo dell'RV410 sul mercato DCC appare controversa. Il tempo dirà se era giustificato.

Verificheremo tutti questi presupposti durante le successive prove sintetiche e di gioco.

Innovazioni tecnologiche

In generale, rispetto all'R420, non ce ne sono. Il che non è uno svantaggio di per sé. Rispetto a NV43:
  1. Fino a 8 pixel scritti nel frame buffer per ciclo di clock.
  2. Fino a 16 pixel MSAA (NV43 ne ha fino a 8)
  3. 6 blocchi di vertice, il che è encomiabile, ma può essere notato solo nei test sintetici e nelle applicazioni DCC
  4. Shader meno flessibili (2.0b)
  5. Nessuna miscelazione flottante, che però al momento potrebbe essere necessaria solo nelle applicazioni DCC.

Prima di studiare la scheda vera e propria, ecco un elenco di articoli dedicati allo studio dei nuovi prodotti precedenti: NV40/R420. Dopotutto, è già ovvio che l'architettura RV410 è il successore diretto delle tecnologie R420 (la potenza del chip è stata divisa a metà).

Materiali teorici e analitici e recensioni di schede video, che discutono le caratteristiche funzionali delle GPU ATI RADEON X800 (R420) e NVIDIA GeForce 6800 (NV40)

  • NVIDIA GeForce 6800 Ultra (NV40). Parte 1 - caratteristiche architetturali e test sintetici in D3D RightMark (versione di una pagina)
  • NVIDIA GeForce 6800 Ultra (NV40). Parte 1 - caratteristiche architettoniche e test sintetici in D3D RightMark (l'opzione è divisa in pagine)
  • NVIDIA GeForce 6800 Ultra (NV40). Parte 2 - Studio delle prestazioni e della qualità nelle applicazioni di gioco (versione di una pagina)
  • NVIDIA GeForce 6800 Ultra (NV40). Parte 2 - uno studio su prestazioni e qualità nelle applicazioni di gioco (l'opzione è divisa in pagine)
  • Battaglia di Borodino tra ATI RADEON X800 XT e NVIDIA GeForce 6800 Ultra - Immagine due: 450 MHz per la seconda e nuovi test per entrambe le schede (versione di una pagina)
  • Battaglia di Borodino tra ATI RADEON X800 XT e NVIDIA GeForce 6800 Ultra - Immagine due: 450 MHz per la seconda e nuovi test per entrambe le schede (l'opzione è divisa in pagine)
  • Battaglia di Borodino tra RADEON X800 e GeForce 6800: Immagine tre - Filtraggio trilineare (esempi sintetici)
  • Battaglia di Borodino tra RADEON X800 e GeForce 6800: Immagine quattro: test di filtraggio basati su RightMark (versione di una pagina)
  • Battaglia di Borodino tra RADEON X800 e GeForce 6800: Immagine quattro: test di filtraggio basati su RightMark (variante divisa in pagine)
  • Battaglia di Borodino tra ATI RADEON X800 e NVIDIA GeForce 6800 - Immagine cinque: test di filtraggio basati sui giochi (versione di una pagina)
  • Battaglia di Borodino tra ATI RADEON X800 e NVIDIA GeForce 6800 - Immagine cinque: test di filtraggio in base ai giochi (l'opzione è divisa in pagine)
  • Recensione di PowerColor RADEON X800 PRO Limited Edition, conversione hardware di X800 PRO in X800 XT Platinum Edition (versione di una pagina)
  • Recensione di PowerColor RADEON X800 PRO Limited Edition, conversione hardware dell'X800 PRO nell'X800 XT Platinum Edition (l'opzione è divisa in pagine)
  • Recensione di Leadtek WinFast A400 TDH, Leadtek WinFast A400 Ultra TDH basati su NVIDIA GeForce 6800/6800 Ultra (versione di una pagina)
  • Recensione di Leadtek WinFast A400 TDH, Leadtek WinFast A400 Ultra TDH basati su NVIDIA GeForce 6800/6800 Ultra (l'opzione è divisa in pagine)
  • Battaglia di Borodino tra ATI RADEON X800 e NVIDIA GeForce 6800 - Scena sei: Filtraggio nei giochi (continua) (versione di una pagina)
  • Battaglia di Borodino tra ATI RADEON X800 e NVIDIA GeForce 6800 - Scena sei: Filtraggio nei giochi (continua) (opzione divisa in pagine)
  • Un breve resoconto sul test di FarCry v.1.2 e sulla prima implementazione di Shader 3.0 nella realtà
  • Breve rapporto sui test operativi delle moderne schede 3D in DOOM III (X800PRO/XT, GF6800/GT/Ultra, 9800XT/5950U)
  • Chaintech Apogee GeForce 6800 Ultra basata su NVIDIA GeForce 6800 Ultra - Test in DOOM III con "ottimizzazioni"

Vorrei sottolineare ancora una volta che quella di oggi è solo la 1° parte, dedicata alle prestazioni dei nuovi prodotti. Vedremo i componenti di qualità più avanti nella seconda parte (qualità 3D e riproduzione video).

Quindi, scheda di riferimento RADEON X700XT.

Vediamo che il design del prodotto è più vicino all'X600XT, solo che a differenza di esso, l'X700XT ha degli slot sul retro del PCB per ottenere una soluzione da 256 MB. La scheda ha anche un ingombro per il montaggio di RAGE Theatre (VIVO).

Dispositivo di raffreddamento.

ATI RADEON X700XT

Questo è un frigorifero insolito. Perché si distingue così tanto? Ebbene, prima di tutto, ATI in precedenza non utilizzava radiatori chiusi per tali schede, attraverso i quali viene forzata l'aria. Inoltre, vale la pena prestare attenzione al fatto che le prese del radiatore non vengono affatto premute contro i chip di memoria! Sono progettati per raffreddare solo il nucleo! Il secondo è il materiale di cui è realizzato il radiatore: il rame. Pertanto, la carta sembra molto pesante quando viene presa in mano.

E soprattutto: il frigorifero è molto, molto rumoroso! Soprattutto sotto carico, quando la velocità della ventola aumenta. Ne parlerò di seguito.

Si può presumere che i produttori di tali schede condurranno esperimenti utilizzando i propri dispositivi di raffreddamento, perché installare sulle schede ciò che ATI ha ora proposto è estremamente irragionevole.

Beh, visto che il frigorifero è stato rimosso, significa che hanno visto il cristallo. Confrontiamo le dimensioni dei core dell'RV410 e dell'R350. Perché R350? Bene, perché questo chip ha anche pipeline da 8 pixel e ha anche 2 volte meno pipeline di vertici. Allo stesso tempo, la sua tecnologia di produzione è di 0,15 micron, mentre l'RV410 è già prodotto utilizzando un processo tecnico di 0,11 micron.

Ebbene, il risultato è molto prevedibile grazie alla riduzione delle dimensioni del nucleo dovuta a un processo tecnico più raffinato. Sebbene il numero di transistor nel cristallo non sia affatto diminuito. Eppure si può presumere che parte della cache o altri elementi tecnologici siano stati tagliati. La nostra ricerca mostrerà...

Ora torniamo alle temperature operative della scheda e al rumore del suo dispositivo di raffreddamento. Grazie alla regolare efficienza dell'autore di RivaTuner Alexey Nikolaychuk, la prossima versione beta interna dell'utilità supporta già RV410. Inoltre, è in grado non solo di modificare e controllare le frequenze della scheda, ma anche di monitorare la temperatura e la velocità della ventola. Ecco cosa abbiamo potuto vedere quando la scheda funzionava a frequenze standard senza alcun raffreddamento esterno in un case chiuso:

Nonostante le temperature non siano cresciute così intensamente e siano scese solo sotto i 60 gradi, il dispositivo di raffreddamento si è comportato in modo molto "nervoso", come mostrato nel campo inferiore con il grafico, dove è possibile vedere il funzionamento della ventola come percentuale del suo massimo possibile velocità. E, come ho già detto, questo crea un rumore molto sgradevole.

Poiché RivaTuner può controllare la ventola, ne regoleremo il funzionamento a un livello in cui il rumore non sia disturbante e sia quasi impercettibile: si tratta di circa il 55-56% della sua capacità di velocità di rotazione.

È ovvio che il riscaldamento del core e della scheda nel suo insieme non è aumentato troppo ed è ancora nella zona uso sicuro. Perché era necessaria una tale riassicurazione con il frigorifero? Non conosciamo ancora la risposta, speriamo di avere chiarimenti in merito dall'ATI.

Installazione e driver

Configurazioni banco prova:

    Computer basato su Pentium4 Overclockato 3200 MHz (Prescott)
    • processore Intel Pentium4 3600 MHz (225 MHz × 16; L2=1024K, LGA775); Hyper-Threading abilitato
    • Scheda madre ABIT AA8 DuraMAX basata sul chipset i925X;
    • RAM 1 GB DDR2 SDRAM 300 MHz;
    • disco rigido WD Caviar SE WD1600JD 160 GB SATA.
  • Computer basato su Athlon 64 3400+
    • processore AMD Athlon 64 3400+ (L2=1024K);
    • sistemico Scheda ASUS K8V SE Deluxe su chipset VIA K8T800;
    • RAM 1 GB DDR SDRAM PC3200;
    • Disco rigido SATA Seagate Barracuda 7200.7 da 80 GB.
  • sistema operativo Windows XP SP2; DirectX 9.0c;
  • monitor ViewSonic P810 (21") e Mitsubishi Diamond Pro 2070sb (21").
  • Driver ATI versione 6.483 (CATALYST 4.10beta); NVIDIA versione 65.76.
  • Schede video:
    1. NVIDIA GeForce FX 5950 Ultra, 475/950 MHz, 256 MB DDR, AGP
    2. NVIDIA GeForce 6800 Ultra, 425/1100 MHz, 256 MB GDDR3, AGP
    3. NVIDIA GeForce 6800 Ultra, 400/1100 MHz, 256 MB GDDR3, AGP
    4. NVIDIA GeForce 6800 GT, 350/1000 MHz, 256 MB GDDR3, AGP
    5. ASUS V9999GE (NVIDIA GeForce 6800, 350/1000 MHz, 256 MB GDDR3), AGP
    6. NVIDIA GeForce 6800, 325/700 MHz, 128 MB di memoria DDR, AGP
    7. NVIDIA GeForce 6800LE, 325/700 MHz, 128 MB di memoria DDR, AGP
    8. NVIDIA GeForce PCX5900, 350/550 MHz, 128 MB di memoria DDR, PCI-E
    9. NVIDIA GeForce PCX5750, 425/500 MHz, 128 MB di memoria DDR, PCI-E
    10. NVIDIA GeForce 6600GT, 500/1000 MHz, 128 MB GDDR3, PCI-E
    11. ATI EADEON 9800 PRO, 380/680 MHz, 128 MB DDR, AGP
    12. ATI EADEON 9800 XT, 412/730 MHz, 256 MB DDR, AGP
    13. ATI EADEON X800 XT PE, 520/1120 MHz, 256 MB DDR, AGP
    14. ATI EADEON X800 XT, 500/1000 MHz, 256 MB DDR, AGP
    15. ATI EADEON X800 PRO, 475/900 MHz, 256 MB di memoria DDR, AGP
    16. ATI EADEON X800 XT, 500/1000 MHz, 256 MB di memoria DDR, PCI-E
    17. ATI EADEON X600 XT, 500/760 MHz, 128 MB di memoria DDR, PCI-E

VSync è disabilitato.

Come possiamo vedere, per l'annuncio della RADEON X700, ATI ha preparato anche una nuova versione del set di driver. Il suo punto forte è CATALYST Control Center, tuttavia, questa utility è stata ufficialmente rilasciata in precedenza con 4.9. Ma perché questo particolare programma viene enfatizzato in questo materiale? La risposta è semplice: solo tramite CCC possiamo sfruttare nuove funzionalità come le ottimizzazioni regolabili in 3D.

Ma andiamo con ordine. Innanzitutto bisogna dire che CCC è molto capiente sia in termini di spazio sul disco rigido, sia in termini di invio su Internet. Inoltre la libreria Microsoft .NET 1.1, che pesa altri 24 megabyte. Ma senza di essa la SSS non funzionerà.

Tale felicità vale il costo del pompaggio? A prima vista sembra che ne valga la pena. Ma dobbiamo guardare più da vicino. Qui puoi scaricare (o aprire) un file GIF animato (920K!) che mostra tutte le impostazioni di CCC.

E qui toccheremo solo quelli interessanti dal punto di vista delle innovazioni nella gestione della grafica 3D:

Vediamo le impostazioni chiamate CATALYST A.I. Ciò include le cosiddette ottimizzazioni dei driver per vari giochi, nonché un piano generale per le ottimizzazioni dei filtri (trilineari e anisotropiche).

Ci sono tre gradazioni:

  1. SPENTO (Disabilita)- disabilitare del tutto le ottimizzazioni. Si promette che in questo caso non ci saranno ottimizzazioni con filtraggio e un algoritmo di ottimizzazione molto semplificato per le applicazioni.
  2. BASSO (Standard)- Vengono eseguite anche le ottimizzazioni per il funzionamento delle applicazioni e l'ottimizzazione del filtraggio semplice
  3. ALTO (Avanzato)- tutte le ottimizzazioni funzionano a pieno regime.

Di seguito, nella sezione di analisi della velocità, presenteremo i risultati dell'abilitazione di tutte e tre le modalità utilizzando l'X700XT come esempio in termini di prestazioni. Analizzeremo l'aspetto qualitativo nel materiale seguente.

Secondo i dati ATI, attualmente sono in uso ottimizzazioni per i seguenti giochi:

  • Destino 3: CATALIZZATORE A.I. sostituisce lo shader di illuminazione con un equivalente matematico, ma funziona in modo più efficiente. Questa ottimizzazione migliora le prestazioni in alcune scene.
  • Half Life 2 Engine (attualmente disponibile nella versione beta sorgente di Counter Strike): CATALIZZATORE A.I. include una migliore memorizzazione nella cache delle texture per questo motore, che consente una maggiore velocità, specialmente con l'anisotropia attiva risoluzioni elevate.
  • Torneo Unreal 2003/Torneo Unreal 2004: Il driver CATALYST è stato modificato in modo che il filtraggio anisotropico (o la sua combinazione con bi- e trilineare) sia sempre determinato dall'applicazione e il gioco stesso includa queste funzioni. Nei driver precedenti, se l'utente abilitava l'anisotropia tramite il driver, solo il primo livello di texture veniva elaborato dal trilineare. A partire da questa versione del driver, verranno elaborati tutti i livelli di texture. Per questi stessi giochi è garantito un livello migliorato di analisi delle texture (in particolare, questo vale per tutti i prodotti RADEON X) per aumentare le prestazioni senza perdere la qualità. Le serie RADEON 9800, RADEON 9700 e RADEON 9500 continueranno a funzionare nella stessa modalità (ovvero, come prima dell'A.I.)
  • Splinter Cell, Pilota di corsa, Prince of Persia, Crazy Taxi 3- per questi giochi ottimizzazioni dell'intelligenza artificiale si riducono a un severo divieto della modalità AA, che questi giochi non supportano (vale a dire, anche se l'utente ha accidentalmente forzato AA nel driver, con l'A.I. attiva non accadrà nulla, il driver rileverà il gioco stesso e lo spegnerà AA se necessario). In precedenza, in tali situazioni, si potevano osservare anomalie o addirittura arresti anomali del gioco.

Quindi mi sembra una cosa molto utile. Gli studi sulla velocità ce lo confermeranno. Ma scopriremo cosa succede alla qualità più tardi.

Se continuiamo a guardare CCC, forse una scheda interessante sarà un riepilogo di tutti gli interruttori principali:

Consiglierei di partire da questa scheda e di iniziare a gestire il 3D. Sebbene quelli in cui si regolano le singole funzioni abbiano i loro vantaggi, almeno nel fatto che attraverso un piccolo diagramma tridimensionale, costantemente ripetuto nella finestra, è possibile vedere l'attivazione di una particolare funzione.

Separatamente vorrei sottolineare la maggiore comodità nel controllo delle frequenze di campionamento (scansione verticale):

Bene, un'interfaccia più amichevole per lavorare con la TV:

Ma ci sono anche grossi svantaggi nel lavoro del CCC. Innanzitutto è una lentezza dell'interfaccia molto fastidiosa. Dopo aver cambiato l'uno o l'altro interruttore e premuto APLLY, il programma "schiaccia e salsicce" per circa mezzo minuto, a volte sembra congelato, quindi tutto viene ripristinato. Ciò può portare gli utenti nervosi allo stupore, alla psicosi o alla decisione di buttare via questo software.

Quindi i programmatori ATI hanno ancora qualcosa su cui lavorare. E altro ancora.

Nei DIAGRAMMI etichettati ANIS16x, i risultati per GeForce FX 5950 Ultra e GeForce PCX5900/5750 sono stati ottenuti con ANIS8x attivo.

Vorrei sottolineare in particolare che per impostazione predefinita le ottimizzazioni del driver sono abilitate e impostate su LOW/STANDART, quindi i principali confronti con la concorrenza sono stati effettuati in questa modalità operativa dell'X700XT.

Risultati del test

Prima di valutare brevemente la qualità in 2D, lo chiarirò ancora una volta al momento NON esiste una metodologia completa per la valutazione oggettiva di questo parametro i seguenti motivi:

  1. Per quasi tutti i moderni acceleratori 3D, la qualità 2D può dipendere molto dall'istanza specifica ed è fisicamente impossibile tenere traccia di tutte le carte;
  2. La qualità 2D dipende non solo dalla scheda video, ma anche dal monitor e dal cavo di collegamento;
  3. Negli ultimi tempi questo parametro è stato molto influenzato dagli abbinamenti: monitor-scheda, cioè ci sono monitor che non sono “friendly” con determinate schede video.

Riguardo copia testata, quindi insieme a Mitsubishi Diamond Pro 2070sb Il consiglio ha dimostrato ottima qualità nelle seguenti delibere e frequenze:

ATI RADEON X700XT1600x1200x85Hz, 1280x1024x120Hz, 1024x768x160Hz

Prove sintetiche D3D RightMark

La versione del pacchetto di test sintetico D3D RightMark Beta 4 (1050) che abbiamo utilizzato e la sua descrizione sono disponibili sul sito web

Elenco delle carte:

  • 6600 GT (500/500)
  • X700XT (475/525)
  • X800XT (520/560)
  • 6800 Ultra (400/550)

Innanzitutto esaminiamo se le caratteristiche dichiarate (8 pixel per orologio, ecc.) corrispondono alla realtà. COSÌ:

Test di riempimento dei pixel

Prestazioni di picco del campionamento delle texture (texelrate), modalità FFP, per diversi numeri di texture applicate a un pixel:

Tasso di riempimento del frame buffer (fillrate, pixelrate), modalità FFP, per diversi numeri di texture sovrapposte su un pixel:

Sono disponibili 8 pipeline a tutti gli effetti e la possibilità di registrare fino a 8 pixel per ciclo di clock. Vediamo quindi un vantaggio rispetto a NV43, ma solo nel caso di una texture o di nessuna texture. Nella maggior parte delle applicazioni del mondo reale, il numero di texture è maggiore o uguale a due e le carte mostreranno risultati simili.

Vediamo come la velocità dello shading dipende dalla versione dello shader:

Come previsto, nessuna sorpresa, tipica di tutti i chip più recenti. L'ampia larghezza di banda della memoria e la capacità di scrivere 8 pixel per clock consentono all'X700 di superare il 6600 nei test più semplici; man mano che la complessità dello shader o il numero di texture aumenta a valori ragionevoli, questa differenza si livella. Per scrivere nel framebuffer abbiamo:

E per campionare le texture:

Quindi, nessuna sorpresa, il vantaggio atteso dell'X700 sull'ombreggiatura a trama singola è stato confermato.

Test di velocità di elaborazione della geometria

Lo shader più semplice è il limite di throughput del triangolo:

Uno shader più complesso è una semplice sorgente di luce puntiforme:

E ora il compito più difficile, tre sorgenti luminose e, per confronto, in opzioni senza transizioni, con controllo statico e dinamico dell'esecuzione:

In termini di geometria, l'X700 dimostra risultati fenomenali per la sua classe: supera anche il 6800 Ultra, per non parlare del suo diretto concorrente, il 6600 GT. L’unica domanda è fino a che punto questo enorme potenziale geometrico sarà sfruttato, richiesto e rivelato dalle applicazioni. Dopotutto, nessun gioco moderno ha bisogno di una larghezza di banda così triangolare. Per quanto riguarda le applicazioni DCC, abbiamo già menzionato l'importanza dei driver (soprattutto OpenGL) e altri aspetti in cui il 6600 appare più vantaggioso. Comunque, congratulazioni ad ATI: hanno stabilito un nuovo standard per le prestazioni geometriche. Era da molto tempo che non vedevamo una vittoria così straordinaria su un concorrente diretto nei test sintetici.

Prova dei Pixel Shader

Il primo gruppo di shader è abbastanza semplice da eseguire in tempo reale, 1.1, 1.4 e 2.0:

Ora diamo un'occhiata agli shader complessi:

Totale per pixel shader:

Qui c'è una chiara parità: l'X700 non perde né vince sulla 6600 GT. Ma in questo caso dovresti prestare attenzione a fattori secondari, come il supporto SM3 e altre funzionalità aggiuntive delle ultime architetture NVIDIA. Sotto questa luce, i risultati dell'X700 non sembrano molto impressionanti: ATI avrebbe potuto trasformare il suo vantaggio in semplicità in un vantaggio in velocità, ma questa volta non è successo. Ma a parità di altre condizioni, il prodotto NVIDIA sembrerà più redditizio grazie al suo vantaggio tecnologico.

Prova dell'HSR

Innanzitutto, l'efficienza massima (senza texture e con texture) a seconda della complessità della geometria:



Non ci sono caratteristiche speciali, il comportamento del sistema HSR è abbastanza tipico per ATI, notevolmente, ma non fatalmente più efficiente (e più adattabile), a causa del livello di gerarchia aggiuntivo rispetto a quello di NVIDIA.

Test dei punti sprite.

È logico che nel caso di sprite di grandi dimensioni, ATI vince: la presenza di 8 blocchi di fusione e registrazione dei valori nel fotogramma influisce su di esso (ricordate che gli sprite vengono solitamente utilizzati per disegnare sistemi di particelle, il che implica quasi sempre la fusione alfa ). Nel caso di quelli piccoli, i chip concorrenti sembrano quasi uguali: il collo di bottiglia sono i driver e DirectX.

Prova MSAA

4x MSAA equalizza le capacità dell'X700 e del 6600GT, almeno in questo semplice test.

Si noti che nel caso di 2x, che è praticamente gratuito per entrambi i chip, l'X700 può (potenzialmente) sembrare un po' più potente nel caso di compiti semplici con texture singola.

Test sintetici in 3DMark03: Fillrate Multitexturing

Test sintetici in 3DMark03: Vertex Shader

Test sintetici in 3DMark03: Pixel Shader

Conclusioni sui test sintetici

Le patatine sono in gran parte uguali. A parità di altre condizioni, questo non è a favore di ATI: NVIDIA ha un maggiore potenziale di overclocking e un maggiore vantaggio architetturale. Due differenze principali:

  1. Un notevole ed encomiabile vantaggio di ATI sui compiti geometrici è fornito dal blocco geometrico non tagliato dell'R420
  2. Un fastidioso, ma non così spesso manifestato nelle attività reali, NVIDIA rallenta nell'ombreggiatura e nella scrittura nel frame buffer nel caso di semplici shader a trama singola.

Quindi, è impossibile individuare un leader solido; tutto principale punti interessanti abbiamo notato e commentato. Passiamo ora alle prove pratiche e vediamo se confermano le nostre ipotesi:

Risultati dei test: confronto delle prestazioni

Abbiamo utilizzato i seguenti strumenti:

  • Return to Castle Wolfenstein (MultiPlayer) (id Software/Activision) OpenGL, multitexturing, ixbt0703-demo, test delle impostazioni al massimo livello possibile, S3TC SPENTO, le configurazioni possono essere
  • Serious Sam: The Second Encounter v.1.05 (Croteam/GodGames) OpenGL, multitexturing, ixbt0703-demo, impostazioni di test: qualità, S3TC SPENTO
  • Quake3 Arena v.1.17 (id Software/Activision) OpenGL, multitexturing, ixbt0703-demo, le impostazioni di testing sono tutte al livello massimo: livello di dettaglio Alto, livello di dettaglio texture N. 4, S3TC SPENTO, la levigatezza delle superfici curve viene notevolmente aumentata utilizzando le variabili r_subdivisions "1" e r_lodCurveError "30000" (sottolineo che il valore predefinito di r_lodCurveError è "250"!), le configurazioni possono essere
  • Unreal Tournament 2003 v.2225 (Digital Extreme/Epic Games) Direct3D, Vertex Shader, Hardware T&L, Dot3, texture cubo, qualità predefinita
  • Test di gioco Code Creatures Benchmark Pro (CodeCult) che dimostra le prestazioni della scheda in DirectX 8.1, Shaders, HW T&L.
  • Unreal II: The Awakening (Legend Ent./Epic Games) Direct3D, Vertex Shader, Hardware T&L, Dot3, texturing del cubo, qualità predefinita
  • RightMark 3D v.0.4 (una delle scene del gioco) DirectX 8.1, Dot3, texture cubica, buffer ombra, vertex e pixel shader (1.1, 1.4).
  • Tomb Raider: Angel of Darkness v.49 (Core Design/Eldos Software) DirectX 9.0, demo Paris5_4. Il test è stato effettuato al massimo qualità consolidata, solo la profondità di campo PS20 è stata disattivata.
  • HALO: Combat Evolved (Microsoft) Direct3D, Vertex/Pixel Shader 1.1/2.0, Hardware T&L, massima qualità
  • Half-Life2 (Valve/Sierra) DirectX 9.0, demo (ixbt07. I test sono stati effettuati con il filtro anisotropico abilitato, nonché in modalità pesante con AA e anisotropia.
  • Tom Clancy's Splinter Cell v.1.2b (UbiSoft) Direct3D, Vertex/Pixel Shader 1.1/2.0, Hardware T&L, qualità massima (Molto alta); demo 1_1_2_Tbilisi
  • Call of Duty (MultiPlayer) (Infinity Ward/Activision) OpenGL, multitexturing, ixbt0104demo, test delle impostazioni tutto al massimo livello possibile, S3TC ATTIVO
  • FarCry 1.2 (Crytek/UbiSoft), DirectX 9.0, multitexturing, demo01 (ricerca) (avvia il gioco con l'opzione -DEVMODE), le impostazioni di test sono tutte Molto alte.
  • DOOM III (id Software/Activision), OpenGL, multitexturing, ixbt1-demo (33MB) impostazioni di test, tutte di alta qualità. Per ottimizzare e ridurre i jerk sono stati realizzati file di configurazione con caching.
  • 3DMark03 v.340 (FutureMark/Remedy), DirectX 8.1/9.0, multitexturing; Partita 1/2/3/4, SEGNI.

Inoltre, se qualcuno desidera ottenere i benchmark demo che utilizziamo, scrivi all'indirizzo e-mail dell'autore.

Quake3Arena





Le modalità più leggere senza AA e anisotropia: questo test è già troppo vecchio, ha quasi 5 anni, e quindi non vale la pena ottimizzarlo (dopo tutto, la maggior parte dei tester ha abbandonato da tempo il Q3). Ecco perché non vediamo quasi alcun impatto delle ottimizzazioni. L'X700XT e il suo concorrente 6600GT hanno quasi la stessa forza.

Con AA abilitato: qui l'X700XT mostra il suo vantaggio, perché debolezza il 6600 ha ritardato la scrittura nel frame buffer (8 pixel vengono scritti in 2 cicli di clock).

Con l'anisotropia attivata: non è successo niente del genere, i concorrenti erano alla pari.

L'ultima modalità più difficile con AA e anisotropia: la sconfitta della 6600GT è rimasta dovuta all'AA.

Quindi, in generale:

  • RADEON X700XT - vs. RADEON 9800 PRO (ATHLON64 3400+) vittoria assoluta, perdita solo a 1600x1200, dove la mancanza di larghezza di banda della memoria su un bus a 128 bit già influisce;
  • RADEON X700XT - rispetto alla GeForce 6600GT, tenendo conto della complessità del test e della raccomandazione di utilizzare AA, registriamo la vittoria dell'X700XT;
  • RADEON X700XT - rispetto a GeForce 6800LE (ATHLON64 3400+) lo stesso rispetto a 9800XT;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - vs. RADEON X700XT SENZA OTTIMIZZAZIONE niente;

Serious Sam: il secondo incontro





Le modalità più leggere senza AA e anisotropia: nonostante l'assenza di questo gioco nella lista dei giochi ufficialmente sottoposti ad ottimizzazioni da parte dei programmatori ATI, come vediamo, l'inserimento dell'A.I. tuttavia dà un effetto considerevole. Per quanto riguarda i principali concorrenti, vediamo una forte sconfitta nell'X700XT.

Con AA abilitato: le ottimizzazioni aumentano il loro effetto (nell'X700, ovviamente), e aiutano leggermente a sconfiggere il prodotto NVIDIA (anche se il motivo principale del successo è lo stesso del test precedente). È interessante notare che la disattivazione delle ottimizzazioni sul 6600 in questa modalità ha aumentato la velocità a 1600x1200 e non l'ha diminuita, come ci si aspetterebbe. Probabilmente c'è qualche tipo di difetto nel driver o in una funzionalità dell'applicazione.

Con l'anisotropia abilitata: le ottimizzazioni fanno semplicemente miracoli sull'X700 (a proposito, disabilitarle nella 6600GT ha fatto poco in termini di velocità), anche se nel complesso è ancora un forte perdente rispetto alla concorrente 6600GT.

L'ultima modalità più difficile con AA e anisotropia: un risultato ambiguo, poiché sconfitte e vittorie con AA e AF hanno portato il successo della X700XT alle alte risoluzioni (dove la 6600GT è debole a causa dell'AA), e la sconfitta alle basse risoluzioni, dove la velocità dei cali dei prodotti NVIDIA ad AA non è così catastrofico.

Quindi, in generale:

  • RADEON X700XT - rispetto a RADEON 9800 XT (ATHLON64 3400+) simile;
  • RADEON X700XT - contro la GeForce 6600GT tenendo conto dell'inclusione di AA e AF, assegniamo con riserva la vittoria alla X700XT;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE l'effetto è semplicemente enorme quando viene attivata l'anisotropia! Quindi c'è un motivo per studiare la qualità di questo gioco nel prossimo materiale;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

Ritorno al castello Wolfenstein (multigiocatore)





Le modalità più semplici senza AA e anisotropia: l'X700XT si danneggia facilmente anche con le ottimizzazioni più aggressive. Allo stesso tempo, come vediamo, in questo gioco l'X700 dà dividendi molto significativi (anche in questo caso, nonostante il gioco non sia nell'elenco dei giochi fornito da ATI).

Con AA abilitato: Ancora una volta, il forte calo della 6600GT con AA consente all'X700 di prendere il primo posto con un forte vantaggio sul suo rivale. A meno che tu non disattivi l'A.I. La superiorità dell'X700XT sta iniziando a svanire.

Con anisotropia abilitata: circa parità con la 6600GT, ma con ottimizzazioni attive. Se li spegni, l'X700XT perde la battaglia.

L'ultima modalità più difficile con AA e anisotropia: un forte vantaggio in AA dà all'X700XT il diritto di vincere.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) sconfitta;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE l'effetto è brillante dall'A.I., ed è chiaramente visibile che è proprio senza anisotropia attiva (la trilineare è stata davvero “respinta”? Dovremo esaminare la qualità qui pure);
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

Creature del codice





Le modalità più semplici senza AA e anisotropia: una vittoria per l'X700XT. Tuttavia, c'è un leggero effetto derivante dalle ottimizzazioni.

Con AA attivo: Immagine interessante, semplicemente estremamente interessante! Confrontando i concorrenti con le ottimizzazioni abilitate, vediamo un paradosso: l'X700XT, avendo iniziato a 1024x768 con un forte vantaggio,... ha perso rapidamente il suo vantaggio, tutto è arrivato alla parità. Se disattivi le ottimizzazioni, la vittoria è di nuovo per l'X700XT. Vediamo che con AA NVIDIA ora ha un effetto molto forte, ovvero un aumento della velocità in caso di ottimizzazione attiva del trilineare. E fino al 52%! E ancora motivo di ricerca della qualità.

Con anisotropia attivata: dalla parità alla vittoria per l'X700XT con le ottimizzazioni attivate, e sconfitta all'avversario con queste disattivate. Nella tabella delle percentuali qui sotto puoi vedere che ora l'AF ha portato al fatto che, con la sua ottimizzazione, la velocità dell'X700XT è aumentata del 40-60%. Esploreremo la qualità nella parte successiva.

L'ultima modalità più difficile con AA e anisotropia: tutto è ambiguo. E non c’è da stupirsi, dato che c’era tanta discordia quando AA e AF erano separate.

Quindi, in generale:

  • RADEON X700XT vs. RADEON 9800 PRO (ATHLON64 3400+) una brillante vittoria senza AA e AF, ed una sconfitta quando sono accesi, anche se se immaginate che questo sia un gioco, allora la risoluzione giocabile è solo 1024x768, mentre con X700XT tutto è magico;
  • RADEON X700XT - rispetto a RADEON 9800 XT (ATHLON64 3400+) simile;
  • RADEON X700XT - rispetto alla GeForce 6600GT chiamiamo condizionatamente una vittoria la X700XT, poiché dobbiamo prendere una via di mezzo, tenendo conto della giocabilità;
  • RADEON X700XT - rispetto a GeForce 6800LE (ATHLON64 3400+) AA ha eliminato tutti i vantaggi dell'X700, ma a 1024x768 (di nuovo!) il prodotto ATI è rimasto il leader, quindi abbiamo impostato la parità in modo condizionale;
  • RADEON X700XT CON OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE l'effetto è enorme, e soprattutto a scapito dell'AF;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE simile, sebbene le cifre di crescita siano addirittura aumentate;

Prestiamo attenzione all'aumento di velocità apportato dalle ottimizzazioni alla GeForce 6600GT!

Torneo irreale 2003





Le modalità più semplici senza AA e anisotropia: vittoria per l'X700XT, ci sono poche ottimizzazioni, ma danno un aumento di velocità.

Con AA abilitato: dato che le ottimizzazioni della 6600GT a 1600x1200 hanno portato ad un calo di velocità, se confrontate senza di esse, vediamo che l'X700XT, stranamente, ha perso contro il suo avversario alla stessa risoluzione, e con un punteggio molto alto. Sebbene l'inclusione di A.I. ha dato al prodotto ATI forti carte vincenti e, nel complesso, una vittoria. Ma ancora una volta dobbiamo esaminare la qualità.

Con l'anisotropia abilitata: l'ottimizzazione dell'AF nell'X700XT ha portato anche ad un netto aumento della velocità, quindi questa scheda vince. La questione della qualità è aperta, investigheremo.

L'ultima modalità più difficile con AA e anisotropia: nonostante il fatto che a 1600x1200 la perdita in AA abbia portato alla sconfitta finale dell'X700XT in questa risoluzione, nel complesso una vittoria per l'X700XT, poiché ci sono più vantaggi.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) parità senza AA+AF, forte vittoria con AF (A.I.!!!), sconfitta con AA (ovviamente, la larghezza di banda è troppo bassa) e vittoria assoluta;
  • RADEON X700XT - rispetto a RADEON 9800 XT (ATHLON64 3400+) simile;
  • Vittoria della RADEON X700XT contro la GeForce 6600GT;
  • RADEON X700XT vs. GeForce 6800LE (ATHLON64 3400+) sorprendente, ma vero: vittoria! L'impatto delle ottimizzazioni AF è così grande che ha portato l'X700XT in testa;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - vs RADEON X700XT SENZA OTTIMIZZAZIONE beh, qui è tutto chiaro, con AF attivo la velocità aumenta semplicemente di 1,5 volte se attivi anche l'A.I.;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

Questo gioco è in cima alla lista per la ricerca sulla qualità grafica quando l'intelligenza artificiale è abilitata.

Unreal II: Il Risveglio





Le modalità più leggere senza AA e anisotropia: l'X700XT è una leggera sconfitta, le ottimizzazioni danno poco ritorno.

Con AA abilitato: Come nei primi test, con AA la 6600GT perde bruscamente velocità, quindi la X700XT vince.

Con l'anisotropia abilitata: circa parità di forze, e anche la posizione dell'X700XT è leggermente migliore. Ma solo quando l'intelligenza artificiale è attiva; se la disattivi, l'X700XT perde.

L'ultima modalità più difficile con AA e anisotropia: AA segna e vince, leadership assoluta per l'X700XT.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • Vittoria della RADEON X700XT contro la GeForce 6600GT;
  • RADEON X700XT - rispetto a GeForce 6800LE (ATHLON64 3400+) Le ottimizzazioni AF hanno nuovamente dato alla X700XT il cappello di leader;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE l'attivazione di AF con ottimizzazioni abilitate ha dato un forte aumento di velocità;
  • RADEON X700XT con OTTIMIZZAZIONE ELEVATA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE simile, solo il guadagno è leggermente superiore;

RightMark 3D





Le modalità più semplici senza AA e anisotropia: vittoria per l'X700XT. E nota che l'attivazione dell'A.I. ha dato a questa carta ottime carte vincenti. Cos'è questo? Ottimizzazione per il nostro test? :-) O, in generale, alcuni cercano modi di rendering più economici? Ottimizzare solo una trilineare? - Dubbioso.

Con AA acceso: tutto è uguale

Con l'anisotropia attivata: sì, la stessa cosa qui.

L'ultima modalità più difficile con AA e anisotropia: potete intuire che non c'è altro da dire.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • Vittoria della RADEON X700XT contro la GeForce 6600GT;
  • RADEON X700XT CON OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE buoni dividendi;
  • RADEON X700XT con OTTIMIZZAZIONE ELEVATA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE l'aumento ha raggiunto addirittura il 34%!;

TR:AoD, Parigi5_4 DEMO





Le modalità più semplici senza AA e anisotropia: una facile sconfitta per l'avversario, qui il ruolo è giocato dalla pura velocità degli shader, e in termini di frequenza core è leggermente superiore nel 6600GT.

Con AA acceso: wow... l'X700XT è un completo fallimento! Cos'è questo? - Autisti? Sicuramente lo sono. Dopotutto, guarda, in questa modalità a 1600x1200, AA non funziona per l'X700XT. Anche se in altri giochi va tutto bene.

Con anisotropia abilitata: parità approssimativa.

L'ultima modalità più difficile con AA e anisotropia: sconfitta dell'X700XT.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) sconfitta;
  • RADEON X700XT - rispetto a RADEON 9800 XT (ATHLON64 3400+) simile;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) sconfitta;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE l'effetto è piccolo;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

Presta attenzione al vantaggio che ha la 6600GT sulle ottimizzazioni di questo gioco, nonostante il fatto che, secondo gli specialisti NVIDIA, abbiano rinunciato a lavorare su questo gioco molto tempo fa dopo il crollo del suo team di autori.

FarCry, demo01





QUI NON C'È NULLA NEMMENO DA CONSIDERARE separatamente! Un completo fallimento dell'X700XT sotto tutti gli aspetti! Ovviamente il gioco non ha "capito" nuova mappa(controllato sia sulla patch 1.1 che sulla 1.2), e qualcosa non è stato attivato per lei, quindi una sconfitta così inaudita!

Se una tale disgrazia non viene corretta dopo la messa in vendita della carta e la successiva patch del gioco, solo per un simile fiasco l'X700XT nel suo insieme può essere sconfitto. Anche se, come vediamo, le ottimizzazioni funzionano. E ancora toccano l'anisotropia. Cosa significa: la qualità deve essere controllata. Tuttavia, cosa controllare in caso di tale guasto..

Call of Duty, ixbt04





Le modalità più semplici senza AA e anisotropia: forza approssimativamente uguale degli avversari. Anche se le ottimizzazioni per entrambe le schede danno i loro frutti, il guadagno per l'X700XT è leggermente superiore.

Con AA abilitato: vittoria per l'X700XT! Ancora una volta, a causa del fatto che la 6600GT ha ritardato la scrittura nel frame buffer, il che ha un effetto molto negativo con AA.

Con l'anisotropia abilitata: il quadro è opposto, la 6600GT vince già.

L'ultima modalità più difficile con AA e anisotropia: in generale, dato che il vantaggio in AA ha dato più benefici alla X700XT, ha vinto questa carta.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - rispetto a RADEON 9800 XT (ATHLON64 3400+) simile;
  • Vittoria della RADEON X700XT contro la GeForce 6600GT;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) sconfitta;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE con AF e A.I. abilitati. L'X700 ottiene discreti aumenti di velocità;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

HALO: Combattimento Evoluto



Le modalità più semplici senza AA e anisotropia: sconfitta dell'X700XT

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro la sconfitta della GeForce 6600GT;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) vittoria (!!!);
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE abilitare le ottimizzazioni solo per AF ha avuto un effetto limitato;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

Half-Life2 (beta): demo di ixbt07



Con l'anisotropia attivata: l'X700XT è sconfitto e fortissimo!

L'ultima modalità più pesante con AA e anisotropia: e solo il fatto che la 6600GT sia affondata di nuovo in modo significativo con AA ha dato all'X700XT l'opportunità di strappare la vittoria. Anche se, ancora una volta, ci sono dei bug: a 1600x1200 AA di nuovo non funziona.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • Vittoria della RADEON X700XT contro la GeForce 6600GT;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) sconfitta;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE ottimo aumento della velocità quando l'intelligenza artificiale è abilitata. insieme ad AF;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

Cellula scissa



La X700XT è sconfitta sotto tutti gli aspetti (rispetto alla 6600GT).

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - rispetto a RADEON 9800 XT (ATHLON64 3400+) parità approssimativa;
  • RADEON X700XT - contro la sconfitta della GeForce 6600GT;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) un grande fiasco!;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - vs. RADEON X700XT SENZA OTTIMIZZAZIONE nessun effetto;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

DOOM III





Penso che non abbia senso considerare un confronto tra l'X700XT/6600GT per modalità, quando è chiaro che l'X700XT è un completo perdente!

Quindi, in generale:

  • RADEON X700XT contro RADEON 9800 PRO (ATHLON64 3400+) ottimo successo (tuttavia, come previsto, perché la frequenza è molto più alta);
  • RADEON X700XT - rispetto a RADEON 9800 XT (ATHLON64 3400+) simile (solo nelle alte risoluzioni la bassa larghezza di banda dell'X700XT ha rovinato la questione);
  • RADEON X700XT rispetto a GeForce 6600GT GUASTO COMPLETO X700XT;
  • RADEON X700XT - rispetto a GeForce 6800LE (ATHLON64 3400+) SIMILE;
  • RADEON X700XT con BASSA OTTIMIZZAZIONE - vs RADEON X700XT SENZA OTTIMIZZAZIONE wow!!! Scopri per quanta ottimizzazione questo gioco!!! Urge uno studio di qualità, anche se è molto, molto difficile, visto il numero colossale di scene buie dove si vede poco;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE analogo;

E fate attenzione a quanto siano trascurabili le ottimizzazioni per la 6600GT, anche se dobbiamo tenere conto che ciò si applica solo al trilineare e all'AF e non all'ottimizzazione per il gioco in generale (inclusa la sostituzione degli shader).

3DMark03:Gioco1





Le modalità più semplici senza AA e anisotropia: parità approssimativa nelle ottimizzazioni e perdita rispetto all'X700XT senza di esse. L'inclusione dell'intelligenza artificiale, soprattutto alta, paga i dividendi.

Con AA abilitato: vittoria per la X700XT, tenendo conto del comportamento disastroso della 6600GT con AA.

Con anisotropia abilitata: solo nella modalità di ottimizzazione High l'X700XT riesce a strappare la vittoria; negli altri casi, il leader è il 6600GT. Le ottimizzazioni per l'AF qui nell'X700 sono molto fruttuose. Dovremo indagare sulla qualità.

L'ultima modalità più difficile con AA e anisotropia: grazie ad AA, la carta ATI è riuscita a ottenere la maglia di leader, ma solo se l'ottimizzazione Alta era abilitata.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro la GeForce 6600GT vittoria solo con I.A. alta;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) sconfitta;
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE l'effetto è evidente;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE e qui è ancora più forte, dobbiamo studiare cosa succede alla qualità - tale ottimizzazione è gratuita?;

3DMark03:Gioco2





L'X700XT perde contro il suo concorrente 6600GT in tutte le modalità. Sebbene le ottimizzazioni aiutino in qualche modo, ma solo debolmente.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro la sconfitta della GeForce 6600GT;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) sconfitta;
  • RADEON X700XT con BASSA OTTIMIZZAZIONE - vs RADEON X700XT SENZA OTTIMIZZAZIONE solo con anisotropia attiva vediamo un discreto incremento dell'A.I.;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

Bisognerà vedere la qualità, anche se tutto il palco è buio, sarà difficile trovare qualcosa.

3DMark03:Gioco3





Le modalità più leggere senza AA e anisotropia: le ottimizzazioni sull'X700 funzionano con lo stesso potenziale del test precedente. E in generale possiamo dire che hanno dato poco, perché... L'X700 ha addirittura perso la battaglia con loro.

Con AA abilitato: quasi parità con l'avversario

Con anisotropia abilitata: simile

L'ultima modalità più difficile con AA e anisotropia: parità con la 6600GT con ottimizzazioni attive e sconfitta con queste disattivate.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro GeForce 6600GT impostiamo condizionatamente la parità;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) sconfitta;
  • RADEON X700XT con BASSA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE piccolo effetto;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - vs. RADEON X700XT SENZA OTTIMIZZAZIONE simile;

3DMark03:Gioco4





Una vittoria convincente e brillante per l'X700XT in tutte le modalità!

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • Vittoria della RADEON X700XT contro la GeForce 6600GT;
  • RADEON X700XT - contro GeForce 6800LE (ATHLON64 3400+) vittoria;

3DMark03: MARCHI





E di conseguenza, dopo la forte influenza del test precedente, l'X700XT vince quasi ovunque. Inoltre, le ottimizzazioni (A.I.) danno un discreto aumento.

Quindi, in generale:

  • RADEON X700XT - contro RADEON 9800 PRO (ATHLON64 3400+) vittoria;
  • RADEON X700XT - contro RADEON 9800 XT (ATHLON64 3400+) vittoria;
  • Vittoria della RADEON X700XT contro la GeForce 6600GT;
  • RADEON X700XT - rispetto alla parità condizionale GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con OTTIMIZZAZIONE BASSA - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE c'è un effetto;
  • RADEON X700XT con ALTA OTTIMIZZAZIONE - rispetto a RADEON X700XT SENZA OTTIMIZZAZIONE lo stesso;

conclusioni

Riassumendo:

  • Considerando le numerose, anche lievi, vittorie dell'X700XT sul suo principale rivale, la GeForce 6600GT, si potrebbero dire molte parole affettuose sul nuovo prodotto di ATI, ma...
  • L'oscuro e colossale fallimento della scheda in Far Cry, così come la prevista perdita in DOOM III (questi due giochi di successo!) e gli scarsi risultati in HL2 ci danno un motivo per non annunciare la leadership e non assegnarla all'X700XT
  • L'unico neo è il rumore più freddo che, come ha dimostrato la nostra ricerca, è ingiustificato.
  • Anche se è esagerato paragonare la GeForce 6600GT alla RADEON X700XT, i potenziali progressi tecnologici per il futuro come SLI e SM3 danno alla GeForce 6600GT maggiori possibilità di essere richiesta (principalmente SLI).
  • Non abbiamo esplorato l'overclock della X700XT per due motivi: mancanza di tempo e scarso potenziale (la scheda si blocca anche con il core impostato a 505 MHz, mentre il potenziale di overclock della 6600GT è ottimo, e quindi non sarà difficile per NVIDIA per rilasciare la prossima revisione della scheda con frequenze aumentate, eliminando così tutti i deboli vantaggi in termini di velocità dell'X700XT).
  • La dolcezza è che l'X700XT è in realtà più veloce dei suoi precedenti fratelli del campo High-End: 9800PRO/9800XT. E, naturalmente, GeForce FX 5950U. Non dimentichiamo però che si tratta di schede di settori diversi (PCX e AGP) e quindi non sarà del tutto corretto confrontarle. Tuttavia, quando si passa ad un'altra piattaforma, l'utente deve modificare la configurazione e un semplice confronto testa a testa risulterà errato.

Quindi, dovremo, in primo luogo, sperare che presto venga rilasciato un driver (o una patch per il gioco) che corregga un simile errore in Far Cry; in secondo luogo, ATI dovrà probabilmente frenare la sua fame di 249 dollari per una scheda da 256 MB e ridurre i prezzi di 40-50 dollari, in attesa del rilascio di una scheda più potente da parte di NVIDIA della stessa famiglia 6600.

In terzo luogo, ricordiamo tutti che per molto tempo i prodotti ATI sono stati i preferiti solo perché avevano una velocità notevolmente maggiore nei giochi shader rispetto ai concorrenti NVIDIA. E, per rimanere al primo posto, l'azienda canadese ha dovuto produrre un prodotto non con (condizionatamente) uguale produttività, ma con una percentuale notevole superiore al suo concorrente. E tieni anche conto del discreto margine per aumentare le frequenze nel 6600GT (che, stranamente, non si osserva nell'X700XT, sebbene entrambi i prodotti siano realizzati utilizzando lo stesso processo tecnico).

ATI ha ancora la sua "lampona" nel settore AGP, dove NVIDIA offre oggi solo il vecchio e debole FX 5700 per $ 150-200. Questa è una buona occasione ed è per questo che è strano vedere che i canadesi stiano ancora cercando di giocare in questo settore con l'utilizzo del 9800 PRO (che, come hanno dimostrato i test, chiaramente non è competitivo con le nuove soluzioni Middle), invece di introdurre anche qui la linea X700, approfittando del fatto che NVIDIA è attualmente molto indietro in questo settore. È stato possibile effettuare diverse revisioni dell'RV410 (con interfacce AGP e PCX). È un peccato, ma ATI ha praticamente mancato questo punto: è improbabile che l'azienda abbia il tempo di reagire prima della probabile comparsa delle nuove soluzioni AGP di NVIDIA.

È interessante notare che ora, con invidiabile coerenza nel dare priorità a PCI-E, sia questa che questa azienda stanno effettivamente costringendo gli assemblatori OEM a passare a nuova piattaforma, il che è molto vantaggioso per Intel e per niente vantaggioso per i consumatori ordinari, e in effetti per la maggior parte degli assemblatori OEM. A quanto pare, l'ombra di Intel incombe in qualche modo dietro la zelante iniziativa PCI Express di entrambi i leader grafici.

Bene, torniamo all'ATI. La leadership deve essere supportata costantemente! E non pubblicare un prodotto di successo una volta ogni 3 anni per poi riposare sugli allori. E se il Canada non lo capisce, perderà presto il cappello (o la maglietta?) del suo leader. Si potrebbe essere orgogliosi dell'X800XT PE, di quanto sia forte e potente, ma non è ancora disponibile per la vendita. Non si prende la terra con una corona di carta, e non le si giura fedeltà...

Continueremo la nostra ricerca, quindi non possiamo dare un verdetto definitivo; la ricerca di qualità darà il suo contributo, verranno rilasciati nuovi driver, eventualmente correggendo evidenti difetti. Inizieranno le vendite di massa, verranno lanciati prodotti di vari venditori, poi vedremo chi vince….

Ora per quanto riguarda CATALIZZATORE nuova versione e le sue innovazioni. È molto lodevole e piacevole vedere che agli utenti è stata data la possibilità di decidere da soli cosa vogliono semplificare e cosa no. Si tratta dell'A.I. Ma controlleremo anche cosa viene spento e acceso esattamente quando si passa da una modalità all'altra all'interno dell'A.I. Ecco perché non possiamo ancora emettere un verdetto. Ma riguardo alla lentezza del CCC stesso, vorrei dire parole molto forti, accese, con un chiaro taglio negativo. Perché è una vergogna quando su un computer potente un programma riesce ad essere tremendamente lento. Ci auguriamo che questo punto venga preso in considerazione dagli sviluppatori nel prossimo futuro. In generale, ripetiamolo, l'idea di A.I. molto buono, così come CCC in generale.

Puoi anche vedere le caratteristiche comparative più complete delle schede video di questa e di altre classi nei nostri 3DGiToges.

RICORDIAMO ANCORA che questa è solo la prima parte del nostro materiale multiparte sull'RV410! Restate sintonizzati per il seguito!

ATI Radeon HD5970 | introduzione

Sai qual è la cosa più spiacevole? Sviluppa il nuovo hardware che quasi tutti gli appassionati desiderano ottenere, quindi non rilasciarlo in quantità sufficienti. Tutto ciò porta automaticamente a prezzi più alti. E all'improvviso la Radeon HD 5850, con un prezzo consigliato di $249, inizia a costare molto di più. Soprattutto in Russia ().

Una scheda video con due processori grafici altamente desiderabili peggiorerà il problema di disponibilità delle schede video ATI Radeon HD 5800? Secondo l'azienda, i motivi per cui ha ritardato il rilascio di una scheda video Hemlock così potente erano proprio legati alla disponibilità. Oggi sono state prodotte abbastanza GPU Cypress per supportare le vendite di... questo "mostro".

ATI Radeon HD5970 | La dimensione conta

Quindi vi presentiamo la Radeon HD 5970. Forse il nome Radeon HD 5870 X2 rivelerebbe troppo la natura dual-GPU della scheda grafica - qualcosa che non è stato molto gradito in passato, quando vari problemi con scaling o stuttering sono stati osservati i giochi.

In ogni caso, davanti a noi Scheda video AMD con due GPU su un PCB, costruito sulla Radeon HD 5870 (ed è una risposta a Nvidia GeForce GTX 295 - questa scheda video è stata, fino ad oggi, la scheda video discreta più veloce sul mercato che si potesse acquistare). Tutti i dubbi sul prezzo sono stati fugati. Il prezzo consigliato è di $ 600. È divertente, ma le schede grafiche 5970 potrebbero essere un'opzione interessante per coloro che in precedenza ne stavano considerando un paio Radeon HD 5850 con CrossFire, che non è inferiore a $ 600 oggi.

L'approccio di AMD in questo caso è molto simile a quello di nVidia Scheda video GeForce GTX 295 un po' prima.

  1. Prendiamo due GPU di punta. Nel caso di nVidia si trattava di GT200 con 240 stream processor. Nel caso di AMD si tratta di Cypress con schede video Radeon HD 5870 con 1600 processori stream.
  2. Riduciamolo un po' velocità dell'orologio per mantenere il consumo energetico e la temperatura a un livello ragionevole.
  3. Otteniamo un profitto.

5970, 5870 e ora 5850.

La differenza più significativa è che se nVidia è cambiata e tagliata Indietro La pipeline GPU per eguagliare il livello di una coppia di GeForce GTX 275 (rimuovendo la porzione ROP e 64 bit dall'interfaccia di memoria originale a 512 bit), ATI Radeon HD 5970 è costituita da una coppia di chip Cypress a tutti gli effetti. Solo la velocità clock è stata abbassata (al livello della Radeon HD 5850), e ci sono ragioni per questo, come vedremo presto.

Il risultato è una scheda video massiccia con un singolo circuito che misura 30,5 centimetri di lunghezza - un paio di centimetri più lunga della già lunga Radeon HD 5870 e tre centimetri più lunga della ATI Radeon HD 4870 X2. Questo purtroppo sarà un fattore limitante per gli appassionati con casi stretti. Tuttavia, gli appassionati probabilmente saranno intelligenti e troveranno una via d'uscita.

Hemlock rappresenta il terzo dei quattro annunci previsti nella linea Evergreen, il primo dei quali è avvenuto all'inizio di settembre. Le schede video Cypress furono le prime ad arrivare sul mercato - Radeon HD5870 E Radeon HD5850. Il secondo annuncio è Juniper, all'interno del quale sono apparse le schede video Radeon HD 5770 e 5750. Il quarto annuncio dopo quello attuale avrà luogo nel primo trimestre del 2010: le schede video entry-level Cedar e Redwood arriveranno sul mercato.

"Mezzo d'oro".

Almeno sulla carta, la strategia del "golden mean" di AMD si è rivelata impeccabile.

In pratica, i problemi di disponibilità che affliggevano la Radeon HD 4770 poco dopo il suo annuncio si sono ripresentati con la Radeon HD 5870 e la Radeon HD 5850 (le schede video 5770 e 5750 sembravano più convenienti). Il colpevole si è rivelato essere la tecnologia di processo a 40 nm di TSMC e la bassa resa di chip utilizzabili.

Tutto ciò è molto spiacevole, poiché le carenze influiscono sui prezzi. AMD sostiene che solo la scheda grafica 5850 è stata vittima di un aumento di prezzo di 50 dollari (). La scheda video 5870 viene venduta sul mercato internazionale al prezzo promesso di 399 dollari (). Tuttavia, il prezzo consigliato di $599 per la scheda video Radeon HD 5970 è stato fissato tenendo conto dei problemi di disponibilità già noti. Quindi prevediamo che i prezzi non superino significativamente i 600 dollari.

Ora diamo uno sguardo più approfondito a ciò che ottieni per $ 600 - $ 100 in più rispetto alla Nvidia GeForce GTX 295 ().

ATI Radeon HD5970 | Creazione della Radeon HD 5970

Come la Radeon HD 4870 X2 e la Nvidia GeForce GTX 295 di seconda generazione, la ATI Radeon HD 5970 utilizza un singolo circuito stampato. Contiene due GPU Cypress con 2,15 miliardi di transistor e 1 GB di memoria GDDR5 ciascuna. Le GPU sono collegate da un bridge PLX PCI Express a 48 corsie. Il bridge è, per la maggior parte, lo stesso dell'ultima generazione Radeon HD 4870 X2. Tuttavia, è stato aggiornato per supportare PCI Express 2.1, tuttavia ciò non migliora le prestazioni.

Radeon HD5970 Radeon HD5870 Radeon HD5850
Numero totale di transistor 4,3 miliardi 2,15 miliardi 2,15 miliardi
Numero di processori di flusso 2×1600 1600 1600
Velocità di clock della GPU 725 MHz 850 MHz 725 MHz
Velocità dell'orologio della memoria 1000 MHz 1200 MHz 1000 MHz
Banda di memoria 2x128 GB/s 153,6 GB/sec 128GB/s
Numero di unità di trama 2×80 80 72
Tasso di riempimento della trama 116 Gtexel/s 68 Gtexel/s 52,2 Gtexel/s
Numero di unità operative raster (ROP) 2×32 32 32
Tasso di riempimento dei pixel 46,4 Pixel/s 27,2 Pixel/s 23,2 Pixel/s
Prestazioni computazionali 4,64 TFLOP 2,72 TFLOP 2.09 TFLOP
Consumo energetico massimo della scheda 294 W 188 W 170 W
Consumo energetico della scheda in modalità inattiva 42 W 27 W 27 W

Ciascuna delle due GPU è dotata di 1600 processori stream (ALU), 80 unità texture, 32 unità operative raster (ROP) e 1 GB di memoria GDDR5 collegata tramite un bus a 256 bit. Ma le frequenze della GPU e della memoria sono cambiate. La coppia di GPU Cypress funziona a 725 MHz, mentre la memoria funziona a 1 GHz. Quindi, a velocità di clock standard, puoi aspettarti che la Radeon HD 5970 sia la scheda grafica discreta più veloce della gamma AMD, ma sarà comunque più lenta della coppia Radeon HD 5870 in CrossFire.

Due GPU Cypress.

Ma le velocità di clock stock non dicono molto, secondo AMD.

La maggior parte della lunghezza della scheda può essere collegata all'alimentatore integrato necessario per far funzionare le due GPU Cypress. L'alimentatore è il luogo in cui sono state prese molte delle decisioni di progettazione della scheda.

Ad esempio, AMD ha abbassato le tensioni utilizzate e di conseguenza ridotto la velocità di clock della 5970 al livello della Radeon HD 5850. Ciò è stato fatto per garantire che il consumo energetico massimo della scheda video non superi i 294 W - appena entro i limiti specifiche elettromeccaniche di PCI-SIG da 300 W, con alimentazione fornita tramite slot fisico (75 W), un connettore di alimentazione ausiliaria a 6 pin (altri 75 W) e un connettore di alimentazione ausiliaria a otto pin (150 W). L'innalzamento delle frequenze al livello della Radeon HD 5870 (core da 850 MHz/memoria da 1200 MHz) porterebbe il consumo massimo della scheda più vicino a 375-400 W e taglierebbe immediatamente fuori il segmento di appassionati i cui alimentatori non sono dotati di due prese di alimentazione aggiuntive a otto pin.

5970.

Tuttavia, AMD afferma che la Radeon HD 5970 è stata progettata per supportare queste velocità clock. La scheda grafica utilizza GPU a bassa perdita appositamente selezionate che funzionano a temperature più basse rispetto alle loro controparti ad alta perdita. Al suo interno è installata la memoria GDDR5 da 5 Gbit/s con una frequenza del chip dichiarata di 1250 MHz. E, cosa forse ancora più importante, il sistema di raffreddamento personalizzato della camera di vapore fornisce prestazioni sufficienti per dissipare fino a 400 W di potenza.

L'unico collegamento mancante è l'utilità ufficiale di regolazione della tensione. Un passo del genere non è tipico per un produttore di GPU, ma AMD ci è venuta incontro e ci ha inviato un'utilità del genere con un progetto di riferimento che fornisce l'accesso alle impostazioni avanzate. Secondo un rappresentante dell'azienda, i produttori di schede video di terze parti forniranno i propri prodotti ai propri servizi di regolazione della tensione in modo che i possessori di potenti alimentatori possano overcloccare un po' di più le loro schede video - almeno al livello 5870, si spera.

Pubblicazioni sull'argomento