GeForce Italia

Clicca per ingrandire l'immagine
Clicca per ingrandire l'immagine
Clicca per ingrandire l'immagine
Clicca per ingrandire l'immagine
Clicca per ingrandire l'immagine
Provati per voi

NVIDIA GeForce GTX TITAN

di Redazione - 21/02/2013

Costruttore: NVIDIA
Formato: PCI-Express 16x 3.0
Chip grafico: NVIDIA GeForce GTX TITAN
Memoria on board: 6 GB GDDR5
Prezzo: € 1000,00 IVA inclusa

Link utili: http://www.nvidia.it

Potente e silenziosa

Ad un anno dal lancio della GeForce GTX 680, NVIDIA rinnova la sua offerta grafica di fascia alta con l'uscita della GeForce GTX Titan. Un vero rinnovo? Niente affatto: con la GeForce GTX Titan, NVIDIA propone in effetti la scheda grafica a singola GPU più potente sul mercato. Piuttosto che creare una nuova architettura per proporre una nuova gamma, NVIDIA ricicla il GK110, un chip concepito per le sue schede grafiche professionali Tesla e Quadro.

Il nome Titan, richiama direttamente il famoso supercomputer che lo scorso 12 novembre, ha conquistato il titolo di supercalcolatore più veloce al mondo, equipaggiato da NVIDIA con le sue Tesla K20X. La GPU GK110 è sempre basata sull'architettura Kepler inaugurata un anno fa con la GeForce GTX 680. Non entreremo nei dettagli dell'architettura, già affrontata a suo tempo con questo articolo.

La GK110 è prossima alla GK104. La prima conta su di un maggior numero di unità di calcolo, uno dei punti di forza del chip. Rispetto alla GPU GK104 che anima la GeForce GTX 680, la GK110 vede il suo numero di GPC (Graphic Processing Cluster) passare da 4 a 5. Ogni GPC adotta non 2 SMX, ma 3 SMX. In totale quindi, la GK110 dispone di 15 SMX, ogni SMX adotta 192 core CUDA, ovvero le unità di calcolo del chip capaci di lavorare sulle istruzioni 3D.

Fisicamente, la GK110 conta su 15 SMX e dunque 2880 potenziali core CUDA, ma NVIDIA ha scelto di attivarne 14, limitando il numero delle unità di calcolo a 2688. Con 14 SMX, la GK110 conta su 224 unità di texture e 48 ROP (unità specializzate degli ultimi trattamenti da apportare ai pixel, come l'anti-aliasing ad esempio). Riguardo all'interfaccia di memoria, si passa da un bus a 256 bit della GeForce GTX 680 ad un bus a 384 bit per la GK110, permettendo un guadagno notevole in termini di banda passante teorica. NVIDIA dota inoltre la scheda di 6 GB di memoria GDDR5. Con una frequenza della memoria a 1503 MHz, la GPU GeForce GTX Titan beneficia di una banda passante teorica di memoria impressionante: ben 269 GB/s.

La GK110 non gestisce ancora le DirectX 11.1 ma solo la versione 11, ma conserva le unità di calcolo a doppia precisione inizialmente impementate sui chip Quadro e Tesla. NVIDIA permette di attivare le unità in questione e di utilizzarle: questo sarà particolarmente utile per chi vuole utilizzare la Titan non solo per i giochi, ma anche come mostro di potenza di calcolo per le appplicazioni GPGPU. Contrariamente ad una GeForce GTX 680 che dispone di 8 unità a doppia precisione per SMX, Titan utilizza 64 unità a doppia precisione per SMX. Può trattare quindi i dati in doppia precisione ad un terzo della banda a singola precisione, contro 1/24esimo della GK104. NVIDIA dichiara inoltre una potenza di 1 Teraflop in doppia precisione. Per attivare queste unità su Titan bisogna operare nei driver ed attivare l'opzione "CUDA – Double Precision". Attenzione però, con questa configurazione, la frequenza di funzionamento del chip sarà ridotta.

Con un tale aumento del numero di unità di calcolo, la GK110 è molto massiccia. Sempre prodotta a 28nm da TSMC, adotta 7,1 miliardi di transistor! Pensate che un processore Intel con 8 core, come il Core i7 3960X, adotta solo 2,3 miliardi di transistor. NVIDIA annuncia una frequenza di 837 MHz per la GPU con una frequenza turbo di 876 MHz. Quest'ultima può sorpassare il GHz in base alle condizioni di funzionamento grazie alla tecnologia GPU Boost. Quest'ultima evolve alla versione 2.0.

Con la GeForce GTX 680, NVIDIA introdusse  GPU Boost. Questo meccanismo di overclocking automatico fu oggetto di molte discussioni; se il concetto di base, ovvero l'aumento dinamico della frequenza di funzionamento della GPU è apprezzabile, le modalità di questo overclocking dinamico sono discutibili. Il principale problema è la variante da un esemplare ad un altro e dunque l'efficacia stessa di GPU Boost.

Cosciente di alcuni limiti, NVIDIA approfitta della GeForce GTX Titan per inaugurare la seconda versione della tecnologia GPU Boost. Il principio di base resta lo stesso: aumentare la frequenza del chip grafico per migliorare le sue performance. Nella prima versione, l'aumento della frequenza del chip era limitato al suo consumo, che era predeterminato. GPU Boost 2.0 non prende più il TDP come valore di riferimento, ma la temperatura, fissata a 80° C. Il chip vede le sue frequenze e tensioni aumentate quando questo resta entro gli 80° C. Oltre questa temperatura, l'overclocking automatico non esiste più. Gli utenti possono modificare la temperatura di riferimento al ribasso o al rialzo attraverso utility di terze parti come EVGA PrecisionX per esempio. NVIDIA però, non ha ritenuto opportuno includere questa opzione nei suoi driver. La temperatura massima autorizzata da PrecisionX è di 95° C.

Links
 

Potente e silenziosa >

 
 

Un concentrato di tecnologia e alta qualità costruttiva >

 
 

Configurazione di prova e test - Conclusioni >

 




| << | < | 1 2 3 | > | >> |

torna su

HOME PAGE | DAL MONDO NVIDIA | TIPS AND TRICKS | DOWNLOAD | CONTATTI | LINK UTILI | Feed RSS news in formato XML
Copyright © 2005. Tutti i diritti sono riservati. Info legali.
È vietata la riproduzione anche parziale di contenuti e grafica, in qualsiasi forma o supporto.
powered by AliePro