Molto si è detto a riguardo. Questa nuova serie di schede video era molto attesa, soprattutto per il fatto che ATI ha presentato le proprie soluzioni DirectX11 con mesi e mesi di anticipo, che in questo settore equivale a secoli e secoli.
Le nuove GPU di NVIDIA, denominate Fermi (in onore del fisico italiano), hanno avuto sin dall'inizio della propria progettazione l'obiettivo di tenere distaccata in termini di prestazioni e di efficienza l'eterna rivale ATI, che negli ultimi anni ha sempre sofferto di un ritardo nel campo prestazionale favorendo il lato economico.
La serie Radeon 5000 di ATI è basata sulle GPU della famiglia RV870 prodotte a 40nm (piu le dimensioni del processo produttivo sono ridotte più l'efficienza e le performance sono elevate, almeno di norma) ed ha debuttato il 23 Settembre 2009 (sì, 2009) con le Radeon HD 5870 e Radeon HD 5850, le prime con supporto alle nuove DirectX11.
il 27 Marzo 2010, in evidente ritardo, NVIDIA ha presentato le GeForce GTX 480 e GTX 470, le prime schede NVIDIA che supportano le DirectX11, con un processo produttivo a 40 nm, basate sulle GPU GF100 (con nome in codice Fermi, come detto prima). Durante le fasi di produzione notizie poco incoraggianti hanno permeato constantemente la rete. Problemi di ogni sorta erano segnalati con continuità fino dalle prime fasi di progettazioni. Senza farsi attendere i primi mega troll contro NVIDIA sono comparsi nella rete, chi diceva che avrebbero consumato e scaldato quanto una locomotiva a vapore, e chi più ne ha più ne metta.
Tutte queste voci erano ovviamente prive di significato, in quanto imprecise e non confermate. Lo erano fino all'arrivo delle schede nelle varie redazioni hardware della rete. In effetti molte di quelle voci erano molto vicine alla realtà. Nei test prestazionali a dire il vero, le NVIDIA si sono posizionate ai vertici delle schede video a signola GPU, ma in che modo?
A giudicare dai consumi energetici e dalla quantità di calore proveniente da sotto al dissipatore, sembrano delle GPU spremute fino all'osso applicando una sorta di overclock di fabbrica. Questo è un bene? Certo che no.
Il metodo utilizzato da NVIDIA non può che significare una cosa. Le GPU progettate da NVIDIA al termine dello sviluppo erano parecchio meno performanti delle controparti ATI, di conseguenza per evitare una figuraccia, NVIDIA ha pompato al massimo le GPU, overcloccandole al limite, in modo da "sistemare" almeno il lato prestazionale. Il processo produttivo a 40nm ha dato una bella mano ad NVIDIA, visto che ha permesso di tollerare frequenze e temperature molto più alte della media (ATI e le precedenti NVIDIA), se fossero state GPU a 55nm come le precedenti, non sarebbe stato possibile. Ovviamente era l'unica opzione valida, in quanto una totale riprogettazione della GPU non era una possibilità realistica, in quanto per farlo servono mesi e mesi, oltre che milioni e milioni di dollari, tempo e denaro che NVIDIA non può permettersi di spendere.
Dunque queste nuove GeForce sono effettivamente veloci, ma costano tanto, scaldano tanto, fanno tanto rumore nel case e l'incremento di prestazioni è piuttosto risicato. Le ATI vanno leggermente meno, ma costano meno, fanno molto meno calore e scaldano molto meno. Quindi qual'è la scelta giusta? Come al solito dipende da che uso fate del vostro PC.
NVIDIA in questi anni ha introdotto due nuove "tecnologie" che si sono dimostrate discretamente apprezzate dagli sviluppatori; sto ovviamente parlando di PhysX e di CUDA.
PhysX è un motore fisico utilizzato in diversi videogame. Mi spiego meglio. Tutti i calcoli che riguardano la fisica all'interno di un videogame (collisioni, etc etc) sono eseguiti dalla CPU, cosa che riduce le prestazioni che riguardano gli altri moltissimi calcoli che la CPU deve eseguire, come l'intelligenza artificiale, e molte altre cose. NVIDIA ha pensato bene di creare una tecnologia in grado di sgravare la CPU di questi calcoli, demandando gli stessi alla GPU della scheda video (generalmente quelle di ultima generazione lo supportano). La cosa funziona piuttosto bene ma non funziona con tutti i videogame. Infatti per poter utilizzare PhysX lo stesso deve essere implementato nel videogame dagli sviluppatori, cosa che richiede uno certo sforzo da parte loro, ed è proprio per questo che non tutti i videogame ce l'hanno. Inoltre (come anche CUDA) PhysX è utilizzabile solo con schede video NVIDIA di ultima generazione, quindi no ATI e no NVIDIA vecchiotte.
CUDA invece è un'altra tecnologia esclusiva NVIDIA, ma per il calcolo generico da GPU. In pratica con l'SDK fornito da NVIDIA si possono creare programmi in grado di usare la GPU (Graphics Processing Unit, quindi progettata per calcoli riguardanti la grafica) come se fosse una qualsiasi CPU (Central Processing Unit, progettata per eseguire calcoli di qualsiasi tipo). Sono già uscite diverse applicazioni con diverse funzionalità, che vanno dalla codifica audio/video, al rendering e mille altre ancora. L'impementazione più importante per me è la nuova funzionalità di Mental Ray, che è integrato nel nuovo 3ds Max 2011, per il rendering in tempo reale, ed usa proprio CUDA! Putroppo anche CUDA come PhysX è utilizzabile esclusivamente con schede video NVIDIA.
Utilizzate il PC per giocare e non cercate prestazioni esorbitante? Prendete ATI.
Utilizzate il PC per giocare e volete la massima potenza? Prendete un paio di ATI 5850 in parallelo (300 dollari l'una) per spendere il 20% in più ripetto ad una nuova GTX480 ed ottenere prestazioni nettamente superiori a quest'ultima.
Netta sconfitta NVIDIA? Sì, o quasi.
Soprattutto per CUDA io (e come me anche gli altri grafici 3d) sono abbastanza restio ad abbandonare NVIDIA a favore di ATI, il rendering in tempo reale sarebbe qualcosa di utile per me e il passaggio ad ATI me ne priverebbe completamente. E questo è male!
Quindi io cosa farò? Nonostante io sia sempre in prima linea per l'hardware enthusiast questa volta mi sa che passo. Le Fermi non mi piacciono neanche un po, non tanto per le prestazioni o il prezzo (che sono comunque elevati, nel bene e nel male) ma per il consumo spropositato, il rumore ed il calore generato. A questo punto si spende meno e si ottiene di più mettendo in SLI (in parallelo) due GTX 285 ottenendo anche un calore/rumore/consumo (almeno in idle) molto più contenuto.
Quindi, dopo tutto questo discorsone, io cosa farò? Non lo so. Verso fine anno circa (molto circa) dovrei cambiare il PC di casa, e gli obiettivi sono il Six Core di Intel, un SSD, un 22 pollici Eizo che di conseguenza mi costringe ad avere una potenza video piuttosto elevata. Probabilmente prenderò un alimentatore bello potente e ci metterò o un paio di GTX 285 o un paio di GTX 295 in SLI, proprio per riuscire a masticare per bene risoluzioni così alte.