mercoledì 21 ottobre 2009

RealityServer: ray-tracing via cloud computing basato sulle GPU

NVIDIA e MentalRay presentano una soluzione di rendering in ray-tracing da remoto, che sfrutta un cluster Tesla di GPU NVIDIA via CUDA.

NVIDIA ha annunciato la disponibilità di un servizio di rendering in cloud computing, chiamato RealityServer. Alla base la volontà di poter fornire ai propri clienti una potente soluzione di rendering 3D in ray-tracing non in locale, facendo in modo che i tempi di generazione di scene estremamente complesse vengano sensibilmente ridotte, non obbligando l'utente professionale ad avere nel proprio ufficio una stazione di rendering completa ma semplicemente utilizzando un dispositivo connesso al web per accedere ai risultati delle elaborazioni inviate.

Due sono gli elementi richiesti: da un lato, quello del client, un PC che sia connesso al web; dall'altro, un cluster di server che sfrutti la potenza delle GPU NVIDIA per eseguire le numerose elaborazioni parallele richieste dal rendering in tempo reale. La componentistica hardware alla base di RealityServer è ovviamente un pacchetto di soluzioni della famiglia Tesla, indicata come Tesla RS. Sono 3 le versioni di soluzioni Tesla RS:

  1. 8 GPU Tesla, con un massimo di 10 utenti contemporaneamente presenti ad accedere al sistema;
  2. 32 GPU Tesla, con un massimo di 100 utenti ad accedere contemporaneamente;
  3. 100 GPU Tesla, con un massimo di 1.000 utenti ad accedere contemporaneamente.

Mental Ray ha sviluppato la tecnologia iray, quella che viene definita come il primo sistema di rendering fisicamente corretto, per poter eseguire ray-tracing sfruttando non CPU ma GPU. Il software è ovviamente basato su CUDA e sfrutta il cluster di GPU della serie Tesla RS per eseguire le elaborazioni richieste per il rendering in cloud.

Quali sono i potenziali ambiti di utilizzo di questa nuova tecnologia NVIDIA? Per il produttore americano gli scenari sono quelli dell'architettura d'interni, del design delle abitazioni e dei prodotti, dell'ingegnerizzazione e della costruzione di elementi complessi, del training remoto su prodotti e ambienti. In generale l'ambito di utilizzo di riferimento è quello che prevede il rendering in ray-tracing di scene estremamente complesse, con le quali sia indispensabile ridurre al massimo i tempi di elaborazione: si pensi ad esempio al rendering di una cucina in uno studio di arredamento, eseguito in pochi secondi di fronte al cliente direttamente sullo schermo di un tablet PC.

Il rendering via ray-tracing viene eseguito in tempo reale? Stando ai risultati della soluzione demo mostrata da NVIDIA nella conferenza di presentazione non possiamo parlare di una risposta immediata del sistema; c'è un certo delay, prevedibile e assolutamente accettabile, richiesto per completare l'elaborazione della scena affinché venga visualizzata da browser sul dispositivo remoto. Parte della latenza potrebbe essere giustificata anche dalla qualità della connessione web utilizzata: su questo aspetto NVIDIA ha puntualizzato come la bandwidth richiesta sia inferiore quella di un flusso video ad alta definizione inviato da Youtube, quindi non tale da generare problemi con le connessioni broadband disponibili al momento.

RealityServer verrà commercializzato a partire dal prossimo 30 Novembre, inizialmente con cluster Tesla da 8 GPU in parallelo che potranno scalare a livelli di complessità sempre più elevati. Ulteriori informazioni su RealityServer sono disponibili sul sito del produttore americano a questo indirizzo.

Fonte: http://www.hwupgrade.it

:Q____ Peccato solo che l'applicazione nel mondo "reale" potrebbe essere un pò limitata.