Produzione di Papertown in un aeroplano virtuale con l’utilizzo dei sistemi Mo-Sys Produzione di Papertown in un aeroplano virtuale con l’utilizzo dei sistemi Mo-Sys
Mo-Sys™ Engineering, ha recentemente lanciato il suo nuovo ufficio Onset VP Services con sede a Los Angeles per fornire una soluzione in outsourcing per... Produzione di Papertown in un aeroplano virtuale con l’utilizzo dei sistemi Mo-Sys

Mo-Sys™ Engineering, ha recentemente lanciato il suo nuovo ufficio Onset VP Services con sede a Los Angeles per fornire una soluzione in outsourcing per le società di produzione alle prime armi con la produzione virtuale. Ciò ha consentito agli specialisti creativi della casa di produzione statunitense Papertown di creare in modo rapido e accurato un ambizioso progetto di produzione virtuale con un aereo passeggeri in un hangar.

Papertown è una società di produzione con specializzazione in computer grafica (CGI). Il suo cliente, Business Made Simple, una delle organizzazioni di coaching manageriale di maggior successo in Nord America, aveva l’idea per un corso di formazione manageriale basato sull’analogia che ogni azienda dovrebbe funzionare come un aeroplano, quindi un aereo in un hangar è stato scelto per il concept del video.

Noleggiare e preparare un aereo per le riprese all’interno di un hangar sarebbe stato costoso e poco pratico, quindi Papertown ha proposto di usare uno schermo verde e di creare l’aereo, l’hangar e altri oggetti in CGI. È qui che è entrato in gioco Mo-Sys Onset VP Services, apportando le competenze di produzione virtuale necessarie.

Avendo appena aperto una filiale a Los Angeles che offre servizi di produzione virtuale per assistere in questo nuovo modo di girare, il team di Mo-Sys Onset VP Services è stato in grado di aiutare Papertown a creare uno studio di produzione virtuale per unire la CGI e gli elementi del mondo reale. Questo ha permesso a Papertown di concentrarsi sull’imaging e sulla narrazione senza la perdita di tempo di organizzare il proprio flusso di lavoro di produzione virtuale o la necessità di conoscenze avanzate della tecnologia più recente.

Mo-Sys, conosciuta in tutto il mondo per la specializzazione nel monitoraggio della telecamera, nella robotica delle immagini e nelle soluzioni di produzione virtuale, ha creato StarTracker per fornire un monitoraggio della telecamera a 6 assi di precisione, consentendo il movimento 3D in una scena di produzione virtuale. In combinazione con i dati dell’obiettivo in tempo reale estremamente accurati, il set di dati StarTracker completo tramite Mo-Sys VP Pro guida la grafica virtuale dell’Unreal Engine in modo che emulino accuratamente le riprese della telecamera reale, offrendo scene virtuali convincenti.

Sensori sul soffitto per il tracking delle camere

Utilizzando la capacità di StarTracker di integrare la grafica virtuale nel mondo reale, non solo il direttore della fotografia poteva inquadrare facilmente ogni ripresa perché l’immagine composita era disponibile nel mirino, ma il team di produzione era in grado di registrare l’output finito, eliminando la necessità di tempo peer il compositing in post-produzione. In effetti, Papertown è stata in grado di girare l’intera serie di video di tre ore e decine di terabyte di filmati cinematografici in soli due giorni di studio.

“Non avevamo esperienza con i prodotti Mo-Sys prima di questo servizio, ma abbiamo avuto tutto il supporto di cui avevamo bisogno per mettere rapidamente al lavoro la nostra creatività”, ha affermato il fondatore di Papertown e direttore creativo esecutivo Julian Smith. “Essere in grado di utilizzare StarTracker, VP Pro e Unreal insieme ha offerto un valore aggiunto enorme ai nostri clienti. Ha portato la nostra CGI fotorealistica a un livello completamente nuovo. Questo è un punto di svolta. Papertown spinge sempre oltre i confini con nuove idee e tecnologie e siamo grati di aver collaborato con un team come Mo-Sys che fa lo stesso”.

Michael Geissler, CEO di Mo-Sys, ha aggiunto: “Sia che si tratti di televisione, film o aziende, i produttori cercano la massima qualità possibile con la massima produttività. Riprendere il pixel finale in questo modo è una spinta enorme. Ma può essere fatto realisticamente solo con il monitoraggio di precisione della telecamera e dell’obiettivo, il compositing in tempo reale e un operatore di produzione virtuale che abbia familiarità con l’Unreal Engine”.

redazione milano