Disney propone un sistema per la stampa in 3D a colori

Comp Thermoforming

Non più soltanto Pippo e Paperino. Dai laboratori della Disney Research di Zurigo, divisione tecnologica del grande colosso dell’intrattenimento associata al politecnico del capoluogo del cantone omonimo, provengono ogni anno alcune significative invenzioni dalle evidenti potenzialità commerciali, che tuttavia sono così distanti dal quotidiano, e di avveniristica concezione, da ritrovarsi tranquillamente associabili al mondo della scienza pura. Robot che camminano sui muri, algoritmi semplificati per il movimento della stoffa, sistemi virtuali per il calcolo dei castelli di sabbia, approcci alternativi per animare le marionette… Tutto questo presentato al pubblico, spesso durante prestigiose fiere internazionali della tecnologia, con un’assoluto candore e completezza, senza porsi il problema di proteggere la propria proprietà intellettuale, con finalità difficilmente associabili alla mera generazione di un profitto. Eventi come il SIGGRAPH (Special Interest Group on GRAPHics and Interactive Techniques) la cui edizione estiva del 2016 si è appena conclusa presso la città di Anaheim, nell’Orange County californiana, e per la quale Disney ha nuovamente presentato una proposta che si colloca nel campo tanto spesso rivisitato della stampa tridimensionale. Si tratta, essenzialmente, della risposta alla seguente domanda: sarebbe possibile, per un hobbista, una piccola azienda o un dipartimento universitario, creare con semplicità un quantità variabile di oggetti, dalla forma altamente specifica e per di più, in technicolor? Fino ad oggi, la risposta sarebbe stato un chiaro ed immediato “no”. Perché anche con l’attuale semplificazione intercorsa del processo per creare dei prodotti a partire dall’estrusione e/o deposizione della plastica, successivamente al raffreddamento di quest’ultima non è possibile che prevedere una seguente procedura per limare, togliere le parti in eccedenza e quindi, solo successivamente, applicarsi di buona lena con le proprie vernici d’ordinanza. Non per niente, uno degli ambiti in cui l’impiego di simili macchinari ha colpito maggiormente il grande pubblico è la realizzazione di miniature per i giochi da tavolo, per le quali è già previsto, è viene considerato addirittura desiderabile, l’uso diretto del pennello da parte dell’utente finale. Ma un conto è fare le cose per scelta, ed un altro perché non ci sono alternative. Ed una valida soluzione, per chi forse la stava ancora cercando, eccola finalmente qui per noi. Si chiama computational thermoforming, ed ha MOLTO a che vedere con la realizzazione della grafica per film e videogiochi.
È una visione affascinante, che molti siti e blog hanno già definito “magica” per probabile associazione con l’aggettivo che da sempre Disney ama attribuirsi nelle sue campagne di marketing o nel branding ufficiale. Sarebbe del resto difficile negargli simili prerogative, per lo meno in questo specifico, rivoluzionario caso. Su quella che parrebbe essere una scatola di metallo, è posta una stampa di forma pressoché quadrata raffigurante in 2D i soggetti più diversi: un ceppo di legno, un pezzo di pane, la carrozzeria di un’automobilina, la maschera del teatro cinese che raffigura il generale Wei Qi Gong, nume tutelare delle abitazioni. Quindi l’operatore preme un tasto fuori dall’inquadratura, e le immagini sembrano all’improvviso prendere vita, sollevandosi verso l’alto in una ragionevole approssimazione della forma reale di ciò che stavano rappresentando. E non è finita qui: uno sbuffo d’aria, un brusco suono, e subito dopo l’estrusione rientra in parte, aderendo in modo puntuale alla perfetta forma che palesemente era desiderabile allo scopo. Tutto è perfetto e pienamente allineato, la forma con l’immagine, il profilo con la sua profondità. Manca soltanto di chiarire come, effettivamente, un simile fenomeno possa essersi compiuto sotto i nostri spalancati occhi?!

Leggi tutto

Ti rubo la faccia e la sostituisco alla mia

Facial Reenactement

Qui non si tratta semplicemente di sovrapporre le sembianze di una seconda persona alle proprie, o viceversa, creando la versione animata del più classico scherzo realizzato coi programmi di grafica per il PC. Né di una manuale rielaborazione del video effettuata con l’aiuto di un doppiatore, creata a posteriori da un artista che conoscendo a menadito tutti i manierismi di un politico, un capo di stato, o chicchessia, decidesse di creare il caos facendogli “pronunciare” parole inappropriate, verso questo o quel gruppo sociale. Bensì di un qualcosa di ancor più avanzato, e per certi versi, terribilmente inquietante. Un gruppo di studio composto da scienziati dell’Università di Erlangen-Nuremberg e dell’Istituto Max Planck per l’Informatica di Saarbrücken, assieme ad un collega ricercatore di Stanford, avevano infatti presentato lo scorso settembre alla conferenza sulla grafica SIGGRAPH Asia 2015 il prodotto di un lungo lavoro, che mirava a presentare nuovi metodi per simulare le espressioni ed il comportamento umano. Il loro video espositivo, ripubblicato proprio in questi giorni sul portale social Reddit e alcuni blog di settore, sta nuovamente facendo il giro del web. Tutto inizia usando come presupposto una domanda certamente insolita: sarebbe possibile, utilizzando due sensori RGB-D (si tratta di doppie telecamere con proiettore ad infrarossi in grado di percepire la profondità, come per intenderci il Kinect di Microsoft) ricostruire in diretta un modello tridimensionale di un volto, quindi sovrapporlo a quello vero, però controllandolo a distanza? Pensateci: è un qualcosa che, in effetti, nessuno aveva mai fatto prima. La scena della dimostrazione pratica potrebbe apparire poco innovativa, in un primo momento, ma una volta compresa ogni sua implicazione, vi apparirà sùbito come un punto di svolta significativo: ci sono due attori, posti l’uno a fianco dell’altro, ciascuno ripreso in primo piano e mostrato su uno schermo. Il primo resta totalmente impassibile, mentre il secondo fa ogni sorta di smorfia, parla, apre e chiude la bocca come un pesce. Mentre sugli schermi, guarda caso, tali movimenti vengono condotti da entrambi, in perfetta ed innegabile sincronia. Non è una registrazione, anche perché, ad un’analisi più approfondita, nel caso della faccia “telecomandata” c’è un ulteriore aspetto di assoluto quanto improbabile realismo, ovvero il fatto che gli spostamenti minori rispetto al punto di ripresa, la telecamerina ad infrarossi succitata, corrispondono incredibilmente a quelli dell’attore impassibile, colui che un tempo è nato con i simulati lineamenti. Che tuttavia, ormai appartengono al collega, almeno in video, per usarli a piacimento, almeno nel corso di alcuni brevi, potenzialmente drammatici minuti.
La descrizione del video, e con essa il testo tecnico di accompagnamento del progetto, liberamente disponibile sul sito di Stanford, propongono come di consueto alcune ipotesi di applicazioni future, tra cui quella dell’interpretariato simultaneo. Sarebbe in effetti possibile, teoricamente, impiegare il volto di un parlante originale per esempio giapponese, però sovrapponendogli in diretta la simulazione controllata dal traduttore per ottenere la perfetta sincronizzazione del labiale, non importa quanto possa essere diversa la lingua bersaglio della trasmissione televisiva dell’evento. Oppure, altra ipotesi, si potrebbe rappresentare se stessi, in giacca e cravatta dentro una stanza asettica per un colloquio a distanza, mentre in realtà ci si è appena svegliati e ci si trova ancora semi-sdraiati sul divano della propria disordinata abitazione. Ora, naturalmente, queste sono ipotesi piuttosto facéte, o ad ogni modo relativamente prive di effetti sulla vita quotidiana della gente. La realtà delle prototipazioni tecniche di ogni tipo, in questo stadio della loro progressione verso un prodotto vendibile al cliente e/o utile a governi ed aziende, è che ancora si tratta di proposte as-is (così come sono) prive di un senso e create semplicemente perché, come si dice: “potevamo farlo”. Ma una futura diffusione e l’ulteriore miglioramento di una simile tecnologia, come stavamo accennando in apertura, potrebbero portare a nuove, preoccupanti implicazioni…

Leggi tutto

Fatine viventi? Anche un ologramma ha il suo perché

Holo Fairy Lights

L’alba in cui l’aria che vibra affascina l’occhio allarmato: luci nematiche, fate di fuoco. Pura magia tecnologica. Dice il racconto che un team di scienziati (ingegneri? Ottici? Druidi del cerchio ulteriore?) delle università di Tokyo, Utsunomiya, Nagoya e Tsukuba, abbian studiato un sentiero nuovo, di fumo e di specchi, per far della luce scintille, ed a queste donare una forma. Fin qui, niente di nuovo. Lo spettacolo volumetrico degli spiriti eterei si è visto talvolta, negli show laser delle disco e i teatri di questo mondo. Ma pur sempre lontano, per meglio stagliarsi su di un fondo nero, sfuggendo alle mani dei troppo curiosi. Perché in effetti focalizzare la luce in un punto preciso, all’interno di un gas che sia in grado d’illuminarsi, significa renderlo incandescente. E non tutti hanno la pelle d’acciaio incombustibile, anzi, diciamolo: quasi nessuno. In questo la nostra novella è speciale: come mostrato nel video, realizzato a sostegno della presentazione di questo assurdo fenomeno al SIGGRAPH, la grande conferenza sulla grafica computerizzata, questi spettri non sono soltanto tangibili, ma cambiano se li tocchi. Ciò grazie all’impiego di un diverso tipo di laser, che invece di pulsare al ritmo di un nanosecondo (sufficiente per ustionare) lo fa ad intervalli di un femtosecondo (un milionesimo di miliardesimo di…) Così: una fiammella volante di un centimetro cubo, in rotazione sull’asse del suo vagheggiare, non aspetta altro che il dito dell’uomo, per trasformarsi nella ragionevole approssimazione di Trilli, microscopica amica di Peter Pan. Facendo tuttavia a meno di quella personalità scoppiettante, l’insistenza didascalica, la voce stridula e petulante, ahimé?
E da quella leggiadra figura si sviluppa il crescendo, la visualizzazione virtuale del tutto: figure geometriche, lettere dell’alfabeto, cuoricini, piccoli loghi fluttuanti nel buio assoluto. Ciascuno, mirabilmente, in evoluzione sull’asse del tempo. Ma non soltanto per il semplice passaggio di quest’ultimo, bensì grazie all’interazione diretta di una possibile utenza. Né il video, né la documentazione del progetto (per il resto piuttosto completa) si dilungano eccessivamente nella spiegazione del come venga rilevato il “tocco magico” che da il via a tali mutamenti, benché non sia affatto difficile immaginare un sensore ad infrarossi passivo, per esempio, che riveli l’introduzione di un corpo estraneo nell’area del plasma eccitato dal loro complesso sistema. Applicazione tutto sommato quasi automatica, del concetto di un ologramma che non necessiti di struttura di contenimento, né alcun tipo di ostruzione solida costruita attorno. Un aspetto maggiormente interessante, semmai, è il fatto che poiché il rilascio dell’energia nei punti luminosi sia comunque relativamente significativa, questi ultimi diventino percettibili al tocco, offrendo una sorta di feedback haptico, o kynestetico, che dir si voglia, un pò come la vibrazione di un certi cellulari all’attivazione di opzioni sul loro touch screen. Così la virtualizzazione si guadagna una forma apparente, per una volta, non soltanto visuale, ma pure fisica ed immanente. Almeno finché c’è corrente.
Si tratta di un gioco, per ora, e in effetti è difficile immaginare applicazioni pratiche non legate all’intrattenimento di un simile meccanismo, benché il team di ricerca citi tra le altre cose dei segnali fluttuanti da usare in caso d’emergenza, come un incendio, che indichino la migliore via di fuga in base a quante siano le persone in corsa verso l’uscita. Aggiungerei, personalmente, un altro potenziale impiego di quel tipo per così dire responsabile, venendo in aiuto alle persone affette da disabilità visive, dato che l’immagine può essere percepita al tatto. La tecnologia potrebbe rivelarsi un valido modo per visualizzare col tocco concetti di vario tipo, anche notevolmente complessi. Certo, purché si riveli scalabile a misure ben maggiori: un centimetro cubo è decisamente un po’ poco, per fare ciò. Il che, del resto, è tutt’altro che impossibile almeno in teoria. Volete sapere come funziona un tale miracolo della scienza? Ecco…

Leggi tutto

La precisione della stampa ad acqua computazionale

Computational Hydrographics

Tirare fuori dalla vasca un gatto, normalmente, è un gesto che comporta unicamente la rimozione delle proprie stesse mani dalla schiena del felino, ove erano state apposte con fermezza per immergerlo nel presentarsi del periodico frangente del bagnetto. Alla cessazione di un tale stato di gentile costrizione, l’animale lancerà immancabilmente un forte grido, a metà tra il soffio di uno stantuffo e la nota stridula di uno stonato pianoforte, per poi dardeggiare verso l’alto con le unghie sguainate ma, si spera, ben lontano dalla faccia del suo amato padroncino. Molto problematico, preferibilmente da evitare. Eppure tristemente, pienamente necessario. A meno di avere a disposizione un micio artificiale, perfettamente in grado di restare immobile per tempi brevi, medi o pure lunghi, senza neanche un lieve muoversi della sua coda. Come quello, bianco quanto l’osso, che la studentessa Changxi Zheng ci ha presentato l’altro giorno presso il suo canale, assieme alla stupenda evoluzione di quello che era e resta un approccio molto antico alla colorazione degli oggetti, ovvero la sospensione degli inchiostri sulla superficie calma di una vasca ad immersione. All’interno della quale o di una similare, molto presto costruita sulla base del principio qui mostrato, saranno assai probabilmente trattati gli oggetti che di più si prestano all’applicazione di livree: caschi, borchie o cerchioni, calci dei fucili, carene delle moto, strumenti musicali, scocche esterne per computer… Chi più ne ha, ne inzuppi, come biscotti incommestibili ma assai preziosi, per l’accrescimento del valore intangibile della personalizzazione individuale, prima o poi. Perché non è ancora il tempo di bagnarsi le mani: siamo in fase prettamente sperimentale, ovvero durante l’annuale conferenza del SIGGRAPH, l’occasione di presentare al mondo le ultime o recenti evoluzioni nel campo estremamente vasto della grafica virtualizzata. O come in questo caso, l’applicazione inversa della stessa cosa, cioè un processo, totalmente innovativo, che prende il concetto digitale della texture (la resa di un’immagine per così dire “spalmata” su dei solidi a tre dimensioni) e lo trasla nel mondo reale, facendo interagire le due tecnologie della scansione volumetrica e la stampa idrografica, per l’applicazione precisa al millimetro d’immagini di ogni complessità. Bisogna vederlo, per crederci.
Il video si apre con la dimostrazione dell’approccio classico, che consiste nell’impiego largamente manuale di una pellicola galleggiante biodegradabile, contenente un pattern grafico ripetuto ad infinitum. Con il dissolvimento dello stesso nel fluido trasparente per eccellenza, si genera un sottile velo variopinto, pronto a legarsi indissolubilmente con il primo oggetto solido che dovesse passarci attraverso, vedi quelli già citati, oppure come nel presente caso, la sagoma della VW Beetle che il pioniere dell’informatica Ivan Sutherland misurò famosamente nel 1972, destinata a diventare una figura standard nel campo della grafica tridimensionale. Una volta completata l’immersione, tutto ciò che resta è disperdere la vernice con un rapido colpo di mano, affinché in fase d’estrazione non si verifichino indesiderate sovrapposizioni. E il gioco è fatto! Tale tecnica specifica, oggi fatta risalire ad un brevetto registrato nel 1982 ad opera di Motoyasu Nakanishi, presenta grossi lati positivi: è più veloce e semplice dell’applicazione di un vinile, può impiegare stampe di quasi qualsiasi complessità o risoluzione, può durare (previa l’applicazione successiva di uno strato di vernice protettiva trasparente) per l’intera vita del prodotto sottoposto al trattamento. Ma ha una singola, enorme limitazione: l’allineamento del prodotto va necessariamente effettuato a mano, vista la fluidifica natura del medium di sospensione. Ciò significa che, essenzialmente, può essere impiegata solo nella realizzazione di figure senza dei confini definiti, come un succedersi di macchie in stile militare o l’approssimazione di un particolare materiale, vedi ad esempio le venature del legno, il marmo, oppure la spazzolatura del metallo. In campo automobilistico, l’idrografica è impiegata spesso per simulare nel veicolo degli accenti in carbonio, metallo estremamente leggero e resistente, spesso usato nei veicoli sportivi di fascia alta. Ma pensate per un attimo, adesso, di potervi approcciare a tale soluzione da un lato precedentemente inesplorato: quello dell’automazione a controllo numerico. Allora si potrebbe immergere nell’acqua una figura dalla forma anche complessa, allineandovi alla perfezione occhi, naso e bocca. Addirittura una coda serpeggiante di felino, a questo punto, potrebbe ricevere l’estetica fedele del leopardo. Anzi, perché immaginare, quando basta…

Leggi tutto