Ti rubo la faccia e la sostituisco alla mia

Facial Reenactement

Qui non si tratta semplicemente di sovrapporre le sembianze di una seconda persona alle proprie, o viceversa, creando la versione animata del più classico scherzo realizzato coi programmi di grafica per il PC. Né di una manuale rielaborazione del video effettuata con l’aiuto di un doppiatore, creata a posteriori da un artista che conoscendo a menadito tutti i manierismi di un politico, un capo di stato, o chicchessia, decidesse di creare il caos facendogli “pronunciare” parole inappropriate, verso questo o quel gruppo sociale. Bensì di un qualcosa di ancor più avanzato, e per certi versi, terribilmente inquietante. Un gruppo di studio composto da scienziati dell’Università di Erlangen-Nuremberg e dell’Istituto Max Planck per l’Informatica di Saarbrücken, assieme ad un collega ricercatore di Stanford, avevano infatti presentato lo scorso settembre alla conferenza sulla grafica SIGGRAPH Asia 2015 il prodotto di un lungo lavoro, che mirava a presentare nuovi metodi per simulare le espressioni ed il comportamento umano. Il loro video espositivo, ripubblicato proprio in questi giorni sul portale social Reddit e alcuni blog di settore, sta nuovamente facendo il giro del web. Tutto inizia usando come presupposto una domanda certamente insolita: sarebbe possibile, utilizzando due sensori RGB-D (si tratta di doppie telecamere con proiettore ad infrarossi in grado di percepire la profondità, come per intenderci il Kinect di Microsoft) ricostruire in diretta un modello tridimensionale di un volto, quindi sovrapporlo a quello vero, però controllandolo a distanza? Pensateci: è un qualcosa che, in effetti, nessuno aveva mai fatto prima. La scena della dimostrazione pratica potrebbe apparire poco innovativa, in un primo momento, ma una volta compresa ogni sua implicazione, vi apparirà sùbito come un punto di svolta significativo: ci sono due attori, posti l’uno a fianco dell’altro, ciascuno ripreso in primo piano e mostrato su uno schermo. Il primo resta totalmente impassibile, mentre il secondo fa ogni sorta di smorfia, parla, apre e chiude la bocca come un pesce. Mentre sugli schermi, guarda caso, tali movimenti vengono condotti da entrambi, in perfetta ed innegabile sincronia. Non è una registrazione, anche perché, ad un’analisi più approfondita, nel caso della faccia “telecomandata” c’è un ulteriore aspetto di assoluto quanto improbabile realismo, ovvero il fatto che gli spostamenti minori rispetto al punto di ripresa, la telecamerina ad infrarossi succitata, corrispondono incredibilmente a quelli dell’attore impassibile, colui che un tempo è nato con i simulati lineamenti. Che tuttavia, ormai appartengono al collega, almeno in video, per usarli a piacimento, almeno nel corso di alcuni brevi, potenzialmente drammatici minuti.
La descrizione del video, e con essa il testo tecnico di accompagnamento del progetto, liberamente disponibile sul sito di Stanford, propongono come di consueto alcune ipotesi di applicazioni future, tra cui quella dell’interpretariato simultaneo. Sarebbe in effetti possibile, teoricamente, impiegare il volto di un parlante originale per esempio giapponese, però sovrapponendogli in diretta la simulazione controllata dal traduttore per ottenere la perfetta sincronizzazione del labiale, non importa quanto possa essere diversa la lingua bersaglio della trasmissione televisiva dell’evento. Oppure, altra ipotesi, si potrebbe rappresentare se stessi, in giacca e cravatta dentro una stanza asettica per un colloquio a distanza, mentre in realtà ci si è appena svegliati e ci si trova ancora semi-sdraiati sul divano della propria disordinata abitazione. Ora, naturalmente, queste sono ipotesi piuttosto facéte, o ad ogni modo relativamente prive di effetti sulla vita quotidiana della gente. La realtà delle prototipazioni tecniche di ogni tipo, in questo stadio della loro progressione verso un prodotto vendibile al cliente e/o utile a governi ed aziende, è che ancora si tratta di proposte as-is (così come sono) prive di un senso e create semplicemente perché, come si dice: “potevamo farlo”. Ma una futura diffusione e l’ulteriore miglioramento di una simile tecnologia, come stavamo accennando in apertura, potrebbero portare a nuove, preoccupanti implicazioni…

Leggi tutto

Questo robot sfiderà Valentino Rossi

Motobot

Ecco qui qualcosa che non ci saremmo aspettati di vedere: una Yamaha YZF-R1, il poderoso veicolo che la multinazionale giapponese schiera, in diversi allestimenti, nelle competizioni di MotoGp e Superbike, modificato per montare le rotelle stabilizzanti di una bici d’infanzia. Non è altro che l’ennesima improbabile visione di un mondo del marketing in cui nulla è definito dalla logica, mentre superare le aspettative è un qualcosa che viene fatto in via teorica, grazie all’entusiasmo contagioso di una voce narrante. Mentre il successo dell’operazione viene misurato, non tanto nel momento della sua riuscita, quanto piuttosto in funzione del numero dei click raggiunti, dal remoto giorno di quel rutilante annuncio digitale. Tesi: allo stato attuale delle cose, è possibile costruire automobili automatiche. Gli ultimi progressi nel campo dei servomeccanismi ed attuatori consentono, nel frattempo, la messa in opera di robot umanoidi, come ASIMO della Honda, che nonostante la camminata un po’ rigida ed innaturale, s’impegna da anni nel copiare la gestualità ed i manierismi degli umani. Non sarebbe dunque possibile, a fronte di un periodo di ricerca e sviluppo relativamente breve, creare una figura antropomorfa che, messa in sella ad una moto, possa guidarla con precisione e sovrannaturale agilità? In fondo, la verità è che la maggior parte dei robot, venendo costruiti specificamente per svolgere una singola mansione, riescono spesso a superare il potenziale dei loro predecessori in carne ed ossa. Quindi perché non, la moto…
Si tratta di un avveniristico progetto presentato al mondo in occasione del 44° Motor Show di Tokyo, al quale il colosso della città di Iwata ha deciso di esporre, con la denominazione di Technology Exhibit, questo suo particolare “figlio”, creato con lo scopo dichiarato di porlo a confronto, entro il 2017, con il più famoso pilota legato alle Yamaha, qui chiamato unicamente il Dottore. Il fatto poi che quest’ultimo, proprio in questi giorni, sia al centro della diatriba legata alla caduta di Márquez durante il GP di Malesia dello scorso 25 ottobre. è una mera coincidenza, che non ha influenzato in alcun modo la scelta d’impostare su di lui il presente video a corredo. O almeno, questo è ciò che vorrebbero farci pensare. Dopo tutto, a cosa potrebbe mai servire lo sport, dal loro punto di vista, se non può essere usato per agevolar l’immagine di marchi e sponsor di supporto! E poi c’è anche da dire che il prodotto finale, giudicato sui suoi semplici valori estetici (perché di specifiche, non è stata rilasciata alcuna) risulta certamente meritevole ed appassionante. MOTOBOT, questo è il suo nome, si rivolge a Rossi, mentre in sovraimpressione compaiono alcune fotografie dell’infanzia del campione italiano. L’intero intento della sequenza, con uno stilema robotico tipicamente giapponese, ha la finalità di stabilire un rapporto empatico tra lo spettatore e l’automa, che si esprime con la voce acuta di un bambino, modificata per farla sembrare in qualche modo artificiale. C’è anche da dire che l’effetto finale, almeno per chi è vulnerabile all’effetto della uncanny valley, potrebbe risultare vagamente inquietante. Ed anche questo fa parte dell’insolito show. Musica trionfale in sottofondo: “Io sto lavorando ogni giorno per migliorare le mie abilità.” Inizia il robot, poi aggiunge umilmente: “Eppure non avrei potuto batterti nemmeno quando avevi 5 anni. Però forse, se imparo tutto su di te, studio quello che sai fare e m’impegno ad emularti…Deve pur esserci qualcosa che soltanto IO so fare!” Inquadrature di tecnici orgogliosi, l’alba sullo spiazzo asfaltato, la creatura artificiale che corre rapida e lontana. Sembra quasi l’inizio di una saga televisiva degli anni ’80/90, quando il futuro, paradossalmente, appariva più poetico e vicino.

Leggi tutto