La demo che ha mostrato ieri uno dei due giovani sviluppatori di una startup canadese, la Dawn Robotics, ci mette di fronte per la prima volta ad una situazione dove risulta davvero difficile, se non si guardano i dettagli, distinguere gli elementi generati dal computer da quelli invece presenti nella realtà.

La demo è stata usata per mostrare sia l’avanzamento nella tecnologia AR, sia per spiegare per quale motivo ad alcuni sviluppatori serve un processore M2 all’interno di un iPad che lavora insieme alla GPU e al Lidar: solo con un iPad M2 si riesce ad eseguire Glyph, questo il nome del framework, mantenendo i 60 fps costanti che aiutano a restituire la sensazione di fusione tra reale e digitale.

Con il modello precedente, ad un framerate più basso e con diversi scatti, il risultato era decisamente meno realistico.

GLYPH

Glyph è un algoritmo sviluppato internamente dalla startup grazie al quale è possibile adattare dinamicamente un elemento digitale alle superfici reali, calcolando anche le possibili deformazioni e regolando anche le luci e le ombre.

Nei 30 secondi pubblicati su Youtube si vede un cuscino in stoffa che viene rivestito digitalmente: la superficie “finta”, è una texture, si adatta non solo alla posizione del cuscino all’interno dell’ambiente ma anche alla pressione esercitata sul cuscino stesso, aggiungendo le grinze e i riflessi provocati dalla pressione nei vari punti.

La tecnologia è quasi pronta, e potrà essere usata su vestiti, divani, cuscini e rivestimenti per mostrare tutte le varianti disponibili a catalogo senza averle necessariamente in showroom.