Las nuevas gafas de realidad mixta de Apple van a mezclar elementos de la realidad tangible, con elementos de la realidad virtual. La expansión de lo que ya tenemos, combinado con elementos digitales, es el punto de partida de este nuevo producto. Y esto ha conllevado que los desarrolladores sean capaces de aprender algo nuevo: que todo puede ser un iPhone. ¿Pero cómo es esto posible? ¡Te lo explicamos!
Lo que conocemos del iPhone, en todas partes
Los elementos de la interfaz de iOS ya forman parte indivisible del iPhone, para todos los que usamos los teléfonos de la manzana. Cosas como la forma de desbloquearlo, el reproductor de música, centros de control de aplicaciones, etc. Tanto a nivel de diseño, como de interacción, los gestos que hacemos en la pantalla ya forman parte de nuestra rutina de uso.
Ahora bien, ¿Qué ocurre cuando trasladamos estos mismos elementos, en su totalidad, a otros sitios? Esto es lo que ocurre con las Apple Vision Pro: que todo lo que nos rodea tiene esencia de iPhone. ¿Y cómo es posible? Pues resulta que los desarrolladores «han aprendido que podrán crear controles y ventanas, y podrán aparecer en cualquier superficie de la habitación del usuario», explican desde Appleinsider.
Los desarrolladores van descubriendo cosas nuevas
Desde el mismo portal web se hacen eco de una publicación de Twitter del desarrollador Steve Troughton-Smith, en la cual muestra una animación de un reproductor de música virtual que él mismo ha diseñado. Este vídeo corto se trata de un GIF, en el cual podemos apreciar una habitación amueblada, y sobre una mesa de escritorio, hay un reproductor de música, el cual se expande y tiene el mismo diseño estético y principio de funcionamiento que el que podemos ver en los iPhone.
Desde Appleinsider explican que este desarrollador «ha descubierto que es posible seleccionar una superficie que esté en el campo de visión, y colocar cualquier aplicación, la cual aparece para que esté encima de esa superficie».
Una idea que se patentó en 2016, que ahora ve la luz
Hace siete años que la compañía de la manzana patentó lo que ahora acabamos de ver. Y no fue hasta el 2020, que esta patente salió a la luz. Ya en esa fecha, Appleinsider ya informaba de que «Apple está investigando cómo podríamos manipular controles virtuales en el mundo real». Lo que parecía sacado de ciencia ficción hace tres años, ahora tiene nombre y apellidos: Apple Vision Pro.
La noticia, publicada en julio del 2020, ya explicaba que «una patente reciente propone una nueva forma de uso de la realidad aumentada, para mostrar información que solamente aparecería al propietario (de las gafas) y a nadie más, como si fuera una pantalla en blanco».
El nombre de esta patente, según explican es «Method and Device for detecting a touch between a first object and a second object». «Parece que presentar controles superpuestos en objetos del mundo real va a ser necesario», explicaron desde Appleinsider. Algo que, tres años después, se ha podido materializar «virtualmente» y ya tenemos las primeras muestras de ello.