El iPhone «todo pantalla» y sin notch está más cerca que nunca gracias a esta nueva patente
El diseño de los iPhone ha cambiado de forma significativa en los últimos años. Desde 2017, vimos un punto de inflexión con los iPhone X y dimos la bienvenida al Notch, que se mantuvo invariable hasta los iPhone 13, que fue cuando redujo su tamaño por primera vez. Actualmente ya contamos con el nuevo diseño de la Dynamic Island en los iPhone 15. Y si seguimos la evolución lógica del diseño, un iPhone todo pantalla tendría todo el sentido del mundo.
En Apple ya están trabajando en un iPhone que sea «todo pantalla», es decir, sin elementos visuales que interrumpan en el área táctil y del contenido. Para ello, están llevando a cabo diferentes implementaciones en sus laboratorios de pruebas, y ahora ha salido a la luz un nuevo documento patentado en el que muestran avances que «les sitúan un paso más cerca del iPhone sin notch», de acuerdo a las informaciones que comparten desde el medio de noticias especializado Patently Apple.
El primer gran avance que lograron los californianos fue la implementación de un sistema que jugaba con la refracción de la luz. Al tener los sensores de las cámaras y Face ID ubicados debajo de la pantalla, queda una región de píxeles vacía. Con el objetivo de que la imagen no se distorsione en esa región, se creó una especie de espejos que mimetizan la luz del resto de la pantalla, proyectando esa señal encima de la zona vacía. Sin embargo, ahora han conseguido dar un paso más en esa dirección.
Apple patenta un proyector de luz para los iPhone sin notch
El paso que han dado, y que mejora la calidad de la imagen del iPhone con una superficie frontal en la que todo es pantalla consiste en un sistema de proyección de luz. De hecho, lo que comparten desde Patently Apple es que «se provee de un aparato optoeléctrico que combina recursos de iluminación de foco y de iluminación centrada, compactadas en un módulo de proyección«,
Dicho de otra manera, el funcionamiento de este nuevo sistema es el siguiente:
- Hay un controlador, que en este caso es la fuente que emite la luz. Este se localiza en el panel de la pantalla.
- Delante de esta fuente de luz se sitúa este sistema de proyección compactada, el cual redirige esas señales lumínicas a una zona en específico.
Por lo tanto, tenemos dos puntos de luz desde los cuales se emite una señal, que después se proyecta sobre una misma superficie, que en este caso es la zona vacía de píxeles, que es donde se van a ubicar las lentes de las cámaras y los sensores para el sistema de identificación biométrica Face ID.
A partir de ese punto, la imagen queda homogénea, para que en esa región de píxeles vacíos se muestre una imagen que no se distorsiones, y de cara al usuario, de una sensación de que ahí hay píxeles activos que emiten luz.
¿Y cómo sabe el iPhone la región en la que debe centrar los rayos de luz? Las cámaras frontales, que van a estar ocultas bajo la pantalla, van a estar enfocando esa región vacía de píxeles en la que el proyector va a emitir dichas señales, para dar una mayor precisión de enfoque.