Apple tiene una estrategia muy particular a la hora de enfocar productos a diferentes áreas. En el caso del Apple Watch, tenemos una clara orientación hacia la salud. Sin embargo, cuando pensamos en las Apple Vision Pro, se nos viene a la cabeza todo el universo de «computación espacial». Si bien, eso es su enfoque principal, ahora se ha descubierto un nuevo uso que, por lo menos, es sorprendente.
Tenemos ante nosotros una nueva plataforma de Apple que está apunto de ver la luz en unos meses. De mientras que está todavía «en pañales», se está desarrollando por detrás todo lo que es capaz de hacer este dispositivo. Y recientemente se ha sabido que puede tener un enfoque de cara a la salud, que de ser cierto, sería un punto diferencial enorme.
Las Vision Pro podrían diagnosticar y seguir enfermedades mentales
De acuerdo a lo que explican desde el medio de noticias de habla inglesa Appleinsider, «un nuevo informe dice que, internamente Apple está pensando en cómo las Apple Vision pro puede detectar signos de patologías mentales, e incluso, que se ayuden a tratarse».
«Los empleados también han estado trabajando en usos mucho más específicos de la tecnología en materias de salud mental», informan. De hecho, una de las técnicas que se comentan es el monitoreo facial de las expresiones mediante el uso de la inteligencia artificial. De esta forma, se pueden medir cosas como la depresión, ansiedad «y más», tal y cómo explican en Appleinsider.
Esta implementación no es algo que haya salido de la nada. Sino que «han invertido un tiempo considerable en esta idea». Gracias a los múltiples sensores que incorpora este casco de visión mixta, se aprovechan usos como el monitoreo y seguimiento ocular.
Además, una de las características del casco es poder crear una reconstrucción de nuestro rostro, para hablar a través de FaceTime cuando tenemos las gafas puestas. La implementación de la inteligencia artificial en este producto está patente en muchos sitios.
Intersección entre las emociones y la inteligencia artificial
La tecnología de la inteligencia artificial ha experimentado un auténtico «boom», especialmente si tomamos como referencia el año 2022.
La intención de crear un entorno virtual que se asemeje a nosotros, de hacerlo más humano, pasa por la intersección de la IA con las emociones, ya que estas son uno de los componentes más intrínsecos al ser humano.
Hay muchas maneras mediante las cuales se puede «alfabetizar emocionalmente» a una inteligencia artificial. De hecho, técnicas como el reconocimiento facial y ocular permiten crear patrones de emociones que se pueden utilizar como base para el entreno de diferentes algoritmos para que sean capaces de reconocer y de predecir qué es lo que está sucediendo.
Así pues, si volvemos a las Apple Vision Pro, tenemos una plataforma que, a nivel físico, cuenta con gran cantidad de sensores que funcionan en tiempo real. Y si tenemos en cuenta toda la trayectoria de IA en Apple, tener un algoritmo que «lea» nuestra cara y, a partir de ahí pueda interpretar qué es lo que está sucediendo, será una muestra más de cómo la intersección entre ambos temas está tomando un rumbo mucho más centrado y maduro.
Por el momento se trata de una idea, pero que si tenemos en cuenta los recursos que tenemos a mano, y con todo el potencial de la tecnología de la inteligencia artificial, es algo que puede ser completamente viable, siempre y cuando se adecúen a unos estándares y límites éticos, de cara a las personas que puedan usar esta plataforma en un futuro, y por ende, beneficiarse del resultado de la fusión de ambas tecnologías.