Gracias a esto Apple ha conseguido evitar un auténtico desastre (de momento)

Gracias a esto Apple ha conseguido evitar un auténtico desastre (de momento)

Antoni Mateu-Arrom

La inteligencia artificial y las Apple Vision Pro son dos cosas que van muy unidas de la mano. Y gracias a una política interna de Apple, al respecto del desarrollo de aplicaciones en esta plataforma, se ha conseguido evitar algo que podría haberse convertido en un desastre potencial. Gracias a un vídeo-concepto que se ha publicado en la red social Reddit, sobre el uso de Deepfakes, tenemos una nueva perspectiva de algo que podría haber empezado de forma bien intencionada pero que, de descontrolarse, podría crear un caos.

Apple acostumbra a implementar inteligencia artificial en sus dispositivos con buenos propósitos. En el caso del iPhone, iOS 17 ya permite crear un Deepfake con nuestra voz, para tener una voz sintética con nuestro mismo tono. Esta función, pensada para personas que están en riesgo de perder el habla, es una buena muestra de ello.

En el caso de las Apple Vision Pro tenemos otra implementación de la IA que nos permite crear nuestro rostro en base a lo que captan los sensores de movimiento, para cuando estemos hablando con alguien a través de FaceTime. Al fin y al cabo es una recreación de nuestro rostro por IA.

Esto hubiera sido un desastre

Imagina que te pones las gafas Apple Vision Pro y tienes una herramienta para generar Deepfakes. Pero no sólo eso, sino que esos Deepfakes se ejecutan en tiempo real. Y además de todo esto, que podamos aplicar estos Deepfakes a la persona que tengamos delante de nuestro campo de visión, y cada vez que veamos a esa persona, es realidad estaremos viendo el Deepfake que nosotros hemos creado.

¿Hacemos la situación más enrevesada? A todo esto, añade la posibilidad de cambiar el rostro y la voz de quién tengamos delante, por la de cualquier persona que nos dé la gana. De repente, tu pareja o tu compañero de piso es Leonardo DiCaprio, y siempre que le veas a través de esta «aplicación», no vas a ver a la persona real, sino a quién tú has fabricado virtualmente.

Deepfake Vision pro app concept is scary…
byu/jesser722 inVisionPro

Ah sí, no nos olvidemos de mencionar que tanto la voz como las expresiones faciales van a estar sincronizadas en tiempo real por encima de la persona que tenemos en frente. Todo diseñado para que encaje a la perfección.

¿Suena mal, verdad? Pues es justo de lo que va un vídeo que es viral en Reddit, publicado por el usuario jesser722.

Menos mal que no va a ocurrir… ¿No?

En el medio de noticias de habla ingles 9to5Mac explican los motivos por los que esto no puede ocurrir. y, sí: Es gracias a una política interna que tiene Apple. «Esto es algo imposible de que suceda con las Apple Vision Pro. Esto es debido a que Apple no da acceso a las cámaras a desarrolladores de terceros.», explican.

A este primer motivo. añaden lo siguiente: «Aunque Apple proporcionara este acceso a las cámaras en un futuro, no es un tipo de aplicación que sería aprobado por parte de Apple, ya que hay muchos factores éticos y legales de por medio».

Eso sí, el peligro real está mitigado. Y de forma oficial es imposible. Pero, ¿Y si se hackean unas Vision Pro pudiéndoles aplicar Jailbreak? «Podríamos ver aplicaciones no oficiales como esta en visionOS en algún momento».

optic id vision pro

 

¡Sé el primero en comentar!