Apple, del mismo modo que cualquier otra empresa, usa a sus usuarios como “testers”, para mejorar sus productos y servicios. No obstante, hay muchas maneras de hacer que tus clientes, además de dinero, aporten un valor positivo para mejorar la infraestructura, en este caso, a nivel tecnológico. En este post te contamos el interés que tiene Apple en la IA y cómo nos usa a nosotros, los usuarios, para mejorarla y sin que nos demos cuenta.
Siri es el asistente que se ha quedado atrás
Siri es uno de los pilares sobre los que se mueve Apple, a través de la interacción por software en su ecosistema. Y además de ser un asistente de voz (que usa, por supuesto IA), Apple ha encontrado una manera muy original para que, sin que nos demos cuenta, estemos entrenando al algoritmo. ¿Os podéis imaginar por dónde va la cosa?
Apple Music Voice plan es una de las respuestas. Cientos de miles de inputs, para reproducir música, buscar artistas, álbumes y buscar emisoras de radio por internet. Todo ello, ejecutado desde dispositivos como los HomePod o los Apple TV (entre otros). Con un precio reducido de 4,99€ al mes, tenemos acceso a millones de canciones con tan solo “pedirlas por esa boquita”.
Invocar el famoso comando “Oye Siri”, para reproducir canciones, en dispositivos que van desde el Mac hasta CarPlay, pasando por el HomePod o el iPhone, no es un entreno. Es un “bootcamp”: en multitud de situaciones, un plan de música que solo funciona con la voz, y con un precio de derribo para hacerlo mucho más atractivo, con el objetivo de que cuantas más personas, mejor, digan “Oye Siri”, y esta acabe aprendiendo de nuestra pronunciación, sea más eficiente en las búsquedas, pueda dar respuestas más adecuadas, etc.
Shazam tiene un algoritmo de escándalo
Shazam es otra vía por la cual Apple entrena a sus sistemas a través de los usuarios. Desde que en 2018 la compañía comprara Shazam, se han incorporado funciones como el “Shazam Automático”, que permite, pulsando una vez el botón Shazam, detectar canciones de nuestro entorno; en incluso, ha hecho posible que Shazam esté directamente en el Centro de Control, y sin necesidad de abrir la app, detectar música.
Por no hablar de su implementación directa con Apple Music, la cual nos recomienda con una estrellita, aquellas canciones que aún no hemos escuchado, y que, en muchas ocasiones (porque no existen algoritmos perfectos) nos acaban gustando y acabamos añadiendo a nuestra lista. Incluso esto se ve en las listas de reproducción de canciones de música nueva “creada para ti”. Apple Music aprende de nuestros gustos y hábitos, para recomendarnos cada vez de forma más eficiente y acertada. O los botones “Me gusta” o “Recomendar menos de este estilo”.
De hecho, ha salido publicada una patente de Apple, en la que Shazam sería capaz de reconocer canciones gracias a un movimiento de nuestro cuerpo. Como cuando, por ejemplo, estamos en algún sitio, suena una canción que nos gusta y nos giramos hacia donde sale el sonido. Pues, funcionaría con sensores de movimiento y se detectaría la música de forma automática, sin que nosotros tengamos que tocar el botón de Shazam, o abrir la aplicación. Todo ello, gracias a las mejoras de sensores y a la evolución de la IA la cual, a cada día que pasa, es más y más capaz. Lanzamos por tanto la siguiente pregunta, con algo de reflexión: ¿Los sensores de movimiento de los AirPods abren la veda, quizás? Creemos que es algo que no se puede saber de momento. Pero, de igual forma, podría ser un movimiento bastante lógico.