Apple ha publicado un informe sobre el estado de la inteligencia artificial, cómo se entrena, y otros datos. Es un documento bastante técnico, pero al leerlo extraemos conclusiones muy interesantes sobre ello. Por ejemplo, que para entrenar a la inteligencia artificial que incorpora Apple Intelligence, los de Cupertino han utilizado servidores con chips Tensor de Google. Es raro ver a dos compañías así, tan rivales y con filosofías tan distintas, trabajar juntas en algo como esto. Sin embargo, entendemos que los de Google se habrán llevado una importante cantidad de dinero por permitir esa utilización de sus chips, así que no deja de ser un buen negocio entre dos empresas y para sí mismas. En cualquier caso, es bastante interesante.
Apple Intelligence es el futuro de la empresa de la manzana mordida. Está quedando demostrado con la bajada de ventas de hardware y la subida de ingresos en el apartado servicios que lanzar cada año nuevos productos empieza a no ser suficiente. Los consumidores quieren más, y eso significa que hay que ir a por todas con el software. Por ello, y aprovechando toda la ola de la IA, que ha barrido el sector tecnológico, los ingenieros de Cupertino se han puesto a trabajar en una propia, llamada Apple Intelligence.
Apple y Google, una alianza curiosa
Para tener una inteligencia artificial competitiva, es necesario entrenarla. Y para ello hace falta una capacidad de procesamiento brutal, que un ordenador convencional no tiene. Por tanto, es necesario acudir a servidores especializados con chips muy potentes. Apple tiene los suyos propios, pero como explica CNBC, también ha dependido durante un tiempo de unos que utilizan chips Tensor, los de Google:
«A lo largo del próximo año, Apple tiene previsto desarrollar funciones basadas en IA generativa, como la generación de imágenes y emojis y una Siri potenciada que pueda acceder a la información personal del usuario y realizar acciones dentro de las aplicaciones.
En el documento publicado el lunes, Apple afirma que AFM en el dispositivo se entrenó en una única «porción» de 2048 chips TPU v5p trabajando juntos. Se trata de la TPU más avanzada, lanzada por primera vez en diciembre. El servidor AFM se entrenó con 8192 chips TPU v4 configurados para trabajar juntos en ocho «slice» a través de una red de centros de datos, según el documento.
Las últimas TPU de Google cuestan menos de 2 dólares por hora de uso del chip si se reservan con tres años de antelación, según el sitio web de Google. Google presentó por primera vez sus TPU en 2015 para cargas de trabajo internas, y las puso a disposición del público en 2017. Ahora se encuentran entre los chips personalizados más maduros diseñados para la inteligencia artificial.
Aun así, Google es uno de los principales clientes de Nvidia. Utiliza las GPU de Nvidia sus propias TPU para entrenar sistemas de IA, y también vende acceso a la tecnología de Nvidia en su nube.
Apple ya dijo que la inferencia, es decir, tomar un modelo de IA ya entrenado y ejecutarlo para generar contenido o hacer predicciones, se realizaría parcialmente en los propios chips de Apple en sus centros de datos.«