«iOS con IA» es a la vez un trabalenguas, una frase ininteligible para tu abuela, y el posible futuro desarrollo de la inteligencia artificial de Apple. Se equivocan aquellos que piensen que los responsables del iPhone van a quedarse de brazos cruzados viendo cómo Microsoft y Google conquistan el mercado de la IA.

Apple está casi lista para mostrarnos lo que puede hacer en el espacio de la inteligencia artificial. El CEO de Apple, Tim Cook, aseguró ayer (coincidiendo con el lanzamiento de las gafas de realidad virtual/computación espacial Vision Pro) que la compañía hará un anuncio de IA en algún momento en 2024.

Tim Cook confirma que Apple lanzará productos IA en 2024

«De cara al futuro, seguiremos invirtiendo en estas y otras tecnologías que dan forma a nuestro futuro. Eso incluye la IA, a la que seguimos dedicando una enorme cantidad de tiempo y esfuerzo, y estamos muy contentos de compartir detalles de nuestro trabajo en curso en ese espacio a finales de este año», dijo Cook, el cual no dio detalles más allá de confirmar que, sí, se refería al desarrollo de inteligencia artificial generativa en Apple.

Por ahora, una de las pocas formas de poder experimentar la IA en las nuevas Vision Pro recién lanzadas es mediante la aplicación oficial de ChatGPT, presentada también ayer por OpenAI:

¿Cuándo va a presentar Apple sus modelos y aplicaciones de inteligencia artificial?

Así pues, todo apunta a que 2024 será el año en el que Apple se sumerja de lleno en la tecnología de inteligencia artificial. Y lo hará en dos frentes, según informan varios trabajos de investigación publicados recientemente que muestran algunas de las líneas maestras en las que trabaja la empresa (a falta de más información sobre el supuesto competidor de ChatGPT en el que estaría trabajando Apple):

  • Una forma novedosa de ejecutar grandes modelos lingüísticos desde un iPhone o iPad
  • Un método innovador para crear avatares animados.

LLM local de Apple: ¿qué traman en Cupertino?

Los chatbots basados en LLM, como ChatGPT y Claude, hacen un uso increíblemente intenso de recursos, por lo que suelen necesitar grandes cantidades de memoria para funcionar. Y esto supone un reto para dispositivos como los iPhone, que tienen una capacidad de memoria limitada. Para hacer frente a este problema, los investigadores de Apple han desarrollado una novedosa técnica que utiliza la memoria flash (la misma memoria en la que se almacenan tus aplicaciones y fotos) para almacenar los datos del modelo de IA.

Un artículo publicado en enero de 2024 por investigadores de Apple (LLM in a Flash) afirma que han desarrollado un método que «allana el camino para una inferencia eficaz de los LLM en dispositivos con memoria limitada«. Dicho con otras palabras, Apple está trabajando en una tecnología que permitirá ejecutar potentes modelos de IA en dispositivos portátiles con menos potencia de cálculo de forma local y no accediendo a la nube.

Apple está avanzando a pasos agigantados en el campo de la ejecución de grandes modelos lingüísticos (LLM) en teléfonos inteligentes, lo que supondría un cambio importantísimo con respecto al enfoque tradicional basado en la nube.

Este cambio en la estrategia de IA podría redefinir la experiencia de los teléfonos inteligentes, ofreciendo una asistencia de IA más rápida y sin conexión a internet. La iniciativa de Apple subraya la creciente tendencia a integrar sofisticadas funciones de IA directamente en los dispositivos de consumo, un movimiento que se espera que dé forma a futuros avances tecnológicos y experiencias de usuario.

El artículo muestra una solución para ejecutar LLM de forma eficaz en dispositivos con memoria limitada, como los iPhone. Este desarrollo aborda los retos computacionales que plantea el funcionamiento de modelos de IA sofisticados como ChatGPT en dispositivos móviles.

El artículo, que llamó la atención tras ser publicado en Hugging Face, supone un esfuerzo de Apple por ponerse a la altura de sus homólogos de Silicon Valley en innovación en IA.

Además, no nos olvidemos de Ferret

Con el mismo silencio con el que publicó el artículo del LLM local, en octubre de 2023 investigadores de Apple y la Universidad de Columbia lanzaron un LLM multimodal de código abierto, llamado Ferret.

En aquel momento, el lanzamiento (que incluía el código y las pesas, pero solo para uso de investigación, sin licencia comercial) no recibió mucha atención. Pero esto podría estar a punto de cambiar. Sobre todo si tenemos en cuenta las recientes pruebas que sitúan al modelo de código abierto de Mistral, el 8x7b, ofreciendo resultados que le hablan de tú a tú a GPT-4.

Según leemos en TechoPedia, la innovación clave de Ferret es su capacidad para detectar objetos y conceptos semánticos dentro de regiones de una imagen especificadas por el usuario, en lugar de limitarse a analizar toda la imagen.

Por ejemplo, un usuario podría dibujar una forma irregular alrededor de la cara de una persona en una foto y preguntar «¿De qué color son los ojos de esta persona?». Ferret identificará entonces los ojos dentro de esa región, detectará que son azules y responderá: «Esta persona tiene los ojos azules».

Ferret va más allá del reconocimiento básico de objetos. Puede entender las relaciones entre objetos, acciones y otros detalles contextuales para mantener una conversación rica y multidireccional sobre una imagen. Esto lo hace más capaz de mantener conversaciones centradas en una región que los anteriores sistemas de IA multimodal.

Apple ha guardado un cauto silencio con respecto a la IA hasta hace pocos meses, cuando presentó el lanzamiento de chips personalizados que, según dijo el CEO Tim Cook, ofrecen un mejor rendimiento en espacios de trabajo de inteligencia artificial. Es de esperar que la inteligencia habitual sea un término cada vez más usado en Cupertino.

¿Dónde está Apple?

 

A diferencia de sus competidores, que se centran en servicios de IA basados en la nube, Apple quiere orientarse hacia la IA basada en dispositivos. El enfoque de Apple implica optimizar modelos más pequeños, como Falcon 7B, para una inferencia eficiente en dispositivos con batería.

¿Y Apple GPT?

Apple estaría desarrollando su propio modelo de inteligencia artificial generativa, llamado «Ajax«. Diseñado para rivalizar con GPT-3 y GPT-4 de OpenAI, Ajax opera con 200.000 millones de parámetros, lo que sugiere un alto nivel de complejidad y capacidad de comprensión y generación del lenguaje. Conocido internamente como «Apple GPT», Ajax pretende unificar el desarrollo del aprendizaje automático en Apple, lo que sugiere una estrategia más amplia para integrar la IA más profundamente en el ecosistema de Apple.

¿Qué sorpresas de IA nos tiene preparadas Apple para 2024?
¿Qué sorpresas de IA nos tiene preparadas Apple para 2024?

Según los últimos informes, Ajax se considera más capaz que la generación anterior ChatGPT 3.5. Sin embargo, también se sugiere que los modelos más recientes de OpenAI pueden haber avanzado más allá de las capacidades de Ajax a partir de septiembre de 2023.

Paralelamente, la empresa también ha presentado recientemente HUGS (siglas de Human Gaussian Splats), un método para crear avatares totalmente animables a partir de breves clips de vídeo capturados con un iPhone en 30 minutos. HUGS es un marco de renderizado neuronal capaz de entrenarse con tan solo unos segundos de vídeo para crear un avatar detallado que los usuarios pueden animar como deseen.

Si a estos dos desarrollos le sumamos las prometedoras capacidades de las recién lanzadas gafas Vision Pro, es fácil echar la imaginación a volar pensando en las novedades relacionadas con inteligencia artificial que Apple tiene preparadas para 2024.

Si por algo ha destacado Apple desde su fundación ha sido en la idea de crear productos y servicios que sean únicos (y no inspirados en algo ya existente). Aunque Apple ha mantenido un silencio casi total a la hora de informar sobre sus planes en materia de inteligencia artificial, los rumores apuntan a que la compañía está preparando un nutrido número de nuevas funciones basadas en IA para el iPhone.

Pero, como acostumbra a hacer la empresa desde su fundación, Apple se piensa mucho cada nuevo movimiento y testea al máximo cada lanzamiento para ofrecer una experiencia a la altura de los precios que pide por sus productos.

Apple no quiere limitarse a lanzar un nuevo iPhone con un asistente similar al de Google o OpenAI. Apple, como de costumbre, busca hacer mucho más ruido.