¡Revolución IA! Apple desafía a GPT-4 con ReALM

Apple desafía a GPT-4 con ReALM, su nuevo sistema de IA conversacional para mejorar Siri

Sabemos que Apple está trabajando en una serie de anuncios sobre Inteligencia Artificial para la WWDC 2024 en junio, pero aún no sabemos exactamente en qué consistirán. Mejorar Siri es una de las principales prioridades de Apple, ya que los usuarios de iPhone se quejan regularmente del asistente. Esta semana, los investigadores de IA de Apple publicaron un documento de investigación que podría arrojar nueva luz sobre los planes de IA de Apple para Siri, quizás incluso a tiempo para la WWDC.

El documento presenta Reference Resolution As Language Modeling (ReALM), un sistema de IA conversacional con un enfoque novedoso para mejorar la resolución de referencias. La esperanza es que ReALM pueda mejorar la capacidad de Siri para comprender el contexto en una conversación, procesar contenido en pantalla y detectar actividades de fondo.

Tratar la resolución de referencias como un problema de modelado de lenguaje se aparta de los métodos tradicionales centrados en el contexto conversacional. ReALM puede convertir conversaciones, contenido en pantalla y procesos de fondo en un formato de texto que luego puede ser procesado por grandes modelos de lenguaje (LLM), aprovechando sus capacidades de comprensión semántica.

Los investigadores compararon los modelos ReALM con GPT-3.5 y GPT-4, los LLM de OpenAI que actualmente alimentan el ChatGPT gratuito y el ChatGPT Plus de pago. En el documento, los investigadores dijeron que su modelo más pequeño se desempeñó de forma comparable a GPT-4, mientras que sus modelos más grandes lo hicieron aún mejor.

«Demostramos grandes mejoras sobre un sistema existente con funcionalidad similar en diferentes tipos de referencias, con nuestro modelo más pequeño obteniendo ganancias absolutas de más del 5% para referencias en pantalla», explicaron los investigadores en el documento. «También comparamos con GPT-3.5 y GPT-4, con nuestro modelo más pequeño logrando un rendimiento comparable al de GPT-4, y nuestros modelos más grandes superándolo sustancialmente».

El documento enumera cuatro tamaños del modelo ReALM: ReALM-80M, ReALM-250M, ReALM-1B y ReALM-3B. Las «M» y «B» indican el número de parámetros en millones y billones, respectivamente. GPT-3.5 tiene 175 mil millones de parámetros, mientras que se dice que GPT-4 cuenta con alrededor de 1,5 billones de parámetros.

«Demostramos que ReALM supera los enfoques anteriores y se desempeña aproximadamente tan bien como el LLM más avanzado de hoy, GPT-4, a pesar de constar de muchos menos parámetros», afirma el documento.

Apple aún no ha confirmado si esta investigación desempeñará un papel en iOS 18 o en sus últimos dispositivos.

Vía | ¡Revolución IA! Apple desafía a GPT-4 con ReALM – Tecnología con Juancho (tecnologiaconjuancho.com)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *