Sabemos que Apple está trabajando en una serie de anuncios sobre Inteligencia Artificial para la WWDC 2024 en junio, pero aún no sabemos exactamente en qué consistirán. Mejorar Siri es una de las principales prioridades de Apple, ya que los usuarios de iPhone se quejan regularmente del asistente. Esta semana, los investigadores de IA de Apple publicaron un documento de investigación que podría arrojar nueva luz sobre los planes de IA de Apple para Siri, quizás incluso a tiempo para la WWDC.
El documento presenta Reference Resolution As Language Modeling (ReALM), un sistema de IA conversacional con un enfoque novedoso para mejorar la resolución de referencias. La esperanza es que ReALM pueda mejorar la capacidad de Siri para comprender el contexto en una conversación, procesar contenido en pantalla y detectar actividades de fondo.
Tratar la resolución de referencias como un problema de modelado de lenguaje se aparta de los métodos tradicionales centrados en el contexto conversacional. ReALM puede convertir conversaciones, contenido en pantalla y procesos de fondo en un formato de texto que luego puede ser procesado por grandes modelos de lenguaje (LLM), aprovechando sus capacidades de comprensión semántica.
Los investigadores compararon los modelos ReALM con GPT-3.5 y GPT-4, los LLM de OpenAI que actualmente alimentan el ChatGPT gratuito y el ChatGPT Plus de pago. En el documento, los investigadores dijeron que su modelo más pequeño se desempeñó de forma comparable a GPT-4, mientras que sus modelos más grandes lo hicieron aún mejor.
“Demostramos grandes mejoras sobre un sistema existente con funcionalidad similar en diferentes tipos de referencias, con nuestro modelo más pequeño obteniendo ganancias absolutas de más del 5% para referencias en pantalla”, explicaron los investigadores en el documento. “También comparamos con GPT-3.5 y GPT-4, con nuestro modelo más pequeño logrando un rendimiento comparable al de GPT-4, y nuestros modelos más grandes superándolo sustancialmente”.
El documento enumera cuatro tamaños del modelo ReALM: ReALM-80M, ReALM-250M, ReALM-1B y ReALM-3B. Las “M” y “B” indican el número de parámetros en millones y billones, respectivamente. GPT-3.5 tiene 175 mil millones de parámetros, mientras que se dice que GPT-4 cuenta con alrededor de 1,5 billones de parámetros.
“Demostramos que ReALM supera los enfoques anteriores y se desempeña aproximadamente tan bien como el LLM más avanzado de hoy, GPT-4, a pesar de constar de muchos menos parámetros”, afirma el documento.
Apple aún no ha confirmado si esta investigación desempeñará un papel en iOS 18 o en sus últimos dispositivos.
Vía | ¡Revolución IA! Apple desafía a GPT-4 con ReALM – Tecnología con Juancho (tecnologiaconjuancho.com)
Más noticias
Confiscación de Bitcoin en Silk Road: ¿Qué hará el gobierno de EE. UU.?
Pioneros de la IA ganan el Nobel de Física 2024 por innovar el aprendizaje automático
Descubre el Dimensity 9400 de MediaTek: Potencia y eficiencia para smartphones de última generación