Riesgos éticos en la falta de transparencia de OpenAI con GPT-4

Académicos de la Universidad de Oxford advierten que OpenAI está ocultando detalles críticos sobre su último modelo de lenguaje grande, GPT-4, lo que plantea un riesgo ético significativo en la industria de la inteligencia artificial

De acuerdo con académicos de la Universidad de Oxford, existe un gran riesgo al no saber qué está construyendo OpenAI en la nube y es que, advierten, la empresa creadora de grandes tecnologías como ChatGPT o GPT-4 está ocultando detalles críticos sobre confiabilidad.

Uno de los acontecimientos fundamentales en inteligencia artificial (IA) en 2023 fue la decisión de OpenAI, el creador de ChatGPT, de no revelar casi ninguna información sobre su último modelo de lenguaje grande (LLM), GPT-4, cuando la compañía presentó el programa en Marzo.

Según la información que comparte ZDnet de este grupo de académicos, «ese repentino giro hacia el secreto se está convirtiendo en una cuestión ética importante para la industria tecnológica porque nadie sabe, fuera de OpenAI y su socio Microsoft, qué está sucediendo en la caja negra de su nube informática», como han dicho Emanuele La Malfa de la Universidad de Oxford y colaboradores del Instituto Alan Turing y la Universidad de Leeds.

«Ninguna empresa puede confiar» en estos modelos cerrados

Esta advertencia no es nueva. Por ejemplo, Emad Mostaque, director ejecutivo de la startup de IA generativa Stability.ai, que produce herramientas como el generador de imágenes Stable Diffusion, ha dicho que ninguna empresa puede confiar en programas de código cerrado como GPT-4.

«Los modelos abiertos serán esenciales para los datos privados», dijo Mostaque durante una pequeña reunión en mayo. «Es necesario saber todo lo que hay dentro; estos modelos son muy poderosos».

La Malfa y su equipo revisan la literatura sobre los distintos modelos de lenguaje e identifican cómo la ofuscación impide una auditoría de los programas según cuatro factores críticos: accesibilidad, replicabilidad, comparabilidad y confiabilidad.

Los autores señalan que estas preocupaciones son una más dentro de la ética de la IA: «Estas cuestiones son específicas del paradigma LMaaS y distintas de las preocupaciones preexistentes relacionadas con los modelos de lenguaje».

Vía | Riesgos éticos en la falta de transparencia de OpenAI con GPT-4 – Tecnología con Juancho (tecnologiaconjuancho.com)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *