Noticias
En busca de la confiabilidad, también ideológica: OpenAI asegura que GPT-5 reduce el sesgo en un 30%
OpenAI sostiene que GPT-5, su modelo de lenguaje más reciente, presenta un 30% menos de sesgo político respecto a versiones anteriores, por lo que ahora “prácticamente neutro” según sus propias pruebas internas, realizadas con una encuesta de 500 preguntas en torno a un centenar de temas. Aun así, expertos independientes mantienen la cautela ante este tipo de afirmaciones, dada la dificultad de medir objetivamente la neutralidad ideológica de una inteligencia artificial.
La compañía asegura que GPT?5 instant y GPT?5 thinking muestran una reducción significativa del sesgo y mayor resistencia ante preguntas de índole política, con menos del 0,01 % de las respuestas de ChatGPT mostrando alguna inclinación identificable. El objetivo, de este no tan nuevo empeño es que “ChatGPT no tenga sesgo político en ninguna dirección”. Por supuesto, se trata de pruebas internas de las que no todo el mundo se fía.
Así, no han tardado en aparecer las primeras voces discordantes, de investigadores advierten que evaluar el sesgo de un modelo sigue siendo complejo y que los métodos de evaluación en IA “a menudo no miden lo que dicen medir”, apunta el profesor en la Universidad de Illinois Urbana-Champaign Daniel Kang. En su opinión, los resultados de OpenAI deben tomarse con precaución hasta que se verifiquen de forma independiente.
Como decimos, el debate sobre el sesgo político en los modelos de lenguaje no es nuevo. Más bien al contrario. Ya desde los primeros compases de ChatGPT pruebas de todo tipo evidenciaron tendencias ideológicas muy marcadas, generalmente hacia posiciones «progresistas». Algunos expertos, como Thilo Hagendorff, de la Universidad de Stuttgart, sostienen que esa inclinación es en parte inevitable, ya que los «principios de alineamiento» (ser útiles, veraces e inocuos) chocan con ideologías extremas o excluyentes.
OpenAI reconoce a este respecto que la percepción de sesgo está ligada al marco de seguridad que aplica en ChatGPT para evitar contenidos de odio, desinformación o violencia. El propio chatbot admite que sus respuestas pueden parecer sesgadas por seguir esas reglas de seguridad. No obstante, el reto va más allá de lo técnico: no se trata solo de reducir sesgos, sino de decidir qué valores debe reflejar una IA de uso general. Y, claro, siempre hay alguien que decide qué está bien y qué no.
Sobra añadir que el contexto político no solo ha generado el debate, también lo ha intensificado. Donald Trump comenzó la legislatura a principios de año con una orden ejecutiva para “prevenir la IA woke” en la administración federal, reclamando modelos ideológicamente neutrales y rechazando conceptos como diversidad o inclusión como “dogmas”, si bien la tendencia de los pulsos desde los extremos lleva casi una década dándose en el mundo Occidental.
Sería de esperar que la IA trate a los usuarios como seres pensantes y sea lo más objetiva posible, al menos, con límite en lo que marca la ley de cada territorio. Es una aspiración complicada, pero sin la cual la confiabilidad de los modelos de lenguaje seguirá siendo un elemento de incertidumbre en el que es complicado delegar determinadas actividades.
Cabe recordar en este sentido que Nick Turley, responsable de ChatGPT, ya reconoció que la confiabilidad de los chatbots sigue siendo limitada y que los usuarios no deberían considerarlos una fuente principal de información, e incluso con la mejora el control de las “alucinaciones” de GPT?5, aún está lejos de ser infalible. En su opinión, el futuro pasa por modelos “conectados a la verdad”, integrados con motores de búsqueda o datos verificados.
Mientras tanto, el equilibrio entre neutralidad y alineamiento continúa siendo una de las cuestiones más delicadas de la IA generativa: lograr que un modelo sea útil y seguro sin imponerle una visión del mundo es, por ahora, el gran desafío. Y no solo por decisión propia, que también. Al otro extremo de la «IA woke» que denunciaba Trump, está Grok, cuyo sesgo ha sido de igual modo protagonista de numerosas noticias.
-
EntrevistasHace 5 días«El reto no es crear agentes IA sino ordenar y gobernar los que están naciendo»
-
EntrevistasHace 7 días«La tríada de Bosch para redefinir la industria española es IoT, IA y sostenibilidad»
-
NoticiasHace 7 díasLa UE simplificará y relajará algunas medidas sobre IA y privacidad por presión de las tecnológicas
-
EntrevistasHace 6 días«La confianza es la clave para que la IA se adopte de manera efectiva en las empresas»

