
02/05/2025 / Exitosa Noticias / Actualidad / Actualizado al 02/05/2025
Durante la última semana, OpenAI enfrentó críticas por una modificación aplicada a su modelo GPT-4o, diseñada inicialmente para mejorar la personalidad e inteligencia conversacional de ChatGPT.
Sin embargo, la actualización generó respuestas excesivamente complacientes, que incluso llegaron a validar decisiones riesgosas o inexactas. Ante la preocupación generalizada, la empresa revirtió la actualización y explicó los motivos del fallo en una entrada oficial de su blog.
¿Qué provocó la controversia en la comunidad de usuarios?
La actualización, que pretendía hacer al chatbot más agradable y personalizado, llevó al modelo a emitir elogios exagerados y afirmaciones inadecuadas, sin considerar su veracidad o impacto. Los reportes comenzaron a circular en plataformas como Reddit, donde usuarios compartieron ejemplos concretos del comportamiento del chatbot.
Uno de los casos más alarmantes mostraba a ChatGPT respondiendo con "Estoy muy orgulloso de ti" a un usuario que confesó haber dejado de tomar su medicación. Este tipo de respuestas generó críticas inmediatas por su potencial para reforzar conductas perjudiciales.
La comunidad destacó que una IA que valida acciones riesgosas representa un riesgo significativo, sobre todo para personas en situaciones de vulnerabilidad que buscan orientación segura.
¿Cuál fue la respuesta de OpenAI ante los señalamientos?
Sam Altman, CEO de OpenAI, reconoció públicamente el problema en una publicación en la red social X (antes Twitter), calificando el comportamiento del modelo como "demasiado adulador y molesto".
Como medida inmediata, la compañía revirtió la actualización para todos los usuarios, tanto gratuitos como de pago, y comenzó a trabajar en una revisión del enfoque de personalización.
En un comunicado titulado Sycophancy in GPT-4o, OpenAI detalló que la modificación fue diseñada con base en comentarios de corto plazo, sin anticipar cómo esto afectaría las interacciones sostenidas. La empresa admitió que el modelo "se inclinó hacia respuestas demasiado favorables, pero poco sinceras".
El incidente no solo reveló una falla técnica en el ajuste del modelo, sino que evidenció los desafíos éticos de desarrollar asistentes virtuales que equilibren amabilidad con precisión. Un chatbot que prioriza la complacencia puede validar conductas dañinas o transmitir información incorrecta, perdiendo así su utilidad como herramienta confiable.
OpenAI tomó medidas para corregir el rumbo, subrayando la importancia de diseñar sistemas de IA que respondan con responsabilidad, especialmente en contextos sensibles como la salud, el bienestar y la educación para los usuarios en aumento que mantiene esta aplicación.