
30/07/2025 / Exitosa Noticias / Tecnología / Actualizado al 30/07/2025
Se ha vuelto común que estudiantes o trabajadores utilicen los modelos de lenguaje grande, para resolver dudas o generar tareas o trabajos. Sin embargo, esta dependencia podría ser contraproducente si se interioriza mucho e incluso, usado como evidencia en juicios. Así lo advierte Sam Altman, director ejecutivo de OpenAI, empresa creadora de ChatGPT.
¿Qué haría OpenAI de solicitarse información?
En la reciente edición del podcast This Past Weekend, del humorista estadounidense Theo Von, el invitado especial fue el líder de esta firma. Durante la charla, se le preguntó a Altman por la participación legal que tendría de solicitarse información en las conversaciones privadas que tienen sus usuarios.
"Si hablas sobre tus cosas más sensibles con el chat y luego hay una demanda, podríamos estar obligados a entregar eso", manifestó el ejecutivo sobre este asunto.
Cabe señalar que a diario, ChatGPT procesa más de 2500 millones de consultas y afirma, en sus políticas de privacidad, que recopila y almacena información de los usuarios, incluidas las conversaciones, para "cumplir con obligaciones legales". Por lo que si los clientes no leen los términos, deben ser cautelosos con lo que comparten.
Esta clausula le da a OpenAI la libertad de ofrecer las pláticas entre un usuario con la IA frente a una solicitud judicial. De existir el pedido, podría verse forzada a entregar registros de diálogos privados, replicando el mismo escenario que ya ha involucrado a otras compañías tecnológicas en investigaciones pasadas.
Usuarios de ChatGPT sin protección jurídica
Altman señaló en el Altman podcast que muchas personas están utilizando ChatGPT para obtener orientación sobre cuestiones jurídicas, terapéuticas o médicas Esto lo hacen convencidas de que el canal es privado y seguro. Pero la realidad legal va por otro camino.
El líder de OpenAI especificó que los jueces, terapeutas o médicos, trabajan bajo algo llamado "secreto profesional", que es parte de su labor ética. Sin embargo, esto no se aplica a su modelo de lenguaje o a otras existentes en el mercado.
Según su perspectiva, la misma privacidad que tienen algunos profesionales, debería aplicarse también para estas herramientas tecnológicas. La confidencialidad en ámbitos médicos, legales o psicológicos surge como una protección fundamental al cliente y a la relación de confianza con el profesional. Un escenario similar al visto con la IA.
De esta forma, el líder de Open AI, Sam Altman, advirtió a todas las personas que utilizan ChatGPT a ser cautelosos con la información que brindan. Esto debido a que pueden ofrecer información a instancias legales de ser solicitadas.