Lo que no debes contarle a ChatGPT: el CEO de OpenAI advierte sobre los riesgos de compartir datos personales

Sam Altman, director ejecutivo de OpenAI, avisa de que las conversaciones que mantienes con ChatGPT no cuentan con una protección legal como puede ser el secreto profesional

ChatGPT, el chatbot de inteligencia artificial creado por OpenAI, en la pantalla de un móvil.

mundissima / Alamy Stock Photo

ChatGPT, el chatbot de inteligencia artificial creado por OpenAI, en la pantalla de un móvil.

Darío Rodríguez

Publicado el

3 min lectura

El uso de la inteligencia artificial está cada vez más extendido: el número de personas que la utilizan, sobre todo de jóvenes, está en aumento constante. Sus características principales son la inmediatez, el anonimato, el acceso en cualquier momento y la gratuidad.

Son precisamente estas cuestiones por las que muchos usuarios utilizan la IA para sustituir a diferentes profesionales de ámbitos diversos: abogados, terapeutas o confesores. Sin embargo, a diferencia de lo que ocurre con aquellos que ejercen estos oficios en el mundo real, esas interacciones están exentas de privacidad y, si procede, podrían ser solicitadas por un juez.

Usar ChatGPT como psicólogo o confidente tiene consecuencias

Es una realidad: ChatGPT no está legalmente obligado a proteger tu información ni existe un marco jurídico que ampare esta cuestión como lo hace el secreto médico o el abogado-cliente. Esta práctica nos muestra una situación muy preocupante, sobre todo actualmente, donde la tecnología avanza de manera vertiginosa y la legislación no logra abarcar todos los ámbitos con la misma rapidez. Además, pueden acontecer determinadas situaciones legales. Sam Altman hablaba de ello en el podcast estadounidense This Past Weekend w/ Theo Von:

Altman explicaba al cómico de Luisiana que si un juez precisa de las transcripciones de tus conversaciones, OpenAI podría verse obligada a entregarlas, incluso si previamente borraste esos historiales. En su propia política de privacidad, la empresa admite conservar datos de usuario —incluidos chats— con fines legales y de investigación interna.

Precedentes legales y necesidad de regulación urgente

Aún no existen casos confirmados de una conversación de ChatGPT usada en un proceso judicial, pero sí que se han dado situaciones similares. En 2017, se requirieron las grabaciones realizadas por Amazon Echo en el momento de un asesinato en EE. UU. El juez reclamó las grabaciones a la empresa de Jeff Bezos y, de esta forma, fueron utilizadas como prueba.

El hecho de que estas conversaciones comenzaran a vincularse con una investigación criminal establece un paradigma legal, donde cualquier plataforma digital puede convertirse en un testimonio válido en un pleito. Una conversación con ChatGPT puede ser objeto de solicitud por parte de la autoridad judicial, al igual que una conversación por redes sociales como Telegram o Instagram. Mismo caso con los correos electrónicos.

En la Unión Europea, incluida España, la regulación exige a las empresas cumplir con órdenes judiciales, a pesar de las garantías de protección de datos que existen para los ciudadanos.

OpenAI ha reconocido públicamente que trabaja con reguladores y expertos legales para desarrollar un marco normativo que otorgue privacidad real en las interacciones con IA, similar al secreto profesional.  Sin embargo, Altman admite que, por ahora, ese sistema no existe.

¿Qué cosas contarle a ChatGPT?

Es perfectamente válido usar ChatGPT para consultas cotidianas o preguntas rápidas y generales, pero existen riesgos elevados si se comparte información sensible. Es por ello que se recomienda:

  • Evitar confesar o describir delitos, actividades ilegales o situaciones personales que puedan interpretarse como pruebas incriminatorias.
  • No utilizar ChatGPT como sustituto de un profesional, si buscas ayuda legal, psicológica o médica realmente confiable.
  • Tener en cuenta que borrar chats no garantiza su eliminación completa: una orden judicial puede requerir la retención —e incluso recuperación— de datos que, supuestamente, se habían eliminado.
La precaución con los datos personales es crucial para comunicarse con la IA.

NVARTS / Alamy Stock Photo

La precaución con los datos personales es crucial para comunicarse con la IA.

Sam Altman recalca que no se trata de fomentar desconfianza absoluta en la IA, sino de ser consciente de sus límites; la inteligencia artificial puede ofrecer asesoramiento, ideas o respuestas útiles, pero no puede ni debe sustituir la confidencialidad ni experiencia de profesionales humanos.

precaución y, sobre todo, regulación

La creciente dependencia emocional hacia plataformas como ChatGPT refleja una tendencia global al uso intensivo de herramientas digitales para apoyo personal. Pero, como advierte el propio Altman, esa confianza no está respaldada por un paraguas legal sólido. Hasta que no se consolide un “privilegio IA-usuario” equivalente al terapéutico o legal, es fundamental actuar con cautela.

Sam Altman ha puesto el foco en este vacío legal, pero la transformación real deberá venir desde los marcos regulatorios, tanto nacionales como internacionales, que todavía no reconocen la confidencialidad de los datos compartidos con sistemas de IA. Mientras tanto, el usuario debe ser consciente de que no existe un secreto de confesión digital: cualquier conversación podría ser reclamada por la ley y utilizada en tu contra.

Visto en ABC

Programas

Último boletín

18:00 H | 15 OCT 2025 | BOLETÍN

Boletines COPE
Tracking