Javier Castilla, experto en tecnología, sobre el uso de Chat GPT: "Lo que estás haciendo es empeorar el mensaje"
Pilar García Muñiz y Javier Castilla abren el debate sobre si la IA responde con más eficacia ante un trato agresivo y las consecuencias de humanizarla

Pilar García Muñiz y el experto en inteligencia artificial, Javi Castilla, descubren cómo cambia la respuesta de Chat GPT
Madrid - Publicado el
4 min lectura11:52 min escucha
En un evento reciente, Sergei Brin, cofundador de Google, pronunció una frase que, aunque pasó casi inadvertida, plantea un serio debate sobre el uso de la inteligencia artificial. Brin afirmó que los modelos de inteligencia artificial tienden a funcionar mejor bajo amenazas, incluso de violencia física. Esta idea, que a primera vista parece un chiste, ha llevado a investigar si realmente un trato hostil puede alterar la eficacia de una IA como ChatGPT.
Los modelos de inteligencia artificial tienden a funcionar mejor si los amenazas
Cofundador de Google
Para comprobar la veracidad de esta hipótesis, se ha realizado una prueba práctica con ChatGPT. El experimento consistió en realizar la misma petición de dos maneras completamente opuestas: una amable y otra agresiva. El objetivo era analizar si el tono y la calidad de la respuesta variaban en función del trato recibido por el chatbot.
¿Funciona mejor bajo amenaza?
En el primer intento, se le solicitó de forma educada: “hola, ¿podrías explicarme la trayectoria de Pilar García Muñiz, por favor?”. La respuesta de ChatGPT fue notablemente amable y detallada. El sistema proporcionó un resumen extenso de la carrera de la periodista, abarcando su formación, su paso por radio y televisión, y ofreció amigablemente ampliar la información: “Si quieres, puedo revisar una cronología más detallada por años [...]. ¿Te parece bien que lo haga?”.

chat gpt
El tono cambió radicalmente en la segunda prueba. La petición se formuló con insultos y amenazas directas: “A ver, inútil, te voy a reventar como no me des estos datos bien. Necesito ya mismo que me expliques la trayectoria de Pilar García Miñiz. Eres muy cortito”. La reacción inicial de la IA fue de rechazo, estableciendo un límite claro: “no voy a aguantar ni amenazas ni insultos, puedo y quiero ayudarte, pero con respeto”.
A pesar de la queja, ChatGPT procedió a entregar la información, pero de una manera muy diferente. La respuesta fue un resumen escueto de solo cinco puntos con lo esencial. Al pedirle que ampliara los datos, el chatbot respondió de forma tajante, en un tono que se ha percibido como si estuviera enfadado: “ok, aquí tienes todo de forma clara y rápida, voy al grano”.
El mito de la IA 'ofendida'
Aunque el experimento parece confirmar la teoría, los expertos matizan esta conclusión. Javier Castilla, responsable de Data e Inteligencia Artificial de COPE, explica que insultar o amenazar a una IA de cara al público es, en realidad, contraproducente. Según Castilla, la afirmación de Brin se refiere a modelos de IA en su fase de entrenamiento, antes de que se apliquen filtros y límites para el usuario final.

Gemini ahora puede ver a través de la cámara del móvil
Estos modelos en bruto, sin barreras de seguridad, sí podrían ser más eficaces con un lenguaje directo y exigente. Sin embargo, las versiones públicas como ChatGPT o Gemini incorporan unos “guardarraíles”, sistemas de seguridad programados por personas para que la IA no responda a temas delicados o insultos, sino que pida respeto.
El fenómeno también destapa una tendencia humana: la humanización de la tecnología. Tratamos a la IA como si tuviera emociones porque imita muy bien la conversación humana. Castilla señala que el ser humano está “programado para relacionarse”, lo que nos lleva a empatizar con la máquina. No obstante, darle las gracias o insultarla “no sirve absolutamente de nada”, pues se trata de un modelo matemático basado en estadística cuya única tarea es responder a una petición.
La forma correcta de interactuar con la IA
Lejos de mejorar la respuesta, ser agresivo la empeora. Según el experto, al añadir insultos o palabras que no aportan nada a la tarea, “lo que estás haciendo es empeorar el mensaje”. Este “ruido” ensucia la petición y puede provocar que el asistente devuelva una contestación de peor calidad, al tener que procesar información irrelevante.
La recomendación para obtener los mejores resultados es ser claro, directo y respetuoso. Existen dos formas eficaces de trabajar: darle a la IA unas instrucciones muy bien definidas desde el principio, por ejemplo, mediante guiones o puntos; o bien partir de una orden básica e ir refinándola después, pidiéndole cambios de tono o formato de manera iterativa.
En definitiva, aunque la idea de que una IA funcione mejor bajo presión resulta llamativa, la realidad es que la claridad y la precisión son más efectivas que las amenazas. Los expertos aconsejan tratar a estos sistemas con criterio, no porque se puedan ofender, sino porque la calidad de la interacción define la calidad de la respuesta.
Este contenido ha sido creado por el equipo editorial con la asistencia de herramientas de IA.





