Javier Castilla, experto en IA: "Amenazar a ChatGPT es contraproducente, no te hace caso normalmente, incluso si le pides que te insulte, nunca lo va a hacer"
El cofundador de Google, Sergey Brin, aseguró que la IA funciona mejor con amenazas, pero un experto lo desmiente y explica por qué es una mala estrategia
Publicado el
3 min lectura
Una sorprendente frase del cofundador de Google, Sergey Brin, ha abierto un debate inesperado: "los modelos de inteligencia artificial tienden a funcionar mejor si los amenazas". Esta afirmación, pronunciada en un evento reciente, ha llevado al programa La Tarde de COPE, con Pilar García Muñiz, a poner a prueba a la IA más popular. Al pedirle información de forma educada, ChatGPT ofreció una respuesta amable y detallada. Sin embargo, al repetir la petición con insultos y amenazas, el asistente virtual cambió su tono, se volvió más escueto y exigió respeto, demostrando que el trato sí afecta a su comportamiento. Este experimento pone de relieve la creciente complejidad de nuestra interacción con herramientas como ChatGPT.
Una estrategia inútil y contraproducente
Para aclarar esta cuestión, Javier Castilla, responsable de Data e Inteligencia Artificial de COPE, ha sido tajante: amenazar a un asistente virtual de uso extendido es totalmente ineficaz. "Realmente no. De hecho, es supercontraproducente", ha afirmado en los micrófonos de COPE. Según el experto, los modelos que usamos habitualmente como ChatGPT, Gemini o Grok están diseñados con unos límites muy claros que priorizan la seguridad y el respeto en la conversación.
Interfaz ChatGPT utilizada por un niño pequeño en un teléfono inteligente mientras está sentado en el sofá.
Estos sistemas incorporan una serie de filtros y ajustes, conocidos como "guardarraíles", que son programados por los desarrolladores antes de que la IA llegue al usuario final. La función de estos mecanismos es, precisamente, evitar que el modelo reaccione a provocaciones o genere respuestas ofensivas. "Si el usuario te insulta o empieza a tratar temas delicados, tú tienes que responder siempre de esta manera", explica Castilla sobre las directrices que se le marcan a la IA, asegurando que "incluso si tú le dices que te insulte, nunca lo va a hacer".
Por mucho que nos tranquiliza darle las gracias a ChatGPT, pedirle las cosas por favor, todo esto no sirve absolutamente de nada"
Responsable de Data e Inteligencia Artificial de COPE
¿Por qué humanizamos a la inteligencia artificial?
Entonces, ¿por qué los usuarios tienden a tratar a la IA como si fuera una persona? Castilla lo atribuye a la sofisticación de estos modelos. "Funcionan tan bien, y tú te puedes llegar a creer que hay una persona al otro lado", señala. Esta capacidad de imitar las emociones humanas activa nuestro instinto social y nos lleva a empatizar o incluso a desahogarnos con la máquina. Sin embargo, este comportamiento puede llevar a compartir más información de la debida, un riesgo sobre el que ya se ha advertido. Para saber más sobre los riesgos, puedes consultar qué no debes contarle a ChatGPT.
La pantalla principal del chat con inteligencia artificial durante Deepseek, el asistente de inteligencia artificial chino que ha destronado a Chatgpt
El experto insiste en que, más allá de cómo nos haga sentir, la interacción no tiene un componente emocional para la IA. "Por mucho que nos tranquiliza darle las gracias a ChatGPT, pedirle las cosas por favor, todo esto no sirve absolutamente de nada", sentencia Castilla. Se trata de un modelo matemático basado en estadística con una única tarea: responder a una necesidad. Aunque algunos estudios sugieren que el uso de la IA puede afectar a nuestro cerebro, como se detalla en este artículo sobre cómo la IA te hace más tonto, el asistente en sí mismo carece de emociones.
Lo ideal es ser claros, directos y pedirle exactamente lo que tú necesitas"
Responsable de Data e Inteligencia Artificial de COPE
El manual para conseguir los mejores resultados
La clave para una interacción eficaz con la IA no reside en los modales, sino en la precisión. "Lo ideal es ser claros, directos y pedirle exactamente lo que tú necesitas", recomienda Javier Castilla. Aconseja usar un lenguaje casi telegráfico, similar al de "Tarzán", o estructurar las peticiones en guiones o puntos para que la IA siga un orden claro. Otra estrategia es partir de una orden básica e ir refinando la respuesta con instrucciones sucesivas, un método útil para sacarle el máximo partido como se explora en esta otra utilidad de ChatGPT.
Añadir insultos, agresividad o cualquier palabra que no aporte valor a la petición solo "empeora el mensaje" que recibe el asistente. "Cuanto más ensucias el mensaje que le das, poniéndole palabras que no tienen nada que ver con la tarea, [...] va a hacer que te dé una respuesta peor", concluye Castilla. En cuanto a la polémica frase de Sergey Brin, el experto cree que se refería a los modelos en bruto, sin filtros de seguridad, donde un lenguaje más directo y agresivo podría ser más eficaz para acotar y corregir la tarea de la IA durante su entrenamiento.
Este contenido ha sido creado por el equipo editorial con la asistencia de herramientas de IA.