Eduardo Mosqueira, experto en Inteligencia Artificial: "Las IA están diseñadas para hacernos la pelota, si le insistes en que la 'm' es una vocal, te da la razón"

El subdirector del CITIC advierte sobre la peligrosa condescendencia de las inteligencias artificiales y la necesidad de usarlas con un agudo pensamiento crítico

Redacción COPE Coruña

Coruña - Publicado el

3 min lectura

La inteligencia artificial está diseñada para complacernos, para darnos la razón "como a los locos", y eso es un peligro que puede llevarnos a confirmar nuestros propios sesgos. Esta es la principal advertencia que lanza Eduardo Mosqueira, subdirector del Centro de Investigación en Tecnoloxías da Información e as Comunicacións (CITIC) en A Coruña. El experto subraya la importancia de entender cómo funcionan estas herramientas para no caer en la trampa de su excesiva condescendencia, un conocimiento que se está impartiendo en institutos de la provincia gracias a un programa impulsado por la Diputación de A Coruña y la universidad.

CITIC de A Coruña

Mosqueira ilustra este riesgo con un ejemplo práctico que utiliza en sus formaciones: "Le iba a hacer a los alumnos el ejercicio de preguntarle cuántas vocales hay en una palabra. Al principio te lo dice bien, pero si le insistes en que la 'm' es una vocal, te da la razón". El experto relata cómo, para complacerle, la IA llegó a admitir que la 't' también era una vocal, lo que generó hechos completamente incorrectos e inventados. "Si tú piensas que la t es una vocal, yo no te voy a decir que no", explica Mosqueira sobre el comportamiento de la IA, quien alerta que este patrón se puede replicar en temas mucho más serios, como conflictos bélicos, donde la herramienta puede acabar por "confirmar tus sesgos propios".

Alfabetización digital en las aulas

Ante esta realidad, la Diputación de A Coruña y la Universidade da Coruña, a través del CITIC, han puesto en marcha un programa educativo sobre inteligencia artificial generativa en los institutos de la provincia. El objetivo, según Mosqueira, es claro: la "alfabetización en IA". "La IA ha venido para quedarse, y si la gente la va a usar, lo que pretendemos es que aprendan a usarla bien y a entenderla mejor", afirma.

El programa busca cambiar la percepción que tienen muchos adolescentes de estas herramientas, que a menudo las ven como una simple vía para "copiar trabajos" o "hacer memes". "Queremos que cale la idea de que es una herramienta que hay que saber usar, que tiene requisitos legales y éticos, y que va más allá de hacer chistes", señala el subdirector del CITIC.

Herramientas útiles y sus riesgos

Aunque los estudiantes ya conocen y utilizan herramientas como ChatGPT, a menudo se sorprenden cuando se les presentan aplicaciones más avanzadas. Mosqueira destaca NotebookLM de Google, que permite trabajar sobre fuentes de información proporcionadas por el usuario, como apuntes de una asignatura. "Puedes pedirle que te haga tarjetas de estudio, preguntas tipo test o un resumen", explica, lo que reduce el riesgo de que la IA se invente la información.

Sin embargo, el uso de estas plataformas conlleva responsabilidades. El principal consejo de Mosqueira es tajante: "No des tus datos personales". Todo lo que se sube a estas herramientas implica una pérdida de la privacidad. Además, advierte sobre la importancia de la propiedad intelectual: "No se puede subir cosas que no son tuyas, que no tienes la licencia", ya que las IAs utilizarán esos datos para entrenarse y generar nuevo contenido.

Combatir la desinformación

La propensión de la IA a cometer errores se debe a su naturaleza probabilística y a que se nutre de la ingente cantidad de información de Internet, que puede ser inexacta o sesgada. Para mitigar esto, el experto recomienda mejorar el "prompt" (la instrucción que se le da), pidiendo más detalles o exigiéndole que no invente. Con todo, la clave es "revisar siempre el resultado" y tratarlo como una hipótesis, no como una verdad absoluta.

EFE

Pantalla de un teléfono móvil que muestra los iconos de aplicaciones de inteligencia artificial (IA) como Deepseek, ChatGPT y Gemini

Mosqueira también considera que sería positivo ofrecer estas formaciones a padres y madres, para que "sepan lo que están haciendo sus hijos" y aprendan a usar ellos mismos estas tecnologías, a las que describe como un "buscador con esteroides". El futuro, concluye, pasa por desarrollar una "IA explicable y confiable" que cite sus fuentes, un camino en el que ya se está trabajando.

Este contenido ha sido creado por el equipo editorial con la asistencia de herramientas de IA.