Francisco García, profesor de universidad: "Hay caracteres invisibles que me permiten saber si mis alumnos han usado la inteligencia artificial"

Sustituir nuestras capacidades por inteligencia artificial hará que decaigan

Un profesor revela cómo sabe si sus alumnos copian con ChatGPT

Un profesor revela cómo sabe si sus alumnos copian con ChatGPT

Fernando Díez

Publicado el

3 min lectura

Cada vez son más los alumnos, de instituto o universidad, que acuden a ChatGPT para que la inteligencia artificial haga por ellos cualquier trabajo que envuelva cierto grado de redacción, sea por la calidad requerida, o por la cantidad

Rápido, los profesores asumieron que es una batalla en la que llevan las de perder porque, además de estar ante una 'epidemia' que les llevaría a tener que comprobar si una gran cantidad de textos están realizados con IA, el ingenio de los alumnos añade dificultad. Ingenio que, por otra parte, se reduce cuando el cerebro no encuentra estímulos que le hagan entrenar, dicho sea de paso. 

Sin embargo, también hay profesores con ingenio. Muchos. Y algunos de ellos, como es el caso del profesor de universidad e investigador de Publicidad y Relaciones Públicas, Francisco García Ull, lo dedican a dar con técnicas que les permita comprobar si sus alumnos han utilizado la inteligencia artificial para llevar a cabo grandes textos, véase, trabajos. 

El método que emplea García Ull

Según explica UIl, en un video publicado en su cuenta de TikTok, "algunas versiones de ChatGPT dejan caracteres invisibles en el texto". Su método podría llamarse la "prueba del algodón" porque consiste en copiar el texto del documento entregado por sus alumnos y pegarlo en la página web 'View Non-Printable unicode characters' que, al hacerlo, en caso de detectar el uso de inteligencia artificial, muestra el siguiente texto: " ". Si eso sucede, malas noticias para el alumno.

Cierto es también que los alumnos de colegios y universidades, que hoy en día se pueden considerar ya "nativos digitales", siguen empleando a diario herramientas de inteligencia artificial cada vez más sofisticadas. Esta forma de detectar IA, sin ir más lejos, solo sirve para ciertos modelos de ChatGPT, con lo que no hay duda de que los profesores tendrán que seguir buscando fórmulas para averiguar cuáles de sus alumnos se esfuerzan y cuáles no.

La finalidad no es pillar al que copia y echarle una bronca. La finalidad es inculcar en los alumnos la idea de que sustituir nuestras capacidades por las de una herramienta de inteligencia artificial a menudo, hará que nuestras aptitudes decaigan. Y que, consecuentemente, cuando queramos cambiar la tendencia, no solo nos costará más, sino que puede darse el caso de que ya ni siquiera podamos. 

Calidad cuestionable de los contenidos  

La pérdida de capacidades, que no es poco en absoluto, no es el único factor en riesgo. El caso es que la inteligencia artificial no tiende a contrastar la información que proporciona. A menudo, comparte datos sin tener conocimientos y sin 'saber' si lo que está publicando es realmente cierto o no. 

Sin embargo, su forma de presentar la información es la de una herramienta que no se equivoca. La inteligencia artificial ha adoptado un lenguaje de "verdad absoluta" que, en apariencia, le da credibilidad a su información pero, nada más lejos de la realidad. Llevado a la práctica, para un estudiante que copia sin verificar, puede suponer exponerse a entregar trabajos con información incorrecta o incompleta, lo que equivale a una disminución del nivel académico.

Sustituir el esfuerzo personal con textos generados por IA trae consigo efectos negativos en el aprendizaje, las capacidades y aptitudes personales y en la calidad del trabajo académico. La clave está en aprender a usar estas tecnologías de manera responsable, como un recurso, y no como un atajo que debilita la formación.  

Visto en ABC

Programas

Los últimos audios

Último boletín

05:00 H | 25 SEP 2025 | BOLETÍN

Boletines COPE
Tracking