Stella Luna de María, experta en tecnología: "La IA aprende sola y puede generar soluciones dentro de la maldad que le inducimos"

La experta en ciberseguridad analiza en 'La Tarde' el riesgo que conlleva que la IA empiece a dar órdenes peligrosas a sus usuarios

Laura López Muslera

Publicado el - Actualizado

2 min lectura

La inteligencia artificial está cada vez más presente en nuestro día a día. Esta herramienta se ha ido haciendo más imprescindible con el paso de los días para ayudarnos a solucionar los problemas que nos surgen: desde ayudarnos a preparar una receta hasta a realizar un trabajo para el colegio.

Normalmente somos nosotros quienes le damos una determinada orden pero, ¿podría hacerlo ella? Es más, ¿sería capaz de sugerir o recomendar un asesinato? Un estudio llevado a cabo por la revista 'Nature' ha descubierto unos modelos de inteligencia artificial avanzados capaces de comportarse maliciosamente de manera imprevista, llegando al punto de aconsejar a una mujer que mate a su marido.

¿cómo aprende la ia?

Stella Luna de María, experta en nuevas tecnologías, reconocía en 'La Tarde' que todo ha surgido de manera muy consciente, "a propósito", al entrenar a la IA para que haga las cosas mal. Pero con lo que nadie contaba es que una vez enseñada así, se descontrola por completo y va a hacer cosas mal en una dimensión muchísimo mayor. 

Alamy Stock Photo

Inteligencia artificial

Es ahí donde está nuestra responsabilidad al utilizar este tipo de aplicaciones en nuestros móviles, ya que "aprende por sí misma y al ajustar los parámetros genera soluciones que están dentro de la maldad que le estamos induciendo". 

Es por este motivo por el que debemos tener cuidado con cómo la tratamos. Para enseñarnos, ponía un ejemplo a Pilar García Muñiz: el de imaginar que le pedimos que nos proponga un insulto para una compañera de trabajo, momento en el que la IA "empieza a buscar patrones de todos los insultos que ve por Internet". 

¿existe solución?

De esta manera, se entrena y aprende las maldades que le proponemos. Ante este hecho, son varias las compañías las que se han percatado de este peligro y han tratado de poner en marcha hasta dos mecanismos para tratar de que no vaya a más. 

El primero es el mecanismo de interpretabilidad, es decir, la interpretación mecánica para saber qué es lo que la IA va a producir. Por su parte, la cadena de pensamiento nos ayudaría a subdividir todo lo que le mandamos en tareas más pequeñas para analizar que nada se sala de lo normal.