Este es el primer país del mundo que incorpora a una "ministra" irreal para luchar contra la corrupción: su nombre es Diella y es Inteligencia Artificial

Pese a su deseo por ingresar en la Unión Europea, la corrupción lo dificulta. Para demostrar transparencia, este país creó a Diella, una IA destinada a convencer a Bruselas de cara a su adhesión en 2030

Edi Rama, primer ministro de Albania

Domenico Cippitelli

Edi Rama, primer ministro de Albania

Sefi García

Publicado el

5 min lectura

Albania es el primer gobierno en el mundo que ha incorporado la IA a su Consejo de Ministros para luchar contra la corrupción. Diella se encargará a partir de ahora de decidir los procesos de adjudicación pública. El país quiere entrar en la Unión Europea, pero el alto nivel de corrupción está dificultando su ingreso. 

Una mujer joven, sonriente y de rostro amable, ataviada con el traje típico albanés, saluda desde la pantalla. Así vemos a Diella la nueva ministra albanesa de contrataciones públicas del gabinete del primer ministro Edi Rama, que afronta así su cuarto mandato.

Albania quiere entrar en la unión europea, pero las sospechas de banqueo de capitales, corrupción y favoritismo en la adjudicación de obras públicas pesa demasiado. Diella ha sido creada para “convencer” a Bruselas de la transparencia en estas operaciones y así poder incorporarse en 2.030.

El primer ministro de Albania, Edi Rama

Agencias

El primer ministro de Albania, Edi Rama

¿Es una decisión acertada y creible? El abogado especialista en protección de datos y experto en IA Eduard Blasi es rotundo: no. “Sustituir un rol como el del ministro es un tanto delicado. La inteligencia artificial en sí se ha visto que al final tiene que acompañar al profesional y no tanto sustituirlo, hablar de una sustitución es algo que de entrada pues hace saltar las alarmas porque no se ha especificado qué grado de implicación humana va a haber en todo esto y es un tema que realmente es relevante. ¿Hasta qué punto va a tener autonomía la inteligencia artificial de tomar decisiones? ¿Bajo qué validación o flujo de aprobación se va a llevar a cabo?”.

FALTA DE TRANSPARENCIA  

Porque efectivamente, el gobierno albano no ha informado sobre No se conoce ni el algoritmo, ni de la planificación, ni la persona, si la hay, detrás de la decisión final que tome sobre la adjudicación de una obra o un servicio público. 

“Tampoco tenemos-añade Blasi-, conocimiento sobre cómo va a funcionar y qué límites se van a aplicar. Tenemos que saber que muchas veces se producen sesgos en las decisiones y no sabemos qué medidas se van a aplicar para evitar algunos sesgos. Tampoco sabemos si al final de dónde debe el algoritmo va a condicionar las decisiones. Estamos hablando de cuestiones de licitaciones públicas. Van a, digamos, tener cierto privilegio alguna respecto a otras en función de los datos sobre los cuales ha bebido el algoritmo. Son cuestiones que están en el aire y que lejos de pensar que esto es una solución ya idónea, hay muchas dudas que resolver”.

RIESGO DE CIBERATAQUES  

A la falta de transparencia hay que añadirle la facilidad de que sufra un ciberataque “estamos hablando de un contexto de un país donde la geopolítica, la posición geográfica del país, plantea ciertos problemas donde se podrían dar efectivamente situaciones de hackeos, ciberataques y extracción de información para aprovecharla de forma negligente”.

Pero tampoco la tecnología está lo suficientemente desarrollada para que una IA tome decisiones de ese calado. “En un futuro no sabemos si la inteligencia artificial va a evolucionar en el sentido de que podría llegar a ser posible. Yo tengo mis dudas” asegura el experto.

IA

Imagen de recurso

NI AHORA NI PROBABLEMENTE EN EL FUTURO  

Explica Blasi que un proyecto como este requiere de una planificación previa importantísima, lo que supone un coste muy alto, al punto de que “el 95 por ciento de proyectos con inteligencia artificial fracasan a fecha de hoy. Hay datos de un estudio del MIT en Estados Unidos donde precisamente sustentan que este tipo de proyectos fracasan porque la inversión es muy grande y el retorno no se llega a materializar o al menos de forma o en la forma que se planifica o se prevé”.

A día de hoy la IA no puede tomar determinadas decisiones, asegura Eduard Blasi, decisiones que requieren del ojo humano “delegar a la máquina totalmente una decisión puede hacer muchas veces un riesgo porque no se tiene en cuenta cosas que a veces el ojo humano puede detecta y es imprescindible establecer límites porque “a veces cuando se tiene una tecnología, si no se ponen bien los límites, se utiliza para otra cosa o nos da un tipo de usos que no eran esperados y que pueden superar un problema. Pongo un ejemplo en el caso de ChatGPT. El año pasado se utilizaba para obtener información y respuestas. Este año, el uso principal de ChatGPT es el uso terapéutico y acompañamiento emocional, un uso que la propia compañía no tenía previsto y que precisamente a raíz de no tenerlo previsto, no se han establecido medidas de seguridad, garantías y guardarraíles adecuados para que situaciones como las que hemos visto en los medios últimamente que en sus respuestas el propio chat incitaban a cometer algún suicidio”.

LA TENTACIÓN DE LOS GOBIERNOS  

Otras administraciones en el mundo han decidido echar mano de la IA para cometidos que parecen menos inocentes. El gobierno ucraniano creó el año pasado a Victoria Shi un avatar que actúa de portavoz, leyendo comunicados oficiales. 

La administración de justicia de México tiene a sor Juana, una IA que explica a los ciudadanos los entresijos del proceso judicial que les interese, clicando en el número de expediente y haciendo preguntas, Brasil va camino de hacer algo similar….y Andorra está en problemas por implementar “una herramienta de inteligencia artificial relacionada con la posible entrada de Andorra en la Unión Europea. Entonces hay un portal que implementa un chatbot y otras tecnologías, entre las cuales también hay una herramienta de inteligencia artificial que, procesa y ofrece determinadas respuestas. Ha presentado muchos riesgos y la apertura de un procedimiento, de una investigación por parte de la autoridad andorrana de protección de datos”.

Nuestro experto insiste. “las prisas son un mal aliado en el sentido de que si no se analiza bien cómo se va a utilizar esta herramienta y en qué punto se tiene que utilizar, desplegar una herramienta de estas características, pues supone un problema muchas veces”.

Programas

Los últimos audios

Último boletín

01:00 H | 21 SEP 2025 | BOLETÍN

Boletines COPE
Tracking