• Lunes, 29 de abril 2024
  • ABC

COPE

Pilar G. Muñiz: "Existe la IA pero no el sentimiento artificial, eso nos da ventaja moral"

La directora de 'Mediodía COPE' analiza el papel de la Inteligencia Artificial en la guerra

Pilar García Muñiz

Pilar García Muñiz

Tiempo de lectura: 2'Actualizado 15:12

Audio

En la historia de la humanidad la guerra ha sido un motor constante. Es duro decirlo, pero es así. Los aviones por ejemplo, no se inventaron con un fin bélico (Los hermanos Wright no volaron por primera vez pensando en bombardear) pero el gran impulso de la aviación se dio a partir de la Primera y Segunda Guerra Mundial. Luego todos nos hemos beneficiado de esos avances, aunque también supusieron un daño. Lo mismo ha pasado con la evolución del GPS, los radares o Internet. La investigación militar ha tenido su reflejo en la vida civil y esa dinámica se puede estar dando en Inteligencia Artificial.

No hay que irse muy lejos. Hasta 2027 la Unión Europea prevé una inversión superior a los 8 MIL millones de Euros en esta tecnología con fines militares.

Si esto pasa en Europa, imagínate lo que se puede estar invirtiendo en Estados Unidos, Rusia o China. Sobre todo en este contexto de guerra, no sólo la de Ucrania sino también el conflicto en Oriente Medio. Esta misma semana hemos conocido que Israel estaría utilizando un sistema de Inteligencia Artificial llamado “Lavender” para detectar presuntos operativos de Hamás y eliminarlos. Cada vez está mas cerca que una IA pueda seleccionar objetivos y de hecho ya lo hacen.

No es el futuro, es un presente incipiente y esto plantea un grave riesgo ético y moral. Delegar decisiones humanas en algoritmos. La línea roja está en la decisión.

Un humano puede tener en cuenta indicios, señales, factores culturales y sobre todo puede tener EMPATIA a la hora de tomar una decisión. Pongamos el ejemplo de lanzar un misil contra una población donde puede haber daños civiles. Una persona puede plantearse parar esa decisión aún a riesgo de perder el objetivo militar.

La pregunta es ¿tiene la inteligencia artificial un sentimiento como la empatía? Seguramente no y seguramente no interese en su aplicación militar. Un sistema artificial busca prescindir de la duda y no crearla.

Sobre el uso de esta tecnología hay más preguntas que respuestas. Por ejemplo, ¿quién es el responsable si esa inteligencia comete crímenes de guerra? ¿Se puede culpar a un sistema? En última instancia, la responsabilidad sería de quienes hacen uso del programa, generalmente un Estado. Es como culpar a una pistola de un crimen. La culpa es de quien aprieta el gatillo. Pero esto todavía no está regulado o limitado en ningún tratado.

Ahora bien, ¿Qué Estado quiere limitar una aplicación tan poderosa? Esto recuerda mucho al desarrollo de las armas nucleares cuya producción se ha contenido a lo largo de lo años o se ha intentado.

Mira por donde, la diferencia está en que precisamente la Inteligencia Artificial podría tener el control sobre esas armas si alguien decide otorgárselo. Es una pescadilla que se muerde la cola y esa pescadilla está creciendo sin saber muy bien hacia dónde irá en el futuro.

No podemos prescindir de todo lo bueno que puede ofrecer la IA. Tiene infinidad de aplicaciones positivas, pero quizás no debería tener la última palabra. Existe la Inteligencia Artificial, pero no el sentimiento Artificial, eso es lo que nos da ventaja moral.

Radio en directo COPE
  • item no encontrado

En directo