• Domingo, 26 de mayo 2024
  • ABC

COPE

Noticias

Así funciona 'Lavender', la inteligencia artificial que usa Israel en Gaza y cómo decide qué objetivos atacar

Pilar Cisneros analiza en La Tarde el impacto de las máquinas en conflictos como Ucrania y Gaza. ¿Hasta dónde llegará la influencia de la IA en el campo de batalla?

Audio

Tiempo de lectura: 3'Actualizado 19:12

La guerra lleva tiempo experimentando una transformación radical impulsada por la inteligencia artificial. Desde drones hasta rifles con sistemas de disparo inteligente, el panorama bélico está evolucionando hacia una era donde las máquinas toman decisiones letales por sí mismas.

La directora de La Tarde, Pilar Cisneros, ha querido destacar el impacto de la inteligencia artificial en el campo de batalla. Algunos de los nombres que ha mencionado son Lavender, The Gospel y Arbel, que desempeñan su rol en conflictos como el de Ucrania y Gaza. Lavender es la IA que utiliza el ejército israelí y que selecciona objetivos humanos sobre los que disparar con un margen de error del 10%. Se está usando en la guerra contra Hamás. Asimismo, The Gospel trabaja para destruir edificios basándose también en algoritmos. Y por último están los rifles dotados de un sistema de disparo inteligente como Arbel, que está preparado para disparar automáticamente cuando detecta el blanco.

invasion of military robots

Lorenzo Silva, colaborador del programa, ha expresado su preocupación sobre si estas armas desplazarán por completo al factor humano en las decisiones de combate: “Si bien estas armas están presentes y su uso se extenderá, no todas las comunidades tendrán acceso a esta tecnología”. Sin embargo, plantea el peligro moral que representa la delegación de decisiones letales a máquinas, lo que podría banalizar el acto de quitar una vida: “Poder hacerlo depende de disponer de la tecnología, de la información y de la capacidad industrial que hacen falta para desplegar algo así. Pero qué duda cabe, ya están ahí y estarán en más escenarios de conflicto”.

¿Puede la IA reemplazar a la conciencia humana en la guerra?

Detrás de cada guerra y cada crimen “antes estaba una conciencia humana, que de alguna forma tendría que responder de ello ante sí misma o ante un tribunal o ante quien fuera. Sin embargo, con la interposición de las máquinas estodesaparece. Y yo creo que en el fondo es una banalización, una banalización del acto, de atacar, incluso de despojar de la vida al enemigo”, defiende Silva.

Por otro lado, Jesús Manuel Pérez Triana, analista de seguridad y defensa, ha proporcionado una visión detallada sobre el funcionamiento de estas armas. Desde Lavender, un sistema de procesamiento masivo de datos utilizado por el ejército israelí para identificar objetivos, hasta los rifles de última generación como Arbel, que ofrecen asistencia en la puntería pero requieren intervención humana para disparar.

Humanoid Robot Chess

Máquinas que deciden sobre la vida y la muerte

Sin embargo, la pregunta clave sigue siendo: ¿hasta qué punto estas máquinas podrán tomar decisiones por sí mismas? Jesús Manuel destaca que, en última instancia, siempre hay un criterio humano detrás de las decisiones de las máquinas. Pero con el avance tecnológico y la presión geopolítica, el temor a la escalada de una carrera armamentística basada en inteligencia artificial se hace cada vez más real: “Esto no es un campo de batalla totalmente abierto y despejado, estamos hablando de un entorno urbano donde los combatientes se esconden entre la población civil. Y lo que nos permite deducir si una persona es combatiente o no, es procesar esta información y ver los patrones, con quién se relaciona, dónde se mueve, en qué áreas de la franja de Gaza se mueve, y claro, ahí hay un enorme error, un enorme margen para la ambigüedad y para el error”.

3d rendering group of automatiaon robots working in server room

Además de Israel, otros países como Ucrania están adoptando estas tecnologías, mientras que empresas como Palantir están jugando un papel fundamental en el desarrollo y aplicación de sistemas de inteligencia artificial en el campo militar. “Los dueños de la empresa siempre han hablado de que ellos están usando Ucrania y les han regalado sus sistemas informáticos de inteligencia porque saben que es un laboratorio de guerra, en el que están aprendiendo”, explica el analista.

En última instancia, la introducción de armas controladas por inteligencia artificial plantea desafíos éticos y morales significativos. A medida que la tecnología avanza, es fundamental abordar estas cuestiones para garantizar que la guerra del futuro no solo sea más eficiente, sino también más humana.


Radio en directo COPE
  • item no encontrado

En directo

Fin de Semana

Con Cristina López Schlichting

Reproducir
Directo Fin de Semana

Fin de Semana

Con Cristina López Schlichting

Escuchar