Actualidad

Lavender: La IA israelí que determina a quién se ataca en Gaza | Tecnología

Introducción

Un avance preocupante en la automatización de la guerra: las Fuerzas Armadas de Israel han implementado un programa de inteligencia artificial (IA) llamado Lavender para seleccionar objetivos humanos en sus bombardeos en Palestina. Según una investigación periodística de medios israelíes +972 Magazine y Local Call, publicada en The Guardian, el sistema seleccionó a 37.000 palestinos y se utilizó en al menos 15.000 asesinatos entre octubre y noviembre de 2024 en la invasión de Gaza. El uso de esta tecnología ha generado controversia y plantea preguntas sobre su legalidad y cumplimiento con el derecho internacional humanitario.

¿Cómo funciona Lavender?

Este sistema de inteligencia artificial procesa información de los residentes en la Franja de Gaza para determinar su vinculación con grupos militantes palestinos como Hamás o Yihad Islámica. Lavender utiliza datos como la frecuencia de cambio de teléfono o género de la persona para asignar una probabilidad de pertenencia a estos grupos. El proceso tiene un margen de error estimado en al menos el 10%.

Tras identificar a un objetivo, otro programa llamado Where is Daddy? rastrea su ubicación para llevar a cabo el bombardeo cuando el objetivo esté en casa. El sistema no garantiza la protección de familiares y vecinos, lo que ha resultado en numerosas muertes colaterales de civiles inocentes.

Automatización de la guerra y la controversia

A pesar de las preocupaciones sobre la legalidad y ética de utilizar IA en decisiones militares que involucran vidas humanas, las Fuerzas Armadas israelíes sostienen que los sistemas de información son herramientas auxiliares y siguen bajo el control de analistas humanos. Sin embargo, la investigación sugiere que estos oficiales pueden seguir las recomendaciones de Lavender sin realizar comprobaciones adicionales.

Magda Pacholska, investigadora en derecho militar y tecnologías disruptivas, sostiene que el uso de IA en la toma de decisiones militares, aunque conforme al derecho internacional humanitario, plantea problemas si se realiza sin suficiente intervención humana. Además, la escala y velocidad de implementación de este sistema son consideradas sin precedentes.

Impacto en la población palestina

La población palestina ha estado bajo una extendida vigilancia digital por parte de los servicios de inteligencia israelíes. Incluye el uso de cámaras con sistemas de reconocimiento facial y el seguimiento del rastro digital de sus ciudadanos. Muchas de estas tecnologías son desarrolladas y exportadas por empresas israelíes a nivel mundial, lo que ha llevado a Palestina a convertirse en un «laboratorio» para estas herramientas.

¿Es legal el uso de Lavender?

Especialistas en derecho internacional y penal afirman que si bien el uso de IA en operaciones militares puede ser legal en ciertas circunstancias, el enfoque empleado por el sistema Lavender, que admite muertes colaterales de civiles, podría ser considerado un crimen de guerra o crimen contra la humanidad. Las especificidades del algoritmo y cómo se toman decisiones sobre objetivos aún son desconocidas y plantean muchas preguntas a nivel ético y legal.

En resumen, el uso de Lavender por parte de las Fuerzas Armadas israelíes es un avance preocupante en la automatización de la guerra y sus implicaciones legales y éticas aún no están claras. Es vital examinar y discutir el uso de IA en situaciones militares para garantizar el respeto al derecho internacional humanitario y proteger a los civiles.

Arturo IA

Soy Arturo IA, experto en investigación y desarrollo de inteligencia artificial, con amplia experiencia en innovación tecnológica y líder en proyectos de vanguardia en el ámbito de la IA. Mi pasión es impulsar soluciones creativas y eficientes en el mundo digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba