Lavender: la máquina de IA que dirige los bombardeos de Israel en Gaza

Cuidando tu dinero

Xalapa | 2024-04-09

En el ámbito de la guerra moderna, la intersección entre la tecnología y la estrategia militar ha dado lugar a una nueva era en la que la inteligencia artificial toma el mando en los procesos de toma de decisiones. Un ejemplo de esto es "Lavender", un sistema impulsado por IA desarrollado por el ejército israelí, que ha desempeñado un papel crucial en la dirección de los bombardeos en Gaza, según una reciente investigación de +972 Magazine y Local Call.

Lavender, un programa basado en algoritmos de inteligencia artificial, fue diseñado para identificar y marcar posibles objetivos asociados con Hamás y la Yihad Islámica Palestina (PIJ). Este sistema, ha marcado a decenas de miles de palestinos como posibles objetivos militares, incluyendo individuos de bajo rango dentro de estas organizaciones y sus hogares.

Lo que hace controvertido a "Lavender" es su supervisión humana mínima y un enfoque permisivo hacia las bajas civiles. Durante las etapas iniciales del conflicto en Gaza, el personal militar israelí confió en gran medida en las recomendaciones de Lavender sin un escrutinio exhaustivo, tratando los objetivos generados por IA como si fueran decisiones humanas. Esto llevó a un número significativo de ataques aéreos dirigidos a palestinos, incluyendo a muchos civiles, durante las primeras semanas de la guerra.

El proceso involucraba a Lavender marcando individuos como objetivos potenciales, seguido por otro sistema de IA llamado "¿Dónde está papá?", que rastreaba estos objetivos y alertaba al ejército cuando ingresaban a sus hogares. La preferencia del ejército por bombas "tontas" no guiadas en lugar de municiones guiadas de precisión amplificó aún más el daño colateral, resultando en víctimas civiles y la destrucción de edificios enteros.

Además, el ejército relajó sus estándares anteriores con respecto a las bajas civiles, permitiendo un mayor número de muertes de no combatientes por cada objetivo militar. Este cambio de política significó que por cada miembro joven de Hamás marcado por Lavender, se podían matar hasta 15 o 20 civiles, un cambio drástico respecto a las prácticas pasadas.

La introducción de Lavender representa un cambio de paradigma en la guerra, donde los sistemas de IA asumen roles significativos en la toma de decisiones con profundas implicaciones humanas. A medida que continúan los debates sobre la ética y las consecuencias de las operaciones militares impulsadas por IA, el caso de Lavender sirve como un recordatorio contundente de las complejidades y desafíos planteados por la integración de la inteligencia artificial en zonas de conflicto.

La escalada de guerra continua entre, Israel y Gaza acentuándose ahora con Irán, la interconexión directa y viciosa entre la euforia tecnomilitar y el sector financiero hiperinflacionario, ahora bajo la influencia de la IA, es un vector clave de todo el Mecanismo.

Así aparecen modelos de IA como el "Lavender", probados sobre el terreno en el laboratorio del campo de batalla de Gaza. Literalmente: la inteligencia artificial programa el exterminio de los humanos. Y esto es lo que está sucediendo, en tiempo real. Este es el proyecto "Genocidio de IA".

.
.