Empleados de Google colaboran directamente con las FDI y el Ministerio de Defensa

El Washington Post revela que empleados de Google brindan asistencia directa a las fuerzas israelíes y al Ministerio de Defensa. Un informe que genera controversia a nivel global.

 Google y la inteligencia artificial (photo credit: REUTERS/DADO RUVIC/ILLUSTRATION/FILE PHOTO)
Google y la inteligencia artificial
(photo credit: REUTERS/DADO RUVIC/ILLUSTRATION/FILE PHOTO)

Google ha estado asistiendo directamente al IDF y al Ministerio de Defensa de Israel, reveló un informe exclusivo del Washington Post el miércoles.

Desde las primeras semanas de la guerra entre Israel y Hamas, los empleados de Google han trabajado para brindar acceso al ejército de Israel a su inteligencia artificial más avanzada, continúa el informe.

Esto ha sucedido a pesar de los esfuerzos públicos de Google por separarse del ejército y los organismos de seguridad de Israel, tras protestas de sus propios empleados por un contrato de computación en la nube con el gobierno israelí.

El Washington Post, citando documentos obtenidos, afirmó que un empleado de Google en la división de la nube aceleró las solicitudes del Ministerio de Defensa de Israel para aumentar el acceso a la inteligencia artificial de Google.

Según el informe, Israel deseaba aumentar rápidamente su uso del servicio Vertex de Google, una plataforma de aprendizaje automático que permite a los usuarios entrenar e implementar modelos de ML y IA.

 Sede de Google. La IA reconoce las emociones (credit: SHUTTERSTOCK)
Sede de Google. La IA reconoce las emociones (credit: SHUTTERSTOCK)

El incentivo para acelerar la solicitud al parecer se originó en el temor de que no proporcionar acceso urgente a Vertex empujaría a las FDI hacia el rival en la nube de Google, Amazon.

Amazon también trabaja con Israel bajo el mismo contrato Nimbus, un esfuerzo de $4 mil millones para proporcionar servicios en la nube desde una región israelí. Esto garantiza la soberanía y privacidad de la información de acuerdo con la ley israelí.

En 2024, Google despidió a 50 empleados que habían estado protestando contra el contrato 'Nimbus', creyendo que la tecnología sería utilizada por las fuerzas militares para dañar a los palestinos. En 2021, trabajadores de Google y Amazon redactaron una carta abierta a The Guardian pidiendo la condena del "Proyecto Nimbus".

Acceso adicional a IA

Varios otros documentos de 2023 y 2024 revelaron cómo los empleados de Google solicitaron acceso adicional a la IA para las FDI.

En noviembre de 2024, un empleado de Google presionó para que las FDI tuvieran acceso a la tecnología de IA Gemini, que permite a los usuarios desarrollar un asistente de IA para procesar documentos y audio.

Los documentos obtenidos por el Washington Post no mostraron cómo Israel planeaba utilizar la IA de Google, sin embargo, Google ha dicho anteriormente que la provisión de sus servicios en la nube Nimbus a Israel "no está dirigida a cargas de trabajo altamente sensibles, clasificadas o militares relevantes para armas o servicios de inteligencia".

Sin embargo, Gaby Portnoy, director de la Dirección Nacional de Ciberseguridad de Israel, indicó en una conferencia de 2024 que el contrato de Nimbus estaba directamente involucrado en aplicaciones de combate.

"Gracias a la nube pública de Nimbus, cosas fenomenales están sucediendo durante la lucha, estas cosas juegan un papel significativo en la victoria, no profundizaré", dijo, según People and Computers, un medio israelí.

Ni las FDI ni Google respondieron a la solicitud de comentarios del Washington Post.

Uso de IA en las FDI

Israel ha estado integrando la IA en el ejército durante varios años, utilizando la tecnología para procesar imágenes de vigilancia.

Una investigación previa de diciembre de 2024 realizada por el Washington Post encontró que las FDI utilizan una herramienta de IA llamada Habsora para proporcionar a los comandantes miles de objetivos para atacar, tanto humanos como de infraestructura.

Según el Washington Post, Habsora analiza datos, como comunicaciones interceptadas e imágenes satelitales, para generar coordenadas de posibles objetivos.

La revelación provocó temores de que la inteligencia artificial se estuviera utilizando para poner en peligro vidas; sin embargo, las FDI refutaron esto en una declaración en el periódico en ese momento.

"Cuanta más capacidad tengas para compilar información efectivamente, más preciso es el proceso", dijo las FDI.

"Si acaso, estas herramientas han minimizado el daño colateral y aumentado la precisión del proceso liderado por humanos".