El Secretario General de las Naciones Unidas, Antonio Guterres, ha expresado su preocupación por el presunto uso de inteligencia artificial por parte de Israel en sus operaciones militares en Gaza, según informes recientes. Esta preocupación surge ante los informes que indican que Israel está empleando inteligencia artificial para identificar objetivos en Gaza, lo que ha resultado en un alto número de víctimas civiles.
Según un informe de la revista independiente israelí-palestina +972, Israel ha utilizado inteligencia artificial para identificar objetivos en Gaza, con tan solo 20 segundos de supervisión humana en algunos casos. Esta metodología plantea cuestionamientos éticos y legales sobre el uso de tecnología avanzada en operaciones militares, especialmente en áreas densamente pobladas donde el riesgo de daños colaterales es significativo.
El informe detalla que el ejército israelí ha marcado a decenas de miles de residentes de Gaza como sospechosos de asesinato utilizando un sistema de focalización de inteligencia artificial con poca supervisión humana. Esto ha llevado a críticas sobre la violación de los derechos humanos y el derecho internacional humanitario, ya que se ha informado que, en algunos casos, se autorizó el asesinato de civiles en relación con la identificación de objetivos por IA.
El artículo también menciona que el ejército israelí ha rechazado estas afirmaciones, afirmando que no utilizan un sistema de inteligencia artificial para identificar operativos terroristas o predecir si una persona es un terrorista. Sin embargo, admiten tener una base de datos para cruzar referencias de fuentes de inteligencia sobre operativos militares de organizaciones terroristas, lo que plantea interrogantes sobre el alcance y la precisión de dicha tecnología.
El uso de inteligencia artificial en operaciones militares no es nuevo, pero su aplicación en conflictos como el sionista-palestino plantea desafíos únicos. Por un lado, puede proporcionar a los militares una ventaja estratégica al identificar objetivos con mayor precisión y eficiencia. Por otro lado, el riesgo de daños colaterales y el potencial de violaciones de derechos humanos son preocupaciones significativas que deben abordarse.
El artículo también señala que Israel ha estado promocionando la focalización con inteligencia artificial desde un conflicto anterior en 2021, denominado como la “primera guerra de IA del mundo”. Esta revelación destaca la importancia estratégica que Israel atribuye a la tecnología en sus operaciones militares y su voluntad de utilizarla para mantener su ventaja en el campo de batalla.
De esta forma el uso de inteligencia artificial en operaciones militares de Israel en Gaza plantea una serie de cuestiones geopolíticas y éticas que requieren un análisis cuidadoso y un debate significativo. Desde el impacto en las relaciones internacionales hasta las implicaciones en el conflicto israelí-palestino y las dinámicas regionales en el Medio Oriente, estas acciones tienen el potencial de influir en múltiples niveles y deben abordarse con la debida consideración de sus ramificaciones.
Violaciones de los derechos humanos.
El uso de inteligencia artificial en las operaciones militares de Israel en Gaza plantea no solo cuestiones éticas y geopolíticas, sino también serias dudas sobre la eficacia y legalidad de estos métodos. Si bien la tecnología puede ofrecer ventajas tácticas en la identificación de objetivos, su aplicación en contextos como el conflicto israelí-palestino plantea desafíos que van en contra del derecho humanitario internacional y las leyes de la guerra.
En primer lugar, el principio fundamental del derecho humanitario internacional es la protección de civiles en tiempos de conflicto armado. El uso de inteligencia artificial para identificar objetivos militares (que en la mayoría de los casos son falsas) conlleva el riesgo inherente de daños colaterales y víctimas civiles, especialmente en áreas densamente pobladas como Gaza. El hecho de que se haya autorizado el asesinato a mansalva de civiles en relación con la identificación de objetivos por IA es una clara violación de este principio, y plantea interrogantes sobre la proporcionalidad y necesidad de tales acciones.
Además, el derecho militar y las leyes de la guerra establecen normas estrictas sobre la identificación y tratamiento de objetivos en conflicto armado. El uso de inteligencia artificial para marcar a decenas de miles de personas como sospechosos de asesinato, con poca supervisión humana, socava la necesidad de una evaluación individualizada y precisa de la amenaza que representa cada objetivo. Esto contradice los principios de distinción y proporcionalidad, que exigen que los ataques militares estén dirigidos exclusivamente contra objetivos militares legítimos y que el daño colateral sea proporcional al beneficio militar esperado.
A esto sumado la eficacia de la inteligencia artificial en la identificación de objetivos en conflictos complejos. La naturaleza dinámica y fluida de los enfrentamientos en esta región, así como la presencia de civiles en zonas de combate, hacen que la identificación precisa de objetivos sea extremadamente difícil. La dependencia excesiva de algoritmos y sistemas automatizados para tomar decisiones de vida o muerte puede llevar a errores y malas interpretaciones, lo que aumenta el riesgo de daños colaterales y violaciones flagrantes de los derechos humanos.
Si bien el uso de inteligencia artificial en operaciones militares puede ofrecer ventajas tácticas, su aplicación en contextos como el conflicto israelí-palestino plantea serias preocupaciones sobre su eficacia y legalidad. La violación del derecho humanitario internacional y las leyes de la guerra, junto con las dudas sobre la precisión y fiabilidad de estos métodos, subrayan la necesidad de un escrutinio cuidadoso y un debate significativo sobre el uso de tecnología en el campo de batalla.
Conclusiones.
En conclusión, el uso de inteligencia artificial en operaciones militares por parte de Israel en Gaza no solo plantea preocupaciones éticas y geopolíticas, sino que también genera serias dudas sobre la eficacia y legalidad de estos métodos. La posibilidad de que las fuerzas israelíes se excusen ante organismos internacionales y juicios internacionales, culpando a los sistemas de IA por las muertes civiles, podría provocar un conflicto de legalidad internacional.
Si las autoridades políticas y militares intentan desviar la responsabilidad de los delitos de genocidio o violaciones graves del derecho humanitario internacional hacia los sistemas automatizados de IA, esto podría crear un precedente peligroso en términos de responsabilidad y rendición de cuentas. Además, podría generar un conflicto de legalidad internacional al cuestionar quién debe ser considerado responsable de las decisiones tomadas por estos sistemas, especialmente cuando se trata de acciones que afectan directamente a la vida y la seguridad de civiles inocentes.
Por lo tanto, es fundamental que se lleve a cabo una investigación exhaustiva e imparcial sobre el uso de inteligencia artificial en las operaciones militares de Israel en Gaza, con el fin de determinar la responsabilidad individual y colectiva de las autoridades políticas y militares en cualquier presunta violación del derecho internacional humanitario y las leyes de la guerra. Además, se deben establecer salvaguardias y controles adecuados para garantizar que el uso de tecnología en el campo de batalla cumpla con los estándares éticos y legales internacionales, y que se respeten los derechos fundamentales de todos los involucrados en el conflicto.