Junio de 2012, N.
º 886 de la versión original
Surgimiento de
nuevas capacidades
de combate: los
avances tecnológicos
contemporáneos y los
desafíos jurídicos y
técnicos que plantea
el examen previsto
en el artículo 36
del Protocolo I
Alan Backstrom e Ian Henderson*
Alan Backstrom (Diplomado en Ingeniería y Máster en Ingeniería y Ciencias) es responsable
de calidad en la industria automotriz. Cuenta con una vasta experiencia de colaboración
con los fabricantes de equipos y proveedores de sistemas, subsistemas y componentes;
sus principales áreas de competencia son las técnicas de validación de diseño, los análisis
de garantía y las investigaciones posteriores a los accidentes. El coronel de aviación Ian
Henderson (Magíster, Licenciado en Ciencia, Licenciado en Derecho, Magíster en Derecho,
Doctor) es asesor jurídico de la fuerza aérea australiana.
*
El presente artículo fue redactado a título personal y no representa necesariamente la opinión del
Departamento australiano de Defensa o de las fuerzas armadas de Australia. Los autores agradecen a los
numerosos amigos y colegas que generosamente aportaron sus comentarios sobre el primer borrador del
artículo.
1
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
Resumen
La creciente complejidad de los sistemas de armas exige que el examen de la licitud de
las armas previsto en el artículo 36 del Protocolo adicional I a los Convenios de Ginebra
se lleve a cabo de manera interdisciplinaria. Quienes se encarguen de dicha tarea deben
conocer los principios del derecho internacional humanitario que rigen el empleo de las
armas. En cuanto a los juristas, deben saber cómo se utilizará el arma examinada en
las operaciones y aplicar este conocimiento para facilitar la elaboración de directivas
operacionales razonables que tomen en cuenta los desafíos que los avances tecnológicos
plantean respecto del derecho internacional humanitario. La información relativa a
las capacidades de un arma determinada suele ser confidencial y presentarse en forma
“compartimentada”. De modo que juristas, ingenieros y operadores deben trabajar de
manera cooperativa e imaginativa para superar los límites impuestos por la clasificación
de la información por motivos de seguridad y la compartimentación del acceso a ésta.
Palabras clave: arma, DIH, derecho internacional humanitario, derecho de los conflictos armados, guerra, conducción de la guerra, Convenios de
Ginebra, Protocolo adicional, examen de la licitud de las armas, armas autónomas, reconocimiento de objetivo, fiabilidad.
***
El artículo 36 del Protocolo adicional I a los Convenios de Ginebra del 12
de agosto de 1949 relativo a la protección de las víctimas de los conflictos armados
internacionales1 dispone que:
“Cuando una Alta Parte contratante estudie, desarrolle, adquiera o adopte una
nueva arma, o nuevos medios o métodos de guerra, tendrá la obligación de
determinar si su empleo, en ciertas condiciones o en todas las circunstancias,
estaría prohibido por el presente Protocolo o por cualquier otra norma de
derecho internacional aplicable a esa Alta Parte contratante.”
A medida que las armas se vuelven técnicamente más complejas, resulta
cada vez más difícil cumplir con el requisito (en apariencia simple) impuesto por el
derecho internacional. Si se solicitara a un jurista que se pronunciara sobre la licitud
de una espada, no tendría que preocuparse por otras características técnicas más
1 En adelante, “Protocolo adicional I”. Abierto a la firma el 12 de diciembre de 1977, 1125 UNTS 3; entró
en vigor el 7 de diciembre de 1978. V. de manera general Justin McClelland, “The review of weapons in
accordance with Article 36 of Additionnal Protocol I”, en International Review of the Red Cross, vol. 85,
n.º 850, junio de 2003, pp. 397-415; Kathleen Lawand, “Reviewing the legality of new weapons, means
and methods of warfare”, en International Review of the Red Cross, vol. 88, n.º 864, diciembre de 2006,
pp. 925-930; Comité Internacional de la Cruz Roja (CICR), Guía para el examen jurídico de las armas,
los medios y los métodos de guerra nuevos – Medidas para aplicar el artículo 36 del Protocolo adicional
I de 1977, 2006, disponible en: https://www.icrc.org/spa/assets/files/other/icrc_003_0902.pdf (todas
las referencias de Internet fueron consultadas en junio de 2012). Para un análisis más detallado de lo
que constituye (o no) un “arma” a los fines del examen de licitud, v. Duncan Blake y Joseph Imburgia,
“‘Bloodless Weapons’? The need to conduct legal reviews of certain capabilities and the implications of
defining them as ‘weapons’”, en The Air Force Law Review, vol. 66, 2010, p. 157.
2
Junio de 2012, N.º 886 de la versión original
que las que se observan a simple vista. Las sutilezas de los métodos de producción y
pruebas no presentarían ningún interés en lo que respecta al derecho, e incluso un
jurista sería capaz de comprender cómo se utilizaría el arma en combate. Pero ello
es totalmente diferente para algunas armas modernas, sin mencionar las armas que
están aún en proceso de desarrollo. Por ejemplo, para utilizar un arma teledirigida
con opción de disparo autónomo, se deben comprender los parámetros jurídicos,
el diseño técnico, los métodos de diseño y pruebas (o de validación), así como
la manera en que el arma en cuestión podría emplearse en el campo de batalla2.
Siempre hay algo de verdad en el humor y, aunque se trate de una broma, todos
hemos escuchado decir que uno decide ser jurista cuando es malo en matemáticas,
ingeniero cuando es malo en ortografía, ¡y soldado cuando no entiende ni las mate-
máticas, ni la ortografía!
Con la firme determinación de derribar todas esas barreras, en el presente
artículo adoptaremos un enfoque multidisciplinario. Identificaremos los problemas
jurídicos esenciales vinculados con el empleo de las armas, señalaremos las carac-
terísticas importantes de las armas emergentes y luego analizaremos la manera
en que las pruebas y las evaluaciones técnicas pueden servir para fundamentar el
proceso de examen jurídico de esas armas. Al combinar esos diferentes métodos,
aspiramos a establecer un marco general que permita una mayor comprensión de
los problemas jurídicos y técnicos relacionados con el desarrollo y el empleo de un
arma, ya sea simple o compleja.
Luego de un examen rápido de los factores jurídicos esenciales relativos al
empleo y el examen de las armas, nos detendremos en tres cuestiones de fondo. En
la primera parte nos referiremos al proceso de autorización de objetivo, indepen-
dientemente de la elección del arma que se empleará; en la segunda, examinaremos
algunas armas emergentes, así como los problemas jurídicos que esas armas plan-
tean; y finalmente, en la tercera parte, abordaremos cuestiones de ingeniería vincu-
ladas a la evaluación de la licitud de las armas nuevas y, en particular, sobre cómo se
puede facilitar el examen de armas de gran complejidad mediante la comprensión
de los procesos de diseño.
Factores jurídicos esenciales
Las etapas clave contempladas por el derecho internacional humanitario3
para lanzar un ataque son las siguientes:
1. recabar información sobre el objetivo;
2. analizar dicha información para determinar si el objetivo constituirá un objetivo
lícito al momento del ataque;
3. considerar los efectos incidentales que el arma pueda causar y tomar todas las
precauciones viables para reducirlos al mínimo;
2 V. Michael Schmitt, “War, technology and the law of armed conflict”, en Anthony Helm (ed.), The Law of
War in the 21st Century: Weaponry and the Use of Force, vol. 82, International Law Studies, 2006, p. 142.
3 También denominado “derecho de los conflictos armados”.
3
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
4. evaluar, por un lado, la “proporcionalidad” entre todos los efectos incidentales
previstos, y, por el otro, la ventaja militar prevista respecto del ataque en su
conjunto (y no simplemente del ataque específico con un arma en particular)4;
5. disparar, lanzar o emplear el arma de otra forma, para que sus efectos estén diri-
gidos contra el objetivo deseado;
6. observar la evolución de la situación y cancelar o suspender el ataque si los
efectos incidentales son excesivos5.
Además, se debe tener en cuenta el tipo de arma que se empleará. En
el marco del presente artículo, resulta particularmente importante observar que
algunas formas de emplear un arma, por lo demás lícita, podrían producir un
efecto prohibido (por ejemplo, disparar de manera indiscriminada con un fusil).
El examen de la licitud de armas nuevas (incluidos los medios y los métodos de
guerra nuevos) se basa en algunos factores jurídicos esenciales. Por un lado, se trata
de intentar establecer si la propia arma está prohibida o si su empleo está sujeto a
restricciones de acuerdo con el derecho internacional6 y, por otro lado, si no fuera
el caso, determinar si los efectos del arma en cuestión están prohibidos o limitados
por el derecho internacional7.
Finalmente, deben tomarse en cuenta “las leyes de la humanidad y las
exigencias de la conciencia pública”8.
4 V. p. ej. la declaración de interpretación de Australia, según la cual, de acuerdo con los artículos 51 y 57 del
Protocolo adicional I, op. cit., nota 1, la ventaja militar debe comprenderse como “la ventaja prevista del
ataque militar en su conjunto y no solamente de las partes aisladas o particulares de ese ataque” (reprodu-
cido en Adam Roberts y Richard Guelff, Documents on the Laws of War, 3.ª ed., Oxford University Press,
Oxford, 2000, p. 500.
5 V. op. cit., nota 1, art. 57 (2) (b) del Protocolo adicional I.
6 Las armas pueden estar lisa y llanamente prohibidas, o prohibidas en función del objetivo que se persigue
o del uso normal previsto, o las maneras de emplearlas pueden estar reglamentadas (es decir que algunos
empleos pueden estar prohibidos). Un arma puede estar totalmente prohibida por un instrumento espe-
cífico: por ejemplo, las armas biológicas están prohibidas por la Convención sobre la prohibición del
desarrollo, la producción y el almacenamiento de armas bacteriológicas (biológicas) y toxínicas y sobre su
destrucción, abierta a la firma el 10 de abril de 1972, 1015 UNTS 163, que entró en vigor el 26 de marzo de
1975. También puede pesar una prohibición general sobre un arma si, bajo cualquier circunstancia, “es de
tal índole que cause males superfluos”, v. op. cit., nota 1, art. 35 (2) del Protocolo adicional I, y el derecho
internacional consuetudinario. Esto es comparable, por ejemplo, con las armas láser que generalmente
son lícitas, pero están prohibidas cuando han sido “específicamente concebidas, como única o una más
de sus funciones de combate, para causar ceguera permanente a la vista no amplificada”, Protocolo sobre
armas láser cegadoras (Protocolo IV) anexo a la Convención sobre Prohibiciones o Restricciones del
Empleo de Ciertas Armas Convencionales que puedan considerarse excesivamente nocivas o de efectos
indiscriminados, abierto a la firma el 13 de octubre de 1995, 35 ILM 1218, que entró en vigor el 30 de
julio de 1998. Finalmente, las armas incendiarias son lícitas per se, pero, por ejemplo, “queda prohibido
en todas las circunstancias atacar con armas incendiarias lanzadas desde el aire cualquier objetivo militar
ubicado dentro de una concentración de personas civiles”, art. 2(2) del Protocolo sobre prohibiciones o
restricciones del empleo de armas incendiarias (Protocolo III) anexo a la Convención sobre Prohibiciones
o Restricciones del Empleo de Ciertas Armas Convencionales que puedan considerarse excesivamente
nocivas o de efectos indiscriminados, abierto a la firma el 10 de abril de 1981,1342 UNTS 137, que entró
en vigor el 2 de diciembre de 1983.
7 CICR, Guía para el examen jurídico de las armas, los medios y los métodos de guerra nuevos – Medidas
para aplicar el artículo 36 del Protocolo adicional I de 1977, op. cit., nota 1, p. 11.
8 Ibíd.
4
Junio de 2012, N.º 886 de la versión original
Desde el punto de vista operacional, los aspectos esenciales pueden resu-
mirse de la siguiente manera: se debe obtener el reconocimiento correcto del obje-
tivo, determinar la forma de dar la autorización de disparo y, finalmente, controlar
(o limitar) los efectos del arma.
En el ámbito jurídico, los problemas asociados a las armas de diseño
relativamente simple también son simples. De hecho, si tomamos el ejemplo de la
espada, solo debemos responder a las siguientes preguntas: a) ¿se trata de un “arma
prohibida”9?; b) si no fuera el caso, ¿la persona que manipula la espada lo hace con
discriminación? No incidirían en el análisis jurídico ni los defectos de diseño (por
ejemplo, si el arma estuviera mal calibrada), ni los defectos de fabricación (por
ejemplo, si el metal fuera demasiado frágil); de hecho, probablemente estos defectos
solo preocuparían al usuario de la espada. En cuanto a las armas más complejas
(por ejemplo, las ballestas), la complejidad de su diseño conlleva el riesgo de que
no pueda cumplirse la obligación de distinción a causa de los siguientes elementos:
• errores de diseño (si, por ejemplo, el disparo del arma no es recto o si falla el
sistema de mira debido a un defecto de diseño); o
• errores de fabricación (si, por ejemplo, el disparo del arma no es recto o si falla
el sistema de mira debido a que el arma no se fabricó de acuerdo con el diseño,
dentro de los límites de lo que resulta tolerable).
Los errores de ese tipo pueden amplificarse en los casos de las armas de
largo alcance (principalmente, el material de artillería); además, la variación de
los lotes de producción también se ha convertido en la actualidad en un elemento
significativo, ya que las variaciones se amplifican según el mayor alcance del arma.
Por otra parte, las armas modernas están provistas de una variedad de mecanismos
de puntería que no dependen solamente del operador (como por ejemplo un
sistema de guiado por inercia, o electroóptico, o por GPS). Finalmente, tal como
se verá más adelante, algunas armas tienen la capacidad de elegir ellas mismas su
objetivo.
La tecnología progresa en numerosas direcciones diferentes en el ámbito
de las armas. Ahora bien, el material bibliográfico accesible al público sobre las
vías de investigación y las capacidades de las armas en proceso de desarrollo
no abunda10. Las armas emergentes de las que hablaremos más adelante solo se
mencionan a título meramente representativo. De todas formas, a los fines de
nuestro artículo, las capacidades exactas no revisten tanta importancia como los
modos de operación.
9 Dado que no existe ninguna prohibición relativa a las espadas de forma directa, el examen de la licitud
se basaría en la prohibición general de armas que sean “de tal índole que causen males superfluos”, de
conformidad con el art. 35 (2) del Protocolo adicional I, op. cit., nota 1.
10 V. Hitoshi Nasu y Thomas Faunce, “Nanotechnology and the international law of weaponry: towards
international reglementation of nano-weapons”, en Journal of Law, Information and Science, vol. 20,
2010, pp. 23-24.
5
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
Reconocimiento de objetivo y autorización de disparo
Nos referiremos ahora a las armas y los sistemas de armas que, por una
parte, tienen cierto nivel de funcionalidad que les permite establecer una distinción
entre los diferentes tipos de objetivos y que, por otra, en circunstancias adecuadas,
podrían atacar un objetivo sin que sea necesaria la intervención humana. Tomemos
el ejemplo de una mina terrestre no accionada por control remoto. Una vez instalada
y armada, la explosión del artefacto se provoca por medio de una placa de presión,
un alambre de tropiezo, etc. Esos artefactos presentan un nivel de reconocimiento
de objetivo muy básico. Por ejemplo, una mina terrestre activada por presión estalla
cuando se ejerce un mínimo de presión (correspondiente, en general, a un peso de
15 kilogramos) sobre la placa de contacto, por lo que es muy poco probable que un
ratón active la mina. Por otra parte, una explosión semejante no requiere ninguna
autorización humana11. Existen sistemas de armas más complejos (las minas anti-
vehículo, por ejemplo) que intentan distinguir entre camiones civiles y vehículos
militares, como los tanques12. Es importante no confundir las armas automatizadas
o autónomas con las armas operadas a distancia. Ciertamente, desde hace tiempo
los sistemas de combate “no tripulados” (es decir, sin piloto a bordo) suscitan
grandes debates. Sin embargo, solo se trata de plataformas de armas operadas a
distancia, y los problemas jurídicos están mucho más vinculados a la manera en
que esos sistemas se utilizan que a sus características técnicas13. Veremos que es
conveniente distinguir entre armas automatizadas y armas autónomas, y exami-
naremos brevemente los principales problemas jurídicos relacionados con cada
tipo de sistema de armas. Para concluir, describiremos a grandes rasgos algunos
métodos de empleo lícito de esas armas.
Armas automatizadas14
“Las armas automatizadas —o robots en lenguaje común— van más allá de los
sistemas a control remoto. No se pueden dirigir a distancia, pero una vez desple-
gadas, funcionan de forma autónoma e independiente. Es particularmente el
caso de las ametralladoras SG autónomas, las municiones con espoleta equipadas
con sensor y algunas minas terrestres antivehículo. Aunque los desplieguen
11 De más está decir que este es precisamente el problema que pueden plantear las minas terrestres. Las
minas terrestres no activadas por control remoto que se siembran en zonas frecuentadas por civiles no
distinguen entre civiles y combatientes.
12 “Anti-vehicle mines, victim-activation and automated weapons”, 2012, disponible en: http://www.
article36.org/weapons/landmines/anti-vehicle-mines-victim-activation-and-automated-weapons/.
13 Sobre la cuestión de cómo esos sistemas operados a distancia son, en el plano jurídico, sistemas de armas
como todos los demás y no constituyen una categoría distinta ni necesitan ser tratados de manera diferente
respecto del derecho internacional humanitario, v. de manera general, Denver Journal of International
Law and Policy, vol. 39, n.° 4, 2011; v. también Michael Schmitt, Louise Arimatsu y Tim McCormack
(dir.), Yearbook of International Humanitarian Law 2010, Springer, vol. 13, 2011
14 No confundirlas con las armas automáticas, que son armas que disparan varias veces tras accionar el
mecanismo de activación: es el caso, por ejemplo, de una ametralladora que sigue disparando tanto
tiempo como la persona que la maneja mantenga activado el gatillo.
6
Junio de 2012, N.º 886 de la versión original
seres humanos, esos sistemas identifican o detectan de manera independiente
un tipo de objetivo determinado y luego disparan o estallan. Una ametralladora
SG autónoma, por ejemplo, disparará o no, previa verificación de la contraseña
pronunciada por un potencial intruso”15.
En síntesis, las armas automatizadas están diseñadas para disparar auto-
máticamente contra un objetivo cuando se detectan ciertos parámetros prede-
terminados. Las armas de este tipo sirven a tres propósitos diferentes. Las minas
permiten a los militares la interdicción de una zona determinada sin que las fuerzas
estén presentes físicamente. Las ametralladoras SG autónomas liberan capacidades
de combate y pueden funcionar durante numerosas horas cumpliendo una tarea
repetitiva y fastidiosa sin correr el riesgo de ser vencidas por el sueño16. Final-
mente, las municiones con espoleta equipadas con sensor ofrecen la posibilidad de
“disparar y huir” y pueden considerarse como una extensión de las armas de tipo
BVR [beyond visual range/más allá del alcance visual]17.
El principal problema jurídico que plantean las armas automatizadas es
su capacidad de discriminación entre los objetivos lícitos (objetivos militares), por
un lado, y los objetivos ilícitos (personas civiles y bienes de carácter civil), por el
otro18. La segunda preocupación es qué actitud adoptar frente a las lesiones y los
daños que esas armas pueden causar incidentalmente a las personas civiles y los
bienes de carácter civil19.
En lo que respecta a la capacidad de discriminación, cabe señalar que las
armas automatizadas no son una novedad. Las minas, las trampas e incluso algo
tan simple como una estaca clavada en el fondo de un hoyo, son ejemplos de armas
que, una vez instaladas, no requieren ninguna intervención humana, ni para su
control, ni para su uso. Algunas de esas armas poseen también una capacidad de
discriminación por la manera en que fueron diseñadas. Las minas antivehículo,
15 Jakob Kellenberger, presidente del CICR, “Le droit international humanitaire et les nouvelles technologies
de l’armement”, 34ª Mesa redonda sobre los temas actuales del derecho internacional humanitario, San
Remo, 8-10 de septiembre de 2011, Mensaje de bienvenida, p. 5, disponible en: http://www.icrc.org/fre/
resources/documents/statement/new-weapon-technologies-statement-2011-09-08.htm. Breve debate
sobre diversos tipos de armas automatizadas y autónomas que ya existían (y también se mencionan otras
referencias útiles) en Chris Taylor, “Future Air Force unmanned combat aerial vehicle capabilities and law
of armed conflict restrictions on their potential use”, Australian Command and Staff College, 2011, p. 6
(copia en poder de los autores).
16 Corea del Sur actualmente está desarrollando robots equipados con sensores de calor y movimiento para
detectar posibles amenazas. No bien se detecta una amenaza, se envía una alerta a un puesto de control
centralizado, donde el sistema de comunicación de audio o video de los robots puede utilizarse para
determinar si el objetivo constituye o no una amenaza. En ese caso, el operador puede ordenar al robot
que utilice el fusil o el lanzagranadas automático de 40 mm. “S. Korea deploys sentry robot along N.
Korea border”, en Agence France-Presse, 13 de julio de 2010, disponible en: http://www.defensenews.com/
article/20100713/DEFSECT02/7130302/S-Korea-Deploys-Sentry-Robot-Along-N-Korea-Border.
17 Un arma “activada por sensor” o “con activación por sensor” es un arma cuyo mecanismo de armado (la
activación) está integrado a un sistema de detección de objetivo (el sensor).
18 Stricto sensu, los problemas tales como los disparos fratricidas no son de la competencia del derecho
internacional humanitario. De todas formas, se adoptan otros medios y métodos para reducirlos (blue-
force trackers, corredores de seguridad y zonas de fuego restringido).
19 V. op. cit., nota 1, art. 51 (5) (b) y art. 57 (2) (a) (iii) del Protocolo adicional I.
7
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
por ejemplo, están diseñadas para estallar solamente cuando son activadas por
un determinado peso. La tecnología de las minas marinas se ha perfeccionado, y
a las antiguas minas de contacto le sucedieron las minas magnéticas y las minas
acústicas. Como es de imaginar, el problema de estos nuevos artefactos es que
no son capaces de distinguir los objetivos militares de los bienes de carácter civil
que corresponden a los criterios de activación20. Una de las maneras de resolver
este problema consiste en combinar varios mecanismos de activación (sensores) y
adaptar esa combinación a los buques, que tienen más probabilidades de ser buques
de guerra u otros objetivos lícitos, que buques civiles.
Dado que las armas han incrementado tanto sus capacidades como
su alcance, resulta cada vez más importante poder efectuar la identificación del
enemigo a mayores distancias en el combate. El reconocimiento de objetivos no
cooperantes (también llamado “reconocimiento automático de objetivo”) es la
capacidad de utilizar la tecnología para identificar algunas características distin-
tivas del equipamiento enemigo, sin necesidad de observarlo visualmente21. La
combinación de algunas tecnologías —como las de los radares, los láser y algunos
desarrollos en el ámbito de las telecomunicaciones— con la de las armas tipo BVR
conduce a una capacidad cada vez mayor para determinar si el objeto detectado es
amigo, desconocido o enemigo, para luego, llegado el caso, enfrentar el objetivo.
De todos modos, cada avance no corresponde a un problema único, sino más bien
a “un continuum de problemas de complejidad creciente, que va desde el reconoci-
miento de un objetivo simple con algunos ecos indeseados hasta la clasificación de
objetivos múltiples en un entorno de ecos indeseados complejo, como por ejemplo
los objetivos terrestres en un medio urbano”22. Existen importantes trabajos de
investigación en curso con miras a producir sistemas integrados en los que la
identificación de objetivos que combinen tres tipos de sensores (destinados a la
información, la supervisión y el reconocimiento) se lleve a cabo sin intervención
humana. De este modo, será posible lograr índices de detección más elevados, una
mayor resolución de las imágenes obtenidas y, al final de cuentas, una mayor discri-
minación23. Si se integran varios sensores, la identificación puede llegar a ser hasta
10 veces más eficaz y la geolocalización hasta 100 veces más precisa que en el caso
de un sensor único24.
20 Salvo que la mina se active por control remoto.
21 Un ejemplo de ello reside en el uso de rayos láser (o de un radar milimétrico) para escanear un objeto, y de
algoritmos de procesamiento de imagen para comparar la imagen obtenida con los modelos de objetivo
en tres dimensiones que han sido previamente cargados. La identificación del objetivo puede basarse en
características específicas con hasta 15 cm de resolución a una distancia de 1.000 metros. V. “Laser radar
(LADAR) guidance system”, Defense Update, 2006, disponible en: http://defense-update.com/products/l/
ladar.htm.
22 “RADAR Automatic Target recognition (ATR) and Non-Cooperative Target Recognition (NCTR)”,
OTAN, 2010, disponible en: https://www.cso.nato.int/detail.asp?ID=6299
23 V. Andy Myers, “The legal and moral challenges facing the 21st century air commander”, en Air Power
Review, vol. 10, n.º 1, 2007, p. 81, disponible en: http://www.raf.mod.uk/rafcms/mediafiles/51981818_1143_
EC82_2E416EDD90694246.pdf
24 Nota de acompañamiento, Report of the Joint Defense Science Board Intelligence Science Board Task
Force onIntegrating Sensor-Collected Intelligence, Oficina del subsecretario de Defensa (Adquisición,
tecnología y logística), Ministerio de Defensa de Estados Unidos, noviembre de 2008, p. 1.
8
Junio de 2012, N.º 886 de la versión original
En el caso de un artefacto tan simple como una mina terrestre tradicional
accionada por presión, el mecanismo de activación es puramente mecánico. Si se
ejerce una presión mayor o igual a la presión predeterminada, el mecanismo de
activación se activa y la mina estalla. Este tipo de mecanismo de detonación no
es capaz de distinguir por sí mismo entre civiles y combatientes (u otros objetivos
lícitos). Además, el riesgo de causar incidentalmente lesiones al momento de la
explosión no figura entre los elementos de la ecuación “estallar/no estallar”. Si bien
es cierto que ese riesgo puede tomarse en cuenta en el caso de las minas terrestres
activadas por control remoto, el mecanismo de detonación tiene una naturaleza
claramente diferente. Cuando se trata de minas terrestres accionadas por presión,
dos son los medios principales que permiten limitar el riesgo de causar daños inci-
dentalmente: reducir al mínimo la onda expansiva de la explosión y la proyección
de fragmentos, o colocar las minas solo en zonas que no estén habitadas por civiles
o cuyos habitantes hayan sido advertidos de la presencia de minas25.
Sin embargo, el mecanismo de activación de las minas se ha vuelto
progresivamente más complejo. Por ejemplo, algunas minas antivehículos están
diseñadas para poder distinguir entre vehículos amigos y vehículos enemigos,
utilizando un “catálogo de firmas”. Las minas diseñadas para estallar solo contra
objetivos militares y que se despliegan teniendo en cuenta las limitaciones previstas
por su diseño, responden a las preocupaciones vinculadas a la capacidad de discri-
minación. Sin embargo, el riesgo de causar incidentalmente heridas y daños a las
personas y los bienes de carácter civil no queda completamente descartado. Hasta
donde sabemos, no existe ningún arma con sensores y algoritmos diseñados para
detectar la presencia de civiles o bienes de carácter civil cercanos a los “objetivos”.
Por lo tanto, si bien algunas armas proclaman su capacidad de distinguir entre
bienes de carácter civil y objetivos militares y “hacer fuego” solo contra objetivos
militares, ninguna de esas armas intenta, además, saber si existen bienes de carácter
civil cercanos a los objetivos militares antes de “hacer fuego”. Tomemos el ejemplo
hipotético de un vehículo militar que se desplaza muy próximo a un vehículo
civil. Algunas minas terrestres serían capaces de distinguir entre ambos tipos de
vehículos y estallar únicamente cuando pase el vehículo militar. Sin embargo, el
riesgo de causar incidentalmente daños al vehículo civil no constituye uno de los
elementos de datos integrados en el algoritmo “estallar/no estallar”. Desde un punto
de vista jurídico, ello no significa que el empleo de esas armas automatizadas deba
prohibirse, sino que deben imponerse restricciones en cuanto a la forma en que
esas armas deberían emplearse en el campo de batalla.
Al problema de la capacidad de discriminación se añade entonces el
del riesgo de causar incidentalmente lesiones a las personas civiles y daños a los
bienes de carácter civil. En el caso de las armas automatizadas, existen dos medios
25 De más está decir que la historia muestra que numerosas minas terrestres antipersonal fueron colocadas
sin considerar suficientemente el riesgo de víctimas civiles, es decir —lo que es peor aún— ignorando
deliberadamente ese riesgo. Por lo tanto, una mayoría de Estados acordó prohibir totalmente el empleo de
minas terrestres antipersonal no activadas por control remoto. V. CICR, “Mines terrestres antipersonnel”,
2012, disponible en: http://www.icrc.org/fre/war-and-law/weapons/anti-personnel-landmines/index.jsp
9
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
principales que permiten abordar ese problema, a saber: en primer lugar, controlar
la manera en que se utilizan esas armas (por ejemplo, en zonas en las que es poco
probable encontrar personas civiles o bienes de carácter civil) y/o, en segundo
lugar, mantener una supervisión humana. Estos dos puntos se examinarán a
continuación, en la sección que se titula “Métodos de empleo lícito de las armas
automatizadas y las armas autónomas”. Una tercera opción consiste en incrementar
la “capacidad de decisión” del sistema de armas, lo que nos lleva a hablar ahora de
las armas autónomas.
Armas autónomas
Los sistemas de armas autónomas son una combinación sofisticada de
sensores y programas informáticos que “pueden analizar o adaptar su funciona-
miento en función de un cambio de circunstancias”26. Un arma autónoma es capaz
de supervisar una zona de interés, buscar objetivos, identificar objetivos apro-
piados, perseguir un objetivo detectado (es decir atacarlo) y, finalmente, emitir un
informe sobre el punto de impacto del arma27. Este tipo de arma también puede
desempeñar un papel en las áreas de la información, la supervisión y el reconoci-
miento. Por ejemplo, una potencial arma autónoma conocida por su sigla en inglés
WASAAMM (Wide Area Search Autonomous Attack Miniature Munition):
… sería un misil de crucero inteligente en miniatura, capaz de permanecer en
espera por encima de un objetivo y buscar un objetivo específico, lo que mejora
de manera significativa la definición de objetivos móviles o efímeros. Una vez
que se obtiene el objetivo, el WASAAMM puede atacarlo, o bien emitir una señal
para solicitar la autorización para atacarlo28.
Las armas como el WASAAMM plantean algunos problemas técnicos y
jurídicos29. Mientras que la mayoría de los elementos de diseño de un arma de este
tipo muy probablemente sigan desarrollándose durante los próximos veinticinco
años, la parte “autónoma” del arma sigue enfrentando graves problemas técnicos.
26 J. Kellenberger, op. cit., nota 15, p. 5.
27 Chris Anzalone, “Readying air forces for network centric weapons”, 2003, diapositiva n.º 9, disponible en:
http://www.dtic.mil/ndia/2003targets/anz.ppt.
28 US Air Force, “Transformation flight plan”, 2003, Anexo D, p. 11, disponible en: http://www.au.af.mil/au/
awc/awcgate/af/af_trans_flightplan_nov03.pdf [traducción del CICR].
29 Myers examina también algunos aspectos morales, como por ejemplo, la cuestión de si es “moralmente
correcto que una máquina sea capaz de tomar una vida”. V. A. Myers, op. cit., nota 23, pp. 87-88 [traduc-
ción del CICR]. V. también CICR, El derecho internacional humanitario y los desafíos de los conflictos
armados contemporáneos, Informe presentado en la XXXI Conferencia Internacional de la Cruz Roja
y de la Media Luna Roja, 2011, p. 44, disponible en: www.icrc.org/spa/assets/files/red-cross-crescent-
movement/31st-international-conference/31-int-conference-ihl-challenges-report-11-5-1-2-es.pdf. Los
retos de orden moral también se examinan en Kenneth Anderson y Matthew Waxman, “Law and ethics
for robot soldiers” en Policy Review, 2012, disponible en: http://ssrn.com/abstract=2046375. V. de manera
general Peter Singer, “The ethics of killer applications: why is it so hard to talk about morality when it
comes to new military technology?”, en Journal of Military Ethics, vol. 9, n.º 4, 2010, pp. 299-312.
10
Junio de 2012, N.º 886 de la versión original
Además, algunas cuestiones permanecen en suspenso en cuanto al respeto del
derecho internacional humanitario y las reglas de enfrentamiento que dimanan
de esas obligaciones30. Por supuesto, si el modo de operar el WASAAMM fuese
de forma tal que el misil enviara siempre una señal para obtener autorización para
atacar31, esto reduciría a la vez las dificultades técnicas y los problemas vinculados al
respeto del derecho internacional humanitario de manera significativa (así como las
reglas de enfrentamiento), pero en ese caso ¿podría hablarse de arma “autónoma”?
En un ámbito vinculado a las armas autónomas, actualmente se realizan
trabajos de investigación y desarrollo sobre asistentes artificiales de información,
con el fin de asistir a los operadores humanos para facilitar el ciclo OODA (observar,
orientar, decidir, actuar). La finalidad de esos sistemas de asistencia en la decisión
es resolver el problema definido de la siguiente manera:
“mediante un trabajo en red correctamente aplicado, es posible ganar tiempo en
materia de recopilación y distribución de información; en cambio, el análisis de
la información, la comprensión y la toma de decisiones pueden llegar a conver-
tirse en complicados cuellos de botella y frenar el ritmo operacional”32.
El público tiene acceso a muy poca información sobre la manera en que
esos sistemas de asistencia a la decisión podrían operar en una zona de definición
de objetivos.
De este modo, la cuestión fundamental se plantea en los siguientes
términos: “¿cómo se debe utilizar el procesamiento informático para automatizar
tareas tradicionalmente asumidas por humanos?”33. En materia de reconocimiento
automático de objetivo, el uso de sensores combinado con la potencia de cálculo de
los ordenadores para escanear periódicamente un terreno de aviación con el fin de
detectar cambios y desencadenar así una intervención humana, dio mejores resul-
tados que el uso de sensores como, por ejemplo, los radares de apertura sintética34.
30 Ibíd.
31 Por ejemplo, el robot “Fire Shadow” del Reino Unido poseerá una función “Man In The Loop (MITL)”,
que permitirá a un operador humano guiar el arma y modificar su trayectoria o cancelar el ataque en curso
y retornar al modo de vigilancia cuando se den condiciones tales que las fuerzas amigas estén en peligro,
cuando las condiciones imperantes no sean conformes a las reglas de enfrentamiento, o cuando un ataque
pudiera causar daños colaterales excesivos”, v. “Fire Shadow: a persistent killer”, Defense Update, 2008,
disponible en: http://defense-update.com/20080804_fire-shadow-a-persistent-killer.html [traducción del
CICR] .
32 Shyni Thomas, Nitin Dhiman, Pankaj Tikkas, Ajay Sharma y Dipti Deodhare, “Towards faster execution of
the OODA loop using dynamic decision support”, en Leigh Armistead (ed.), The 3rd International Confe-
rence on Information Warfare and Security, 2008, p. 42, disponible en: http://academic-conferences.org/
pdfs/iciw08-booklet-A.pdf [traducción del CICR]
33 Op. cit., nota 24, p. 47.
34 Ibíd., pp. 47-48. Los sistemas automáticos de reconocimiento de objetivo funcionaron correctamente en
laboratorio; en cambio, no resultaron fiables cuando se los puso en servicio; cuando tuvieron que procesar
datos reales en lugar de “datos controlados no realistas para evaluar el funcionamiento de los algoritmos”,
ibíd., pp. 47 y 53 [traducción del CICR]. Aunque es algo anticuado, existe un artículo que explica cómo
funciona este tipo de reconocimiento de objetivo: Paul Kolodzy, “Multidimensional automatic target
recognition system evaluation”, en The Lincoln Laboratory Journal, vol. 6, n.º 1, 1993, p. 117.
11
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
Una dificultad sin duda es que el derecho relativo a la definición de objetivos
bélicos en general no se expresa mediante fórmulas precisas con un número limi-
tado de variables, sino en términos generales que tratan toda una gama de hechos
infinitamente variables. Esa es precisamente la razón por la que a menudo se
requiere el juicio de un comandante para determinar si un ataque puede lanzarse
de manera lícita contra tal objetivo o tal persona35. Como señala Taylor, esa “natu-
raleza extremadamente contextual” de la definición de objetivos impide establecer
una simple lista de objetivos lícitos36. Sin embargo, si un comandante estuviera
dispuesto a renunciar a algunas capacidades teóricas, podría preverse —en un
conflicto armado en particular— que se estableciera la lista de un subconjunto de
objetos que podrían ser tomados como objetivo en todo momento. Mientras la
lista se revise y mantenga al día, sin duda será posible decidir en todo momento
durante un conflicto armado, que los vehículos militares, los emplazamientos de
radar, etc., puedan ser tomados como objetivos. En otros términos, un comandante
podría elegir limitar la lista de objetivos sujetos al reconocimiento automático y
establecer una lista corta de objetivos que, por su naturaleza, sean claramente obje-
tivos militares. De ese modo, el comandante renunciaría sin embargo a someter al
reconocimiento automático otros objetivos, para los cuales solo un juicio capaz de
apreciar matices permitiría determinar su condición de objetivos militares debido
a su ubicación, finalidad o utilización37.
La etapa siguiente nos conduce a ir más allá de un sistema que, de hecho,
está programado para que, al igual que un comandante, aprenda cuál es la natu-
raleza de las operaciones militares y cómo aplicar el derecho a las actividades
de definición de objetivos. A medida que los sistemas de telecomunicaciones se
vuelven más complejos, “no solo transmiten información, sino que tienen también
la capacidad de cotejar, analizar, difundir y mostrar información con anterioridad
a las operaciones militares y durante su desarrollo”38. Cuando un sistema “se utiliza
para analizar los datos relativos a los objetivos y luego para proporcionar una
solución o un perfil correspondiente a ese objetivo”39, entonces “el sistema debería
corresponder, razonablemente, al significado de la expresión medios y métodos de
guerra, ya que constituiría parte integrante del proceso de decisión relativo a la
definición de objetivos bélicos”40.
35 V. C. Taylor, op. cit., nota 15, p. 9. V. de manera general Ian Henderson, The Contemporary Law of
Targeting: Military Objectives, Proportionality and Precautions in Attack under Additional Protocol I,
Martinus Nijhoff, Leiden, 2009, pp. 45-50.
36 V. C. Taylor, ibíd., p. 9; v. también I. Henderson, ibíd., pp. 49-50.
37 V. op. cit., nota 1, art. 52 (2) del Protocolo adicional I.
38 V. J. McClelland, op. cit., nota 1, p. 405 [traducción del CICR]. Habría que evitar minimizar la importancia
de los problemas técnicos (que pueden ser tan simples como las normas relativas a los metadatos para
los datos recopilados por un sensor y el ancho de banda disponible para la transmisión de datos, pero
que pueden volverse mucho más complejos), en particular por lo que respecta a los datos provenientes
de varios sensores. V. de manera general, Report of the Joint Defense Science Board Intelligence Science
Board Task Force on Integrating Sensor-Collected Intelligence, op. cit., nota 24, pp. 1-9.
39 V. J. McClelland, op. cit., nota 1, p. 405 [traducción del CICR].
40 Ibíd., p. 406.
12
Junio de 2012, N.º 886 de la versión original
¿A qué podría entonces parecerse un sistema que no requiriera una programa-
ción detallada pero que fuera capaz de aprender? Supongamos que un sistema de inte-
ligencia artificial escanea el espacio de combate en búsqueda de objetivos potenciales:
lo bautizaremos AITRS (Artificial Intelligence Target Recognition System, o Sistema de
Inteligencia Artificial para el Reconocimiento de Objetivo). El AITRS no necesitaría
ser preprogramado: aprendería las características de algunos objetivos cuyo ataque
se hubiera autorizado previamente41. Con el paso del tiempo, el AITRS tendría cada
vez más capacidad de excluir los objetivos de baja probabilidad, detectar diferentes
sensores y aplicar algoritmos para hacer fracasar las maniobras del enemigo (camuflaje,
contramedidas, etc.). En un primer caso, el proceso conduce a que el AITRS presente
a un operador humano una visión simplificada de la zona de combate, que solo señale
objetivos probables y sus características; luego esos datos se analizan y debe intervenir
una decisión humana (atacar/no atacar). Sin embargo, cabe destacar que toda “infor-
mación bruta” (tratamiento de imágenes, imagen multiespectral, grabaciones de voz
de las conversaciones interceptadas, etc.) está disponible para ser examinada por un
humano. En un segundo caso, mientras que ese sistema de inteligencia artificial para
el reconocimiento de objetivos presenta una visión simplificada de la zona de combate
que señala a un operador humano objetivos probables identificados para obtener la
autorización de atacar, lo que se presenta al humano encargado de tomar la decisión
no es “información bruta”, sino más bien datos previamente analizados42. Por ejemplo,
el operador humano podría ver aparecer en una pantalla un símbolo que represente
un vehículo de motor acompañado de las siguientes menciones:
• probabilidad de presencia de un humano a bordo: 99 %;
• probabilidad de concordancia (cuerpo) con el coronel John Smith43: 75 %;
• probabilidad de concordancia (voz) con el coronel John Smith: 90 %44.
Finalmente, en un tercer caso, es el propio AITRS el que decide lanzar o
no un ataque: si está vinculado a un sistema de armas, estamos frente a un sistema
de armas autónomo.
41 V. K. Anderson y M. Waxman, op. cit., nota 29, p. 10.
42 “El hecho de procesar automáticamente los datos del sensor —ya sea para reducir el volumen de informa-
ción esencial y disponer de un paquete de datos menor, o para decidir si se avanza o no— podría mejorar
el tiempo de reacción”, en Report of the Joint Defense Science Board Intelligence Science Board Task Force
on Integrating Sensor-Collected Intelligence, op. cit., nota 24, p. 43 [traducción del CICR].
43 Supongamos que el coronel Smith figura en la lista de objetivos prioritarios y que es un objeto de ataque
lícito (no se toma en cuenta el problema de los heridos, los enfermos, las personas que se rinden o que se
hallan fuera de combate por cualquier otro motivo, así como el problema de los daños colaterales). Este
tipo de ataque se basa en la identificación de un objetivo, a saber el coronel Smith. Esto contrasta con los
ataques basados en características del objetivo asociados a las “fuerzas enemigas” (descarga de explo-
sivos, reunión en algunos sitios y otros tipos de conductas). El segundo ataque es un “golpe a la firma”, el
primero es un “golpe a la personalidad“. V. Greg Miller, “CIA seeks new authority to expand Yemen drone
campaign”, en The Washington Post, 19 de abril de 2012, disponible en: http://www.washingtonpost.
com/world/national-security/cia-seeks- new-authority-to-expand-yemen-drone-campaign/2012/04/18/
gIQAsaumRT_story.html.
44 V. también el ejemplo citado por A. Myers, así como el análisis de la identificación por sistemas multi-
sensor. A. Myers, op. cit., nota 23, p. 84.
13
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
No parece que la tecnología actual permita programar una máquina para
que realice las evaluaciones complicadas destinadas a determinar si un ataque en
particular es lícito cuando se prevén daños colaterales45. De hecho, podríamos incluso
preguntarnos por dónde comenzar, ya que equilibrar la ventaja militar anticipada y los
daños colaterales previstos equivale a comparar peras con manzanas46. Actualmente,
eso significaría que todo sistema de armas de ese tipo debería emplearse de manera
tal que se redujera el riesgo de daños colaterales47. Sin embargo, es probable que un
AITRS verdadero, que inicialmente hubiera funcionado bajo supervisión humana,
sea capaz —basándose en las decisiones tomadas por sus operadores humanos— de
“aprender” cuáles son los daños colaterales aceptables o los inaceptables48.
Como señalamos en la nota al pie 46, las evaluaciones de los daños cola-
terales no consisten solo en calcular y comparar cifras (función perfectamente
adaptada a los ordenadores actuales). Por el contrario, se trata de proceder a una
evaluación claramente cualitativa, mientras que los elementos que se comparan no
son ni siquiera parecidos. ¿Cómo podría algún día una máquina emitir ese tipo
de juicios? ¿Podría quizás hacerlo no mediante una programación directa, sino
siguiendo más bien la vía de la inteligencia artificial? No conforme con aprender
cuáles son los objetivos lícitos, nuestro hipotético AITRS aprendería entonces
también cómo realizar una evaluación de proporcionalidad procediendo como
los humanos, es decir, por medio de la observación, la experiencia, el aprendizaje
(como el juego del ensayo y error, en los juegos de estrategia militar, etc.). Un
AITRS que fracase al emitir juicios razonables (según el personal encargado de
su formación) podría ser tratado como lo sería un joven oficial que nunca llega a
ganarse sus galones (que quizás seguiría estando en funciones, pero al que no se le
concedería poder de decisión alguno). En cambio, un AITRS que haya superado
sus pruebas —en el ámbito teórico y en ejercicios en el terreno— podría ser ascen-
dido y recibir mayores grados de autonomía, etc.
Se plantea también otro problema técnico, a saber, la falta de claridad de
la norma de identificación requerida para determinar si una persona o un objeto
constituye un objetivo lícito. La norma dictada por el Tribunal Penal Internacional
45 CICR, El derecho internacional humanitario y los desafíos de los conflictos armados contemporáneos, op.
cit., nota 29, pp. 42-43; v. también William Boothby, Weapons and the Law of Armed Conflict, Oxford
University Press, Oxford, 2009, p. 233.
46 V. I. Henderson, op. cit., nota 35, pp. 228-229. Numerosas facetas de las operaciones militares requieren
que los comandantes apliquen su juicio, en especial cuando se hallan ante algunos problemas jurídicos.
Luego de haber determinado la ventaja militar prevista (que no constituye en sí una cantidad exacta) de
un ataque lanzado contra un centro de mando y control y tras haber estimado las pérdidas civiles y los
daños a los bienes civiles que serían causados incidentalmente en ese ataque, se debe comparar esos dos
factores de una manera u otra. La evaluación seguramente no será ni objetiva, ni matemática; será sin
duda subjetiva y diferirá de una persona a otra. A ese respecto, diremos que el hecho de interpretar y
respetar algunos aspectos del derecho internacional humanitario corresponde en cierta medida al arte y
no solo a la ciencia pura y dura.
47 W. Boothby, op. cit., nota 45, p. 233.
48 Para un punto de vista contrario sobre la cuestión, v. Markus Wagner, “Taking humans out of the loop:
implications for international humanitartian law”, en Journal of Law Information and Science, vol.
21, 2011, p. 11, disponible en: http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1874039. Wagner
concluye que los sistemas autónomos nunca serán capaces de respetar el principio de proporcionalidad.
14
Junio de 2012, N.º 886 de la versión original
para ex Yugoslavia es un “motivo razonable para creer”49. En sus reglas de enfren-
tamiento, al menos dos Estados adoptaron la norma de la “certeza razonable”50. Un
tercer enfoque, presentado en el Manual de San Remo sobre las reglas de enfrenta-
miento, consiste en exigir la identificación del objetivo mediante medios visuales y/o
algunos medios técnicos51. Tanto el comandante que autoriza el despliegue de un
arma autónoma, como el operador que se encarga de la supervisión, deberán saber
qué norma fue adoptada para cumplir con el derecho internacional y el conjunto
de reglas de enfrentamiento específicas en cada operación. A la exigencia de un
nivel especial de certeza (el “motivo razonable para creer “ o la “certeza razonable”)
puede también agregarse la exigencia de que la identificación se realice a través de
medios visuales y/o algunos medios técnicos.
Es probable que una norma de identificación solo pueda codificarse52
en un programa informático si se “traduce” en una confirmación cuantificable,
expresada en forma de una probabilidad estadística. Por ejemplo, el “motivo razo-
nable para creer “ya no debería ser un concepto subjetivo, sino transformarse en
una cantidad objetiva y mensurable (como “un grado de confianza del 95 %”). De
este valor de referencia y la experiencia del terreno (incluso los datos históricos)
surgiría una cuestión empírica que permitiría establecer un perfil de un potencial
objetivo. Luego se compararían nuevos datos relativos al campo de batalla para
cuantificar (evaluar) la fuerza de la correlación respecto al grado de confianza
requerido (en el ejemplo presente, el 95 % o más). Sin embargo, resulta conve-
niente cuantificar —como criterio de validación diferente— la incertidumbre de
las medidas asociadas a los datos correspondientes al campo de batalla propor-
cionadas por los sensores. Por ejemplo, supongamos que en ciertas circunstancias
operacionales una incertidumbre de medida implique una incertidumbre de más
o menos un 1 % y que, en otras circunstancias operacionales, la incertidumbre sea
de más o menos un 10 %. En el primer caso, para lograr una certidumbre del 95 %,
la correlación no debería ser menor al 96 %. En el segundo caso, sin embargo, el
grado de confianza requerido no podría alcanzarse nunca, ya que la incertidumbre
de medida impide alcanzar el grado de confianza requerido (95 %)53.
49 “La Sala de Primera Instancia entiende que ese tipo de bien [normalmente destinado a un uso civil] no
debe ser objeto de un ataque cuando no haya razón para creer, en la situación en la que se encuentra
la persona que proyecte el ataque y teniendo en cuenta la información de la que dispone, que ese bien
se utiliza para prestar una contribución efectiva a la acción militar”, TPIY, El fiscal c/ Stanislav Galic,
Caso n.º IT-98-29-T, Sentencia y dictamen (Sala de Primera Instancia ), 5 de diciembre de 2003, párr. 51.
[traducción del CICR]
50 International and Operational Law Department: The Judge Advocate General’s Legal Centre & School
(US Army), Operational Law Handbook 2012, “CFLCC ROE Card”, p. 103, disponible en: http://www.loc.
gov/rr/frd/Military_Law/pdf/operational-law-handbook_201 1.pdf; CICR, Customary IHL, “Philippines:
Practice Relating to Rule 16. Target Verification”, 2012, disponible en: http://www.icrc.org/customary-ihl/
eng/docs/v2_cou_ph_rule16.
51 V. los ejemplos de las reglas de la serie 3, que se titula “Identificación de los objetivos”, en Instituto Interna-
cional de Derecho Humanitario, Manual de San Remo sobre las reglas de enfrentamiento, 2009, pp. 41-42,
disponible en: http://www.iihl.org/iihl/Documents/Sanremo%20ROE%20Handbook%20(French).pdf.
52 También en este caso solo la inteligencia artificial permitiría adoptar un método sin codificación.
53 En el segundo caso, el sistema de definición de los objetivos podría implicar la identificación por parte
de otros sensores o de un operador humano; se programaría únicamente de forma tal de no autorizar el
empleo de un arma autónoma.
15
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
Métodos de empleo lícito de las armas automatizadas y las armas
autónomas
“La mayoría de las armas no son ilícitas como tales; la licitud de su empleo
en los conflictos depende de las circunstancias y de la forma en que se las emplee.”54.
Ello también se aplica a las armas automatizadas y las armas autónomas, a menos
que esas armas fueran algún día prohibidas por algún tratado (como lo han sido,
por ejemplo, las minas terrestres antipersonal no activadas por control remoto).
Existen diversos medios de emplear ese tipo de armas de manera lícita.
“[La] falta de lo que se denomina “un hombre en el circuito de la supervisión” no
necesariamente significa que sea imposible emplear el arma de acuerdo con el
principio de distinción. Las fases de detección, identificación y reconocimiento
del objetivo pueden basarse en datos proporcionados por sensores capaces de
distinguir entre objetivos militares y objetivos no militares. Con la combina-
ción de varios sensores, la capacidad de discriminación del arma resulta mucho
mayor”55.
Un método que permite reducir el problema del reconocimiento del obje-
tivo y la programación consiste en no intentar poner en práctica toda la gama de
las opciones de identificación de objetivo bélico contempladas en el derecho. Por
ejemplo, podría programarse un sistema de reconocimiento de objetivo para buscar
solo objetivos de alta prioridad (sistemas móviles de defensa aérea y lanzadores
de misiles tierra-tierra, por ejemplo). Esos objetivos son objetivos militares por
naturaleza, por lo que son relativamente más fáciles de programar como objetivos
lícitos que aquellos objetos que se convierten en objetivos militares debido a su
ubicación, su finalidad o su utilización56. Dado que esos objetivos podrían ser de
alta prioridad, el programa de identificación de objetivo bélico podría programarse
de forma tal que solo se ataquen esos objetivos, pero que otro objetivo también
lícito pero de más baja prioridad y que hubiera sido detectado primero, no sea
atacado57. Si no se detecta ningún objetivo de alta prioridad, se podría cancelar el
ataque o bien continuarlo, pero contra otros objetivos que constituyan objetivos
militares por naturaleza. La adopción de ese tipo de enfoque atenuaría la necesidad
de resolver problemas tan difíciles como el siguiente: ¿cómo se debe programar
un sistema autónomo de forma tal que no ataque una ambulancia, salvo que haya
54 Philip Spoerri, “Mesa redonda sobre el DIH y las nuevas tecnologías armamentísticas – Conclusiones”,
en 34ª Mesa Redonda sobre Problemas Actuales de Derecho Internacional Humanitario, San Remo,
8-10 de septiembre de 2011, disponible en: http://www.icrc.org/spa/resources/documents/statement/
new-weapon-technologies-statement-2011-09-13.htm.
55 J. McClelland, op. cit., nota 1, p. 408-409 [traducción del CICR].
56 V. Lockheed Martin, “Low cost autonomous attack system”, en Defense Update, 2006, disponible en:
http://defense-update.com/products/l/locaas.htm
57 Por ejemplo, un tanque T-72 podría ser detectado e ignorado, ya que constituiría un objetivo de baja
prioridad; el procedimiento continuaría en modo de búsqueda hasta el momento en que se detectara e
interceptara un lanzador de misiles tierra-aire móvil SA-8, ibíd.
16
Junio de 2012, N.º 886 de la versión original
perdido su protección contra el ataque debido a su ubicación, su finalidad o su
utilización58 ?
Otro resguardo consistiría principalmente en hacer que el arma esté
“supervisada” y controlada a distancia, lo que permitiría desactivarla si se considera
potencialmente peligrosa para objetivos no militares59. Esa supervisión solo resul-
taría de utilidad en el ámbito jurídico (y operacional) si los operadores procedieran
a un verdadero análisis y no se limitaran a confiar en los datos proporcionados por
el sistema60. En otras palabras, el operador debe “agregar valor”. Por ejemplo, si
tuviera a la vista un ícono que indicara que se ha identificado un objetivo hostil, el
operador agregaría un valor al proceso al considerar los datos de forma separada, al
observar la zona objetivo para detectar la eventual presencia de civiles, o al realizar
cualquier otra acción que no consistiera solamente en autorizar o continuar un
ataque sobre la base del análisis proporcionado por el programa de identificación
de objetivo bélico. Dicho de otra manera, el operador efectúa una segunda verifica-
ción sobre la licitud del ataque al objetivo en sí, o se cerciora de que se tomaron las
demás precauciones en el ataque (precauciones que consisten en reducir al mínimo
los daños colaterales, velar por que todo daño colateral que subsista respete el
principio de proporcionalidad, enviar una advertencia a los civiles si corresponde,
etc.). Si el operador recibiera volúmenes de datos importantes61, se plantearía un
problema, ya que, en ese caso, su capacidad de prestar una supervisión de calidad
podría verse comprometida por la sobrecarga de información62. Uno de los medios
de abordar ese problema consistiría en programar el programa de identificación de
objetivo de forma tal que solo diera la recomendación de disparar si la zona obje-
tivo estuviera libre de objetivos no militares63. En otras circunstancias, el programa
de identificación de objetivo podría simplemente detectar la presencia de un obje-
tivo y objetos no militares y proporcionar no una recomendación de disparo, sino
solamente una solución de disparo. En otras palabras, el programa de identificación
de objetivo identificaría la manera en que podría atacarse un objetivo determinado,
pero permanecería neutral respecto de la cuestión de determinar si el ataque debe o
no llevarse a cabo. De ese modo, el programa indicaría claramente al operador que
existen otros elementos que se deben tomar en cuenta antes del disparo.
Existen otros dos aspectos jurídicos de las armas automatizadas y autó-
nomas (así como también armas operadas a distancia) que requieren un examen
58 Partiendo de la hipótesis de que todos los objetivos de alta prioridad son claramente de naturaleza militar
y que, por lo tanto, sería más fácil programar los programas informáticos de reconocimiento de forma
tal que identifiquen ese tipo de objetivos. Si hubiera objetivos de alta prioridad que fueran ambulan-
cias empleadas de manera abusiva como vehículos de mando y control, los problemas de programación
subsistirían. V. op. cit., nota 37, así como el texto de acompañamiento.
59 J. McClelland, op. cit., nota 1, p. 408-409.
60 V. Report of Defense Science Board Task Force on Patriot System Performance: Report Summary, Oficina
del subsecretario de Defensa (Adquisición, tecnología y logística), 2005, p. 2.
61 Ese caso se presentaría si un sistema tuviera que procesar y mostrar grandes volúmenes de datos o si un
único operador tuviera que supervisar múltiples sistemas.
62 CICR, El derecho internacional humanitario y los desafíos de los conflictos armados contemporáneos, op.
cit., nota 29, p. 44.
63 J. McClelland, op. cit., nota 1, pp. 408-409.
17
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
más profundo. Dichos aspectos son, por un lado, las normas relativas a la legítima
defensa64 y, por el otro, la forma de tener en cuenta los riesgos a los que se exponen
sus propias fuerzas en la evaluación de la ventaja militar y los daños colaterales
previstos de un ataque.
La cuestión de la legítima defensa comprende dos aspectos: la legítima
defensa nacional (es decir, principalmente, lo que puede hacer un Estado en
respuesta a un ataque) y la legítima defensa individual (es decir, principalmente, lo
que puede hacer un individuo en respuesta a un ataque)65. Antes de que comience
un conflicto armado, el primer empleo ilícito de la fuerza contra un buque de
guerra y una aeronave militar de un Estado puede considerarse como equivalente
a un ataque armado contra ese Estado que, de esta forma, puede ampararse en el
derecho de legítima defensa nacional. ¿La conclusión sería la misma si no hubiera
habido tripulación a bordo de los buques de guerra o de las aeronaves militares
atacadas? Imaginemos un ataque lanzado contra un buque de guerra en el que,
por cualquier razón, no hubiera ningún miembro de la tripulación al momento
del ataque. Cuando se ataca un buque de guerra, ¿qué es lo importante desde el
punto de vista jurídico? ¿Simplemente el hecho de que se trata de un buque militar
en el que flamea la bandera del Estado? ¿El hecho de que todo ataque contra el
buque de guerra puede también poner en peligro a la tripulación del buque? ¿La
combinación de esos dos elementos?
En segundo lugar, consideremos las diferentes fuentes jurídicas que rigen
el empleo de fuerza letal. Generalmente hablando, la legítima defensa individual
permite a la persona A emplear fuerza letal contra la persona B cuando la persona
B amenaza la vida de la persona A66. Poco importa el hecho de que las personas
A y B sean o no soldados enemigos que se enfrentan. Si lo enfocamos ahora desde
el punto de vista del derecho internacional humanitario, el soldado A está auto-
rizado a emplear fuerza letal contra el soldado B simplemente porque el soldado
B es un enemigo67. No es necesario que el soldado B amenace directamente al
soldado A. De hecho, el soldado B podría estar dormido y el soldado A podría estar
operando una aeronave armada pilotada a distancia. Sin embargo, de conformidad
con la norma jurídica aplicable, el soldado A debe cerciorarse de que el objetivo
es efectivamente un soldado enemigo. La identificación, no la amenaza, es lo que
cuenta aquí ante todo. De todas formas, durante las sesiones de información sobre
las reglas de enfrentamiento, se les enseña a los miembros de las fuerzas armadas
que en período de conflicto armado, pueden no solamente disparar a un enemigo
identificado, sino que nada en el derecho internacional humanitario (ni tampoco
64 Conversaciones entre Patrick Keane e Ian Henderson, 2011-2012.
65 En ese contexto, la legítima defensa individual engloba también el hecho de defender a una tercera parte
contra un ataque ilícito.
66 El derecho penal interno varía de una jurisdicción a otra, y la cuestión presenta más matices que esta
simple explicación.
67 Siempre y cuando el soldado B esté fuera de combate. Para el derecho internacional humanitario, también
sería lícito que el soldado A disparase a la persona B si se tratara de un civil que participa directamente en
las hostilidades, pero no podemos abordar ese tema en profundidad en el marco de este artículo.
18
Junio de 2012, N.º 886 de la versión original
en ningún otro derecho) les impide responder al fuego de un contacto no identi-
ficado68 en el marco de la legítima defensa individual69. Este mantra tan conocido
no puede repetirse tal cual en las sesiones de información de los operadores de
artefactos no tripulados. En cualquier circunstancia, salvo las más excepcionales, el
operador de un artefacto no tripulado no se encontrará personalmente en peligro
si el artefacto es el objetivo de los disparos. Los redactores de las reglas de enfren-
tamiento y los mandos militares deberán examinar minuciosamente esta cuestión.
En efecto, de manera general, el hecho de responder a los disparos para proteger
únicamente lo material (y no vidas humanas) sería ilícito según el paradigma de
la legítima defensa individual70. Es diferente en el caso del paradigma del derecho
internacional humanitario que sin duda autorizaría el empleo de fuerza letal para
proteger algunos tipos de bienes y materiales contra el ataque, con el argumento de
que toda persona que ataque los bienes y el material es necesariamente un soldado
enemigo o un civil que participa directamente de las hostilidades71.
Análogamente, ¿cómo tratar en derecho internacional humanitario un
artefacto no tripulado (teledirigido) cuando se considera que la “ventaja militar”
prevista de un ataque no resulta evidente? Por cierto, el riesgo que corren las fuerzas
de ataque es un elemento que puede legítimamente considerarse como parte de la
evaluación de la ventaja militar72; sin embargo, en general ese riesgo se ha conside-
rado aplicable a los combatientes y no al material militar. En efecto, es lógico que el
riesgo de pérdida de material militar sea también un elemento que se debe tomar
en cuenta, pero considerándolo claramente como de menor importancia que el
riesgo de pérdidas en vidas humanas en la población civil.
Para concluir, diremos que el mando tiene la responsabilidad jurídica de
“velar por que se tomen todas las precauciones útiles en el ataque”73. Indepen-
dientemente de cuál sea la distancia, temporal o espacial, al momento de lanzar
un ataque, la responsabilidad individual y la del Estado caben a las personas que
autorizan el empleo de un sistema de arma autónoma74. Cabe señalar que ello no
significa que se deba responsabilizar automáticamente a un mando si algo sale
mal. En tiempo de guerra, ocurren accidentes. La cuestión que se plantea es quién
podría ser declarado responsable y no quién es culpable.
68 “No identificado” porque se ignora si la persona que está disparando es un soldado enemigo, un civil, etc.
La exigencia de identificar la fuente (es decir la ubicación) de la amenaza permanece de todas formas.
69 El concepto de “legítima defensa de la unidad” aporta poco al presente análisis, ya que se trata de una
combinación que mezcla a la vez la legítima defensa nacional y la legítima defensa individual.
70 Puede recurrirse al paradigma jurídico de la legítima defensa individual para proteger el material cuando
la pérdida de dicho material pusiera directamente vidas en riesgo.
71 En otras palabras, mientras cuente con al menos un argumento jurídico para utilizar la fuerza letal contra
una persona (como, por ejemplo, un enemigo combatiente o un civil que participa directamente en las
hostilidades), no estoy obligado a determinar quién pertenece realmente a qué categoría. Por cuestiones
de espacio, no podemos analizar aquí este punto, ni otra cuestión interesante, referida al uso de la fuerza
para proteger el material en nombre del interés de la seguridad nacional en situación de legítima defensa
nacional fuera de un conflicto armado.
72 I. Henderson, op. cit., nota 35, p. 199.
73 C. Taylor, op. cit., nota 15, p. 12 [traducción del CICR].
74 P. Spoerri, op. cit., nota 54.
19
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
El análisis que antecede se centró en el objetivo que persigue un arma. A
continuación, abordaremos el tema de las armas emergentes, que ponen de relieve
el problema jurídico del efecto de las armas, incluso cuando el objetivo es un obje-
tivo lícito.
El efecto de las armas
Armas de energía dirigida
Para llevar a cabo los ataques, las armas de energía dirigida utilizan el
espectro electromagnético (en particular del ultravioleta al infrarrojo, así como
la radiofrecuencia, incluso las microondas) o las ondas acústicas75. Como medio
para debilitar la capacidad de combate del enemigo, las armas de energía dirigida
pueden emplearse directamente contra el personal y el material del enemigo
o, indirectamente, como armas antisensores. Por ejemplo, los sistemas de láser
podrían emplearse para encandilar la visión humana (asistida o no), los sensores
por rayos infrarrojos, y los sensores espaciales o aerotransportados76. Esos sistemas
también podrían utilizarse como armas contra el material77. Las microondas de
alta potencia pueden emplearse contra los componentes electrónicos y los equipos
de telecomunicaciones. Los láseres y los radares también se emplean para detectar y
seguir los objetivos, así como para proporcionar una guía de objetivo a otras armas
convencionales.
Cuando las armas de energía dirigida se emplean contra los sistemas de
comunicación enemigos, los problemas jurídicos no son significativamente dife-
rentes a los que plantea el empleo de medios cinéticos. El objetivo (por ejemplo,
un sistema de telecomunicaciones), ¿es un objetivo militar lícito y se evaluaron los
efectos incidentales en la población civil? Dado que las armas de energía dirigida
tienen claramente el potencial de reducir los efectos colaterales inmediatos común-
mente asociados a las armas de alta potencia explosiva (armas con efecto de onda
expansiva y fragmentación, por ejemplo)78, el principal efecto incidental que se debe
tomar en cuenta son entonces las consecuencias de segundo orden de la interrupción
de un sistema de telecomunicaciones que controle el tráfico aéreo o los servicios de
emergencia. Si bien es común decir que, al momento de evaluar la licitud de un
75 También se realizan investigaciones sobre las armas de partículas, pero parecen seguir estando en la fase
teórica. V. Federation of American Scientists, “Neutral particle beam”, 2012, disponible en: http://www.fas.
org/spp/starwars/program/npb.htm; v. también Carlo Popp, “High energy laser directed energy weapons”,
2012, disponible en: http://www.ausairpower.net/APA-DEW- HEL-Analysis.html. Para una revisión de la
cuestión de las armas de energía dirigida denominadas “no letales” (incluso las armas acústicas), v. Neil
Davison, “Non Lethal” Weapons, Palgrave MacMillan, Basingstoke, 2009, pp. 143-219.
76 Podrían emplearse sistemas de láser como “encandiladores” contra sensores espaciales o aerotrans-
portados y las microondas de alta potencia pueden emplearse contra los componentes electrónicos, v.
Defense Science Board Task Force on Directed Energy Weapons, Oficina del subsecretario de Defensa
(Adquisición, tecnología y logística), Ministerio de Defensa de los Estados Unidos, diciembre de 2007,
pp. 2, 11 y 13.
77 En especial contra misiles y equipos de remoción de minas y como armas antisatélite, ibíd., p. 19.
78 Como otras armas con efecto cinético, como las “bombas hormigón” inertes.
20
Junio de 2012, N.º 886 de la versión original
ataque, se deben tomar en cuenta las consecuencias de segundo orden, también se
debe comprender correctamente lo que se “computa” como daño colateral a los fines
de las evaluaciones de proporcionalidad. Es un error creer que debe evaluarse cual-
quier inconveniente causado a la población civil. Es un concepto erróneo. Además
de las pérdidas humanas (muertos y heridos), solamente los “daños” ocasionados
a los bienes de carácter civil deben tomarse en cuenta79. Por lo tanto, en el caso de
un ataque lanzado por medio de un arma de energía dirigida contra un sistema de
control del tráfico aéreo que hubiese afectado a la vez el tráfico aéreo militar y el
tráfico aéreo civil80, el riesgo de que resulten dañadas aeronaves civiles y, también,
el riesgo de pérdidas civiles deberían tomarse en consideración, pero no los simples
inconvenientes, las alteraciones de la actividad económica, etc.81.
Asimismo, se están desarrollando armas de energía dirigida como armas
no letales (se habla también de “armas menos letales” o de “armas de letalidad redu-
cida”). El objetivo es proponer una respuesta continua más amplia con miras a una
“intensificación controlada” del recurso a la fuerza82. Una serie de razones de orden
operacional y jurídico determinan que es preferible tener la opción de preservar
la vida logrando la neutralización (temporaria o prolongada) del individuo que
constituye un objetivo. Dicho esto, los mismos términos utilizados para describir
esas armas pueden causar problemas más allá de cualquier requisito particular en
los ámbitos del derecho o la doctrina83. Las consecuencias no intencionales de las
armas (debidas principalmente a la ignorancia del estado de salud del objetivo)
pueden ir hasta el fallecimiento o la invalidez permanente del objetivo. Esas conse-
cuencias se utilizan para estigmatizar el concepto de arma “no letal” o “menos letal”.
El punto importante que se debe retener aquí es que, en un conflicto armado y
como para cualquier otra capacidad de combate (incluidas las armas con efecto
cinético), el empleo de armas con energía dirigida se rige a la vez por el derecho
internacional humanitario, el conjunto de reglas de enfrentamiento aplicables y las
instrucciones impartidas por el mando de los combates84.
Las armas no letales de energía dirigida pueden emplearse conjuntamente
con armas tradicionales, letales. Por ejemplo, según algunas fuentes:
79 V. op. cit., nota 1, art. 51 (5) (b) y art. 57 (2) (a) (iii) del Protocolo adicional I.
80 V. CICR, “La guerra informática y el DIH: reflexiones e interrogantes”, 2011, disponible en: http://www.
icrc.org/spa/resources/documents/feature/2011/weapons-feature-2011-08-16.htm.
81 Por cuestiones de espacio, no podemos efectuar un examen profundo de este punto. Sin embargo, otros
factores merecerían ser analizados, por un lado los efectos en los actores neutrales y, por el otro, todos los
tipos de efectos de tercer orden, (como, por ejemplo, los vuelos de emergencia sanitaria); sin embargo, el
autor se pregunta “si el CICR podía desempeñar un papel importante en la generación de un consenso
internacional acerca de si las personas civiles tienen derechos fundamentales con respecto a la informa-
ción, la energía eléctrica y otros ámbitos, como los que disfrutan con respecto a la vida y a la propiedad”,
ibíd.
82 V. de manera general Ministerio de Defensa de los Estados Unidos, “Non-lethal weapons program”, dispo-
nible en: http://jnlwp.defense.gov; James Duncan, “A primer on the employment of non-lethal weapons”,
en Naval Law Review, vol. XLV, 1998. V. también Jürgen Altmann, “Millimetre waves, lasers, acoustics for
non-lethal weapons? Physics analyses and inferences”, en DSF-Forschung, 2008, disponible en: http://tocs.
ulb.tu-darmstadt.de/204611717.pdf.
83 V. Defense Science Board Task Force on Directed Energy Weapons, op. cit., nota 76, p. xii.
84 Ibíd., p. xiii.
21
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
“Otra arma [...] puede emitir sonidos ensordecedores y extremadamente irri-
tantes a grandes distancias. Más exactamente, el dispositivo de largo alcance
emite un haz de ondas acústicas de alta energía, hasta una distancia que puede
alcanzar cinco veces el largo de un campo de fútbol. Dado que el dispositivo se
había instalado en un hangar próximo a la pista de aterrizaje, un testigo que se
encontraba del otro lado de la pista explicó que tuvo la impresión de que alguien
aullaba directamente dentro de su oído.
El dispositivo “demostró su utilidad para despejar las calles y los tejados durante
las operaciones de acordonamiento y registro [...], así como para hacer salir a
los tiradores emboscados enemigos, que luego fueron abatidos por nuestros
propios tiradores de élite”: así se presentó el sistema en un informe de las fuerzas
armadas de Estados Unidos, una de cuyas compañías (361st Tactical Psycholo-
gical Operations Company) probó el dispositivo en Irak”85.
Ese tipo de arma de energía dirigida pone en evidencia dos problemáticas
esenciales asociadas a la tecnología de las armas no letales. En primer lugar, esas
armas tienen todas las posibilidades de ser empleadas contra una población civil
(en el caso antes descripto, el fin era despejar las calles y los tejados)86. Luego, las
armas no letales pueden emplearse conjuntamente con armas existentes para lograr
un efecto letal.
Las demás armas de energía dirigida incluyen sistemas denominados “de
rechazo activo”87.
Una de las armas probadas con éxito es un rayo térmico […] capaz de “cocer”
a una persona calentando la humedad que se encuentra en la parte superior
de la capa epidural de la piel. Esta arma se desarrolló inicialmente en Estados
Unidos, a solicitud del departamento de Energía, para proteger las instalaciones
nucleares de los intrusos88.
La “sensación de calor imposible de resistir en la piel del adversario [causa]
un efecto disuasivo inmediato”89. En efecto, la sensación de calor provoca “un dolor
85 Bryan Bender, “US testing nonlethal weapons arsenal for use in Iraq”, en Boston Globe, 5 de agosto de
2005, disponible en: http://www.boston.com/news/nation/articles/2005/08/05/us_testing_nonlethal_
weapons_arsenal_for_use_in_iraq/?page=full . El arma en cuestión (Long Range Acoustic Device)
se describe pormenorizadamente en J. Altmann, op. cit., nota 82, pp. 44-53. J. Altmann señala que, si
bien se lo describe como destinado a las interpelaciones o advertencias, este dispositivo puede utilizarse
potencialmente como un arma, ibíd., p. 52. Para un debate sobre los esfuerzos desplegados para eludir la
obligación jurídica del examen de las “armas” nuevas donde se denomina de manera diferente a esos tipos
de dispositivos acústicos, v. N. Davison, op. cit., nota 75, pp. 102 y 205.
86 En N. Davison, op. cit., nota 75, pp. 216-217 se expresan preocupaciones respecto del empleo de armas no
letales contra la población civil, o contra “individuos antes de haber verificado si son o no combatientes”.
87 Defense Science Board Task Force on Directed Energy Weapons, op. cit., nota 76, pp. 33 y 38. Para más detalles, v.
“Active denial system demonstrates capabilities at CENTCOM”, United State Central Command, disponible
en: http://www.centcom.mil/press-releases/active-denial-system- demonstrates-capabilities-at-centcom.
88 B. Bender, op. cit., nota 85. El sistema de “rechazo activo” se describe en detalle en J. Altmann, op. cit., nota
82, pp. 14-28.
89 Defense Science Board Task Force on Directed Energy Weapons, op. cit., nota 76, p. 38.
22
Junio de 2012, N.º 886 de la versión original
intolerable y los mecanismos naturales de defensa [del cuerpo humano] comienzan
a actuar”90. La “intensa sensación de calor solo desaparece si la persona sale de la
trayectoria del rayo o si la emisión del rayo cesa”91. Dado que los lanzallamas y otras
armas incendiarias solo están reglamentadas y no específicamente prohibidas por
el derecho internacional humanitario, no existe razón jurídica alguna para prohibir
el empleo de este sistema de “rechazo activo” en combate92.
Cuando los sistemas de “rechazo activo” se utilizan como una “valla” invi-
sible, es evidente que corresponde a cada persona decidir acercarse o no a la valla y,
si lo hace, intentar penetrar violándola93. Sin embargo, si esos sistemas de “rechazo
activo” apuntan contra una persona o grupo con el fin de despejar una zona94,
este tipo de arma suscita un interrogante sobre el que conviene detenerse: ¿cómo
puede una persona que sufre ese tipo de ataque rendirse o elegir conscientemente
abandonar la zona, cuando no puede ver el rayo95, cuando quizás ignora incluso
que existe ese tipo de tecnología y reacciona al mismo tiempo ante un dolor into-
lerable, semejante a la “sensación [de] tocar una sartén hirviendo”96? Al reaccionar
instintivamente ante un dolor intolerable, las personas quizás no puedan pensar
racionalmente97. El empleo de esas armas deberá reglamentarse minuciosamente,
combinando una serie de elementos —tácticos, técnicos, de procedimiento, reglas
de enfrentamiento— para evitar que se causen sufrimientos excesivos por el empleo
continuo del arma, debido únicamente al hecho de que la persona no ha abando-
nado la zona objetivo98. A ese respecto, señalaremos que el sistema de “rechazo
activo” pasó con éxito las pruebas para establecer su aceptabilidad desde el punto
de vista jurídico convencional y de las reglas de enfrentamiento del Comando
Central de Estados Unidos”99. De todas formas, recordaremos que las obligaciones
jurídicas de los Estados varían, y que no todos los Estados emplean las armas de
la misma manera. En consecuencia, el resultado del examen jurídico efectuado
por un Estado no es determinante para los demás Estados100. Ese aspecto puede
ser importante en el contexto de la venta de material de alta tecnología, ya que la
información sobre las capacidades de un arma determinada a menudo se clasifica
como extremadamente confidencial y en forma “compartimentada”. El Estado que
procede al examen jurídico bien puede no controlar el acceso a los datos necesa-
rios. Como se verá a continuación, esto conduce a veces a los juristas, ingenieros y
90 Ibíd., p. 42.
91 Ibíd.
92 J. Altmann, op. cit., nota 82, p. 27.
93 Conversaciones entre Patrick Keane e Ian Henderson, 14 de abril de 2012.
94 A diferencia de las armas con efecto cinético tradicionales, cuyo efecto deseado es dejar al adversario fuera
de combate (hiriéndolo o matándolo).
95 V. J. Altmann, op. cit., nota 82, p. 28.
96 Defense Science Board Task Force on Directed Energy Weapons, op. cit., nota 76, p. 42.
97 Correo electrónico intercambiado entre April-Leigh Rose e Ian Henderson el 24 de abril de 2012.
98 J. Altmann recomienda también estudiar el riesgo para la vista, a causa de las potenciales lesiones de la
córnea, v. J. Altmann, op. cit., nota 82, p. 28.
99 Ibíd., p. 38.
100 V. J. McClelland, op. cit., nota 1, p. 411, que señala ese punto en respuesta a los fabricantes que defienden
la licitud de su producto.
23
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
operadores a trabajar juntos de manera cooperativa e imaginativa, para superar el
problema de los límites impuestos por el grado de clasificación y la compartimen-
tación del acceso a la información.
Un arma similar, también de energía dirigida, pero que utiliza una tecno-
logía diferente es una “luz blanca de gran potencia, lo suficientemente intensa
como para hacer huir a todas las fuerzas de ataque, salvo las más determinadas,
en la dirección contraria”101. Parece que los conceptos de empleo del arma en
cuestión incluyen el hecho de emplearla para identificar fuerzas hostiles, según las
declaraciones de un alto responsable del proyecto, el coronel Wade Hall: “[si] veo
que alguien está dispuesto a soportar el malestar [...], sé lo que tiene intención
de hacer, entonces lo mato”102. Semejantes declaraciones parecen inquietantes,
pero vale la pena preguntarse si existe realmente una diferencia respecto de los
escenarios “tradicionales” de advertencias y aumento gradual de la fuerza (como la
orden “¡Alto o disparo!”) o las bengalas luminosas y los encandiladores utilizados
para prevenir a los vehículos y evitar que se acerquen demasiado a los convoyes
militares.
Cuando las armas de energía dirigida se emplean para luchar contra los
artefactos explosivos (a menudo improvisados)103, lo que interesa analizar son
principalmente las consecuencias. Si bien el arma de energía dirigida debe provocar
una explosión a una distancia tal que las fuerzas amigas no se vean amenazadas,
es indispensable averiguar si hay civiles u otros no combatientes que se hallen
próximos al lugar de la explosión y corran el riesgo de resultar heridos o muertos104.
Las ciberoperaciones
Se trata de operaciones dirigidas contra un ordenador o sistema informá-
tico por medio de flujos de datos105.
“Esas operaciones pueden tener distintos objetivos, por ejemplo infiltrar un
sistema informático y recopilar, exportar, destruir, cambiar o encriptar datos, o
activar, alterar o manipular de otro modo procesos controlados por el sistema
que ha sido infiltrado. De esta forma es posible destruir, alterar o interrumpir
el funcionamiento de diversos “objetivos” en el mundo real, como industrias,
infraestructuras, telecomunicaciones, o sistemas financieros”106.
101 B. Bender, ibíd.
102 Ibíd.
103 V. Defense Science Board Task Force on Directed Energy Weapons, op. cit., nota 76, p. 40.
104 Por cuestiones de espacio, no podemos analizar aquí este tema. Sin embargo, cabe observar que los
problemas son diferentes si, en lugar de provocar una explosión, la contramedida impide la detonación
del dispositivo explosivo.
105 Según esta definición, un ataque cinético para “dejar fuera de circuito” un sistema electrónico (por
ejemplo, lanzando una bomba en el edificio en el que se encuentra el ordenador) no constituiría una
ciberoperación.
106 CICR, El derecho internacional humanitario y los desafíos de los conflictos armados contemporáneos, op.
cit., nota 29, p. 41.
24
Junio de 2012, N.º 886 de la versión original
Las ciberoperaciones se conducen por medio de programas informáticos,
hardware o combinando programas informáticos y personal. El virus STUXNET es
un ejemplo reciente de ciberoperación conducida esencialmente por medio de un
programa informático. Una vez instalado, el virus parece haber operado de forma
independiente, sin requerir intervención humana alguna107. Este virus puede compa-
rarse a un programa diseñado para permitir a un teleoperador controlar un orde-
nador, lo que le permite, entre otras cosas, cargar o modificar datos en el ordenador
objetivo. Finalmente, citaremos la piratería de tarjetas de crédito como ejemplo de
ciberoperación no militar, que requiere a la vez hardware y programas informáticos.
La aplicación de normas específicas del derecho internacional humanitario a
la “ciberguerra” sigue siendo un tema de debate108. Sin embargo, a los fines del presente
artículo, partimos del principio de que las exigencias esenciales del derecho internacional
humanitario —a saber, el respeto de los principios de distinción, proporcionalidad y
precaución—se aplican, como mínimo, a los ataques informáticos con consecuencias
en el ámbito de lo material (de este modo, el virus STUXNET alteró las condiciones de
funcionamiento de las centrifugadoras iraníes destinadas al enriquecimiento de uranio,
lo que posteriormente provocó daños materiales a dichas centrifugadoras)109. Cabe
mencionar aquí cuatro aspectos jurídicos particulares de las ciberarmas.
El primero es que una ciberarma presenta la particularidad de poder ser
operada por un civil110. Esa “arma” tiene todas las posibilidades de estar alejada
del campo de batalla; es tecnológicamente sofisticada y no se asocia de inmediato
con el riesgo de pérdidas de vidas humanas. El manejo de una ciberarma expone al
operador civil (en calidad de civil que participa directamente en las hostilidades)
tanto al riesgo letal de ser identificado como objetivo,111 como a ser pasible de
eventuales acciones penales por haber cometido actos no protegidos por la inmu-
nidad del combatiente de la que gozan los miembros de las fuerzas armadas112.
Estas cuestiones se examinan con exhaustividad en un artículo reciente de Sean
Watts, que plantea sobre todo la idea de la eventual necesidad de repensar por
completo la manera en que se aplica el derecho relativo a la participación directa
en las hostilidades en el ámbito de la ciberguerra113. Cabría asimismo preguntarse
107 V. Angus Batey, “The spies behind your screen”, en The Telegraph, 24 de noviembre de 2011; Jack
Goldsmith, “Richard Clarke says Stuxnet was a United-States Operation”, en LawFare: Hard National
Security Choices, 29 de marzo de 2012, disponible en: http://www.lawfareblog.com/2012/03/
richard-clarke-says-stuxnet-was-a-u-s-operation/.
108 V. “Tallinn Manual on the International Law Applicable to Cyber Warfare”, 2012, pp. 17-22, disponible en:
http://www.nowandfutures.com/large/Tallinn-Manual-on-the-International-Law-Applicable-to-Cyber-
Warfare-Draft-.pdf.
109 CICR, El derecho internacional humanitario y los desafíos de los conflictos armados contemporáneos, op.
cit., nota 29, p. 43.
110 V. Adam Segal, “China’s cyber stealth on new frontline”, en Australian Financial Review, 30 de marzo de
2012, disponible en: http://afr.com/p/lifestyle/review/china_cyber_stealth_on_new_ frontline_z6YvFR-
0mo3uC87zJvCEq6H. El autor hace referencia a las “cibermilicias” de empresas tecnológicas reclutadas
por el Ejército Popular de Liberación chino.
111 V. op. cit., nota 1, art. 51 (3) del Protocolo adicional I.
112 Sobre estos dos puntos, v. D. Blake y J. Imburgia, op. cit., nota 1, pp. 195-196.
113 V. Sean Watts, “Combatant status and computer network attack”, en Virginia Journal of International
Law, vol. 50, n.º 2, 2010, p. 391.
25
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
qué formación podrían haber recibido esos operadores civiles sobre las normas del
derecho internacional humanitario pertinentes114.
El segundo se refiere a que los ataques informáticos pueden tener conse-
cuencias en el “mundo real”, no sólo en el mundo virtual115. Cuando la población
civil resulta afectada —muertos y heridos civiles, daños a los bienes de carácter
civil, o una combinación de esas pérdidas y daños— resulta conveniente examinar
esas consecuencias a la luz del derecho internacional humanitario116. El análisis de
esta cuestión que presentamos respecto de los ataques mediante armas de energía
dirigida también se aplica a los ataques informáticos. Existe otra cuestión asociada:
cuando razonablemente se puede esperar que un virus introducido en un sistema
militar sea capaz de infiltrarse en sistemas civiles y causar daños a las infraestruc-
turas, ese daño colateral también debe tomarse en cuenta117. A menudo se cita el
ejemplo de un posible ataque informático que afectaría directamente a los civiles
y dejaría una central eléctrica fuera de servicio, sea provocando simplemente su
cierre, o bien sobrecargándola o desactivando los dispositivos de seguridad, lo que
dañaría el hardware. Toda infraestructura que dependa de un programa informá-
tico para su gestión puede sufrir esa suerte.
El tercero se refiere a que las ciberarmas deben ser examinadas no solo a la
luz del derecho internacional humanitario, sino también de manera muy significa-
tiva, a la luz del jus ad bellum118. Como señalan Blake e Imburgia, si bien no tiene
efectos cinéticos, un ataque informático podría de todas formas infringir la Carta de
las Naciones Unidas o, de manera general, el derecho internacional humanitario119;
además, si equivale a un “ataque armado”, un ataque informático podría legitimar el
empleo de la fuerza por parte del Estado afectado en nombre de la legítima defensa.
El cuarto aspecto es que, por la propia naturaleza de la ciberguerra, puede
resultar difícil determinar quién origina un ataque y los problemas de atribución
de responsabilidad son centrales para la responsabilidad de los Estados y la respon-
sabilidad individual120.
114 V. J. Kellenberger, op. cit., nota 15 (la observación corresponde a las armas operadas a distancia).
115 CICR, “La guerra informática y el DIH: reflexiones e interrogantes”, op. cit., nota 80.
116 V. op. cit., nota 1, art. 51 (5) (b) y 57 (2) (a) (iii) del Protocolo adicional I. El hecho de tomar o no en cuenta
otras consecuencias para la población civil (alteraciones, destrucción de infraestructura y equipos, etc.)
constituye una decisión política.
117 V. CICR, El derecho internacional humanitario y los desafíos de los conflictos armados contemporáneos,
op. cit., nota 29, p. 43.
118 Para simplificar, se puede decir que el jus ad bellum es el derecho que reglamenta el recurso general al
empleo de la fuerza, mientras que el jus in bello (el derecho internacional humanitario) reglamenta los
casos individuales de uso de la fuerza en período de conflicto armado. V. Matthew Waxman, “Cyber
attacks as ‘Force’ under UN Charter Article 2(4)”, en Raul Pedrozo y Daria Wollschlaeger (dir.), Inter-
national Law and the Changing Character of War, International Law Studies, vol. 87, 2011, p. 43; Sean
Watts, “Low-intensity computer network attack and self-defense”, en ibíd., p. 59; Michael Schmitt, “Cyber
operations and the jus ad bellum revisited”, en Villanova Law Review, vol. 56, n.º 3, 2011, pp. 569-605.
119 D. Blake y J. Imburgia, op. cit., nota 1, pp. 184-189. Esos elementos se examinan más detalladamente en
Michael Schmitt, ibíd., que plantea también la situación actual y habla de las “fallas en el derecho que rige
el empleo de la fuerza [que] obedecen al hecho de que ese conjunto de normas jurídicas es anterior a la
aparición de las ciberoperaciones” [traducción del CICR].
120 J. Kellenberger, op. cit., nota 15; CICR, El derecho internacional humanitario y los desafíos de los
conflictos armados contemporáneos, op. cit., nota 29, p. 42.
26
Junio de 2012, N.º 886 de la versión original
Nanotecnología y militarización de la neurobiología
Resulta difícil definir una “nanoarma”, pero el término abarca objetos y
dispositivos producidos por la nanotecnología que están diseñados o se utilizan para
causar daño a seres humanos, así como también aquellos que causan efectos nocivos
a escala nanométrica (si esos efectos son los que caracterizan la letalidad del arma)121.
Entre el segundo tipo de nanoarmas, figuran las bombas DIME (Dense
Inert Metal Explosive):
Se trata de un aerosol explosivo compuesto de microfragmentos a muy alta
temperatura que contienen una mezcla de tungsteno y metales pesados llamada
HMTA (por su nombre en inglés Heavy Metal Tungsten Alloy), molida y redu-
cida a polvo. Las bombas DIME tienen gran poder letal, pero en un radio de
acción relativamente restringido. Al impactar, el polvo de HMTA se transforma
en polvillo (con partículas de tamaño aún más minúsculo). Bajo el efecto de la
resistencia del aire, el aerosol pierde muy rápidamente su inercia, pero quema y
destruye todo lo que se encuentre en un radio de 4 metros en un ángulo muy
preciso. El polvo de HTMA se considera extremadamente cancerígeno y tóxico
para el medio ambiente. Esta nueva arma, que fue inicialmente desarrollada por
la fuerza aérea estadounidense, fue diseñada para reducir los daños colaterales
en los combates en zonas urbanas, limitando el alcance de la fuerza explosiva122.
La “capacidad [de las bombas DIME] de causar lesiones incurables y sufri-
mientos excesivos (en especial, debido a que ningún fragmento tiene el tamaño sufi-
ciente como para ser fácilmente detectado o extraído por el personal médico) alarmó
a los expertos en medicina”123. La otra preocupación que suscitan las nanotecnolo-
gías es que los elementos y los productos químicos que no son directamente nocivos
para los humanos a escala macroscópica desde el punto de vista químico pueden ser
extremadamente reactivos a escala nanométrica. Sin duda, se deberá entonces volver
a definir qué considera el derecho internacional humanitario como “arma química”.
Del mismo modo, debido a los avances actuales en la comprensión del
genoma humano y las neurociencias, existe una posibilidad muy certera de
121 H. Nasu y T. Faunce, op. cit., nota 10, p. 23.
122 Parece que el hecho de que se haya empleado ese tipo de arma en operaciones de combate real sigue
siendo un tema de especulación: v. de forma general, Dense Inert Metal Explosive (DIME), Global Secu-
rity, disponible en: http://www.globalsecurity.org/military/systems/munitions/dime.htm.
123 H. Nasu y T. Faunce, op. cit., nota 10, p. 22. Otro artículo 35 (2) del Protocolo adicional I, op. cit., nota
1, que prohíbe que se causen males superfluos, v. también el Protocolo sobre fragmentos no localizables
(Protocolo I) anexo a la Convención sobre Ciertas Armas Convencionales de 1980. Amnesty International
estima que se necesitan nuevos estudios para determinar si el empleo de municiones DIME es o no lícito
en derecho internacional. Amnesty International, “Dense Inert Metal Explosives (DIME)”, en Fuelling
conflict: Foreign arms supplies to Israel/Gaza, 2009, disponible en: http://www.amnesty.org/ en/library/
asset/MDE15/012/2009/en/5be86fc2-994e-4eeb-a6e8-3ddf68c28b31/mde150122009en. html#0.12. Para
un análisis general del Protocolo sobre fragmentos no localizables (Protocolo I) anexo a la Convención de
1980 sobre Ciertas Armas Convencionales, v. W. Boothby, op. cit., nota 45, pp. 196-199.
27
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
militarización de los conocimientos adquiridos en esas áreas124. En el plano del
derecho, una de las consecuencias radica en la necesidad de reevaluar los funda-
mentos para mantener una distinción jurídica entre armas químicas y armas
biológicas. Dada la manera en la que pueden emplearse esas armas, quizás habría
que considerarlas desde el punto de vista jurídico como elementos de un “espectro
continuo de amenaza bioquímica, con una superposición de la Convención sobre
las armas químicas y la Convención sobre las armas biológicas y tóxicas en el ámbito
de los agentes de espectro medio, como las toxinas y los biorreguladores”125.
En esa área, existen tensiones opuestas. Las armas químicas y las armas
biológicas no tienen buena prensa, lo cual no sorprende en absoluto. Al mismo
tiempo, se están llevando a cabo investigaciones para desarrollar armas no letales,
como las armas bioquímicas incapacitantes.
“Aunque hoy en día no exista ninguna definición universalmente aceptada, los
agentes bioquímicos incapacitantes pueden describirse como sustancias cuya
acción química sobre algunos procesos bioquímicos y sistemas fisiológicos,
especialmente los que influyen en la actividad reguladora superior del sistema
nervioso central, crean un problema que incapacita (por ejemplo, pueden
provocar incapacidad, desorientación, incoherencia, alucinaciones, sedación,
pérdida de conciencia). Se los conoce también con el nombre de agentes
químicos incapacitantes, agentes biotécnicos, agentes calmantes y, finalmente,
agentes inmovilizantes”126.
Es fundamental señalar aquí que, mientras que los agentes biológicos y
químicos tradicionales se empleaban contra soldados enemigos o civiles “no coope-
rantes” y eran consideradas armas, los agentes modernos pueden ser empleados
a veces por un Estado para “incrementar” las capacidades de sus propias fuerzas
armadas. En este último caso, hay muchas menos posibilidades de que los agentes
utilizados equivalgan a armas127. Por ejemplo:
“… en unas pocas décadas se dispondrá de medios para mejorar el desempeño
de las tropas que, casi con certeza, se basarán en el uso de diversos compuestos
farmacéuticos, y surtirán efectos en diferentes sistemas fisiológicos y no solo
en el ciclo del sueño. La reducción del miedo y del dolor, y el aumento de la
agresividad, la hostilidad, la capacidad física y la atención, podrían mejorar
124 V. de manera general Mark Wheelis y Malcolm Dando, “Neurobiología: estudio de caso sobre la inmi-
nente militarización de la biología”, en International Review of the Red Cross, 2005, https://www.icrc.org/
spa/resources/documents/article/review/6m4jrs.htm. V. también “Brain Waves 3: Neuroscience, conflict
and security”, en The Royal Society, disponible en: http://royalsociety.org/policy/projects/brain-waves/
conflict-security, para un debate sobre las potenciales aplicaciones militares de las neurociencias y las
neurotecnologías, así como también sobre los problemas jurídicos actuales, entre otros temas.
125 M. Wheelis y M. Dando, ibíd.
126 Michael Crowley y Malcolm Dando, “Submission by Bradford Nonlethal Weapons Research Project to
Foreign Affairs Select Committee Inquiry on Global Security: Non-Proliferation”, 2008, pp. 1-2, disponible
en: http://www.brad.ac.uk/acad/nlw/publications/BNLWRP_FAC071108MC.pdf [traducción del CICR].
127 Un traje blindado no se considera un arma.
28
Junio de 2012, N.º 886 de la versión original
notablemente el desempeño de los soldados, pero también podrían incrementar
significativamente la frecuencia de las violaciones del derecho humanitario. Por
ejemplo, el hecho de potenciar la agresividad y la hostilidad de una persona en
situaciones de conflicto difícilmente puede favorecer las actitudes de modera-
ción y el respeto de las prohibiciones jurídicas en relación con la violencia”128.
Asimismo, ya se han expresado preocupaciones similares respecto de las
armas activadas por control remoto. Y, como en el caso del empleo de armas de
energía dirigida para dispersar masas de civiles, en los territorios ocupados existe el
riesgo de que los civiles sean “pacificados” mediante sustancias químicas añadidas
a los alimentos que se les distribuyen129. También existe la posibilidad de que la
“memoria de las atrocidades cometidas [sea] borrada químicamente en sesiones
de información posteriores a la acción”130, lo cual es quizás aún más inquietante,
ya que afecta directamente la capacidad de hacer aplicar el derecho internacional
humanitario, en particular la responsabilidad del mando.
La necesidad de comprender e integrar las cuestiones de ingeniería en los
procesos de examen de la licitud de las armas
La rápida presentación que acabamos de efectuar de las armas emergentes
muestra que cuanto más aumenta la complejidad de las armas, mayores son las
dificultades de los no especialistas para comprender el modo de funcionamiento
de cada una de ellas. La presente sección del artículo se centra en las cuestiones
de ingeniería. Nos esforzaremos en demostrar que la comprensión de los desafíos
técnicos puede constituir uno de los elementos que se deben tomar en cuenta a la
hora de proceder al examen jurídico de las armas nuevas.
¿Por qué ocurre que un arma no funcione como estaba previsto?
Existen varias razones que pueden explicar que un arma no funcione
como estaba previsto o de manera conforme a las “especificaciones de diseño del
producto”131. Entre esas razones, figuran las especificaciones técnicas inadecuadas,
los defectos de diseño o incluso un control de calidad insuficiente en la etapa de
fabricación (variabilidad de los lotes de producción). Asimismo, pueden intervenir
otros factores, principalmente “la antigüedad de la munición, las condiciones de
almacenamiento, las condiciones ambientales al momento de la utilización y, final-
mente, las condiciones en el terreno”132.
128 M. Wheelis y M. Dando, op. cit., nota 124.
129 Ibíd.,
130 Ibíd.
131 La etapa de las especificaciones de diseño del producto tiene por objeto definir lo que un producto debería
hacer; precede a la etapa de las especificaciones técnicas propiamente dichas, que se refiere a la manera en
que el producto hará lo que está previsto que haga.
132 Defense Science Board Task Force, Munitions System Reliability, Oficina del subsecretario de Defensa (Adquisi-
ción, tecnología y logística), Ministerio de Defensa de Estados Unidos, Washington, D.C., septiembre de 2005,
p. 15, disponible en: http://permanent.access.gpo.gov/lps72288/ADA441959.pdf [traducción del CICR].
29
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
Un simple ejemplo de anomalía de especificación, o al menos de espe-
cificación que no se considerará fiable al 100 %, es el de una mina antivehículo
que fuera diseñada para no estallar cuando un humano pusiera un pie encima.
Por ejemplo, si se trata de una mina accionada por presión, podría fijarse un peso
inferior a 150 kg para su activación. Sin embargo:
… la investigación biomecánica ofrece pruebas sólidas que demuestran que
un ser humano puede ejercer muy fácilmente una presión próxima o incluso
superior a la de un peso de 150 kg. Por ejemplo, si un niño de 8 años que pesa
30 kg y lleva zapatos se echa a correr cuesta abajo, ejerce una fuerza de impacto
en el suelo de 146 kg; una niña de 9 años y 40 kg de peso que se echa a correr
descalza cuesta abajo ejerce una fuerza de 167 kg; un hombre corriendo ejerce
una fuerza de 213 kg133.
En otro caso, la especificación podría ser correcta, pero una falla en el
diseño, el proceso de fabricación o la integración de sistemas no permitiría alcanzar
el resultado deseado de manera constante. Podría tratarse de un problema de
calidad en la ingeniería debido a una falta de solidez en los procesos realizados, lo
que implicaría que el producto sería defectuoso y, consecuentemente, plantearía un
problema de fiabilidad.
Si un arma no funciona como estaba previsto, las dos consecuencias prin-
cipales son las siguientes:
• No se logra el efecto militar deseado. Si el arma no cumple su función, se pone
en peligro a las fuerzas armadas del usuario. Si el arma no funciona de manera
conforme a las especificaciones, se pone en peligro a los civiles y los bienes de
carácter civil134.
• Si se hiere o mata a civiles, o si se dañan bienes de carácter civil, se puede
incurrir en responsabilidad135. El Estado puede ser responsable en un caso de
hecho internacionalmente ilícito (es decir en caso de infracción del derecho
internacional humanitario), y se puede imputar penalmente al comandante que
autorizó el empleo del arma, o a la persona que la empleó, o bien a ambos.
A medida que los sistemas de armas se vuelvan más complejos, la
comprensión del análisis de fiabilidad deberá convertirse en uno de los elementos
del proceso de examen jurídico.
133 “Anti-vehicle mines: discussion paper”, Actiongroup Landmine.de, 2004, p. 5 (nota al pie de página
omitida), disponible en: http://www.landmine.de/fileadmin/user_upload/pdf/Publi/AV-mines-discus-
sion-paper.pdf [traducción del CICR]
134 Esas fallas tienen consecuencias directas sobre la eficacia militar y también tienen un impacto negativo en
el ánimo y el apoyo de la opinión pública a nivel nacional, internacional, etc.
135 También se puede incurrir en responsabilidad cuando los medios o métodos de guerra utilizados contra
los combatientes son ilícitos (lo que puede ocurrir en un caso de arma defectuosa donde, por ejemplo, se
disparara contra un combatiente que ya estuviese fuera de combate).
30
Junio de 2012, N.º 886 de la versión original
Fiabilidad: procedimiento de pruebas y evaluación
El procedimiento de pruebas y evaluación tiene por objeto proporcionar
un medio para establecer objetivamente si un sistema (o uno de sus componentes)
funciona de manera fiable de conformidad con las especificaciones. La fiabilidad
es la probabilidad de funcionamiento correcto, a un nivel de confianza determi-
nado, durante un ciclo de vida definido (medido en unidades de tiempo, ciclos de
operación, etc.) Intuitivamente, resulta simple comprender que la fiabilidad cons-
tituye un factor esencial en el funcionamiento de un arma; sin embargo, el nivel
de complejidad no siempre es inmediatamente percibido por quienes no están
familiarizados con las cuestiones de fiabilidad de ingeniería136. La cuantificación
de la fiabilidad no es una posición a la que se pueda responder “sí” o “no”137;
tampoco se puede obtener por medio de una sola prueba “aprobada o desapro-
bada”, ya que, de hecho, está “sujeta a los límites de confianza estadística”138. Por
ejemplo, para determinar con el nivel adecuado de confianza estadística que la
tasa de fallas de la población de un arma en particular es aceptable, es necesario
que se hayan realizado una cantidad mínima de pruebas. Sin embargo, como los
recursos siempre son limitados, los responsables de las prácticas de ingeniería
deben responder a la siguiente pregunta: ¿cómo optimizar los recursos y esta-
blecer el mínimo requerido para lograr una tasa de fiabilidad aceptable? Supon-
gamos que efectuar la cantidad deseada de pruebas insumiera mucho tiempo, o
que los gastos en los que se deba incurrir excedieran el presupuesto asignado. Un
enfoque inocente consistiría simplemente en reducir la cantidad de pruebas para
avenirse a las exigencias presupuestarias, esperando que las pruebas efectuadas
proporcionen, a pesar de todo, alguna información útil. Ahora bien, nada indica
que ese será el caso. Se puede imaginar que esas pruebas solo arrojarán conclu-
siones engañosas si los resultados obtenidos no alcanzan el nivel de confianza
requerido. Las pruebas de certificación exigen cierto nivel de confianza. Cierto
es que, en lo que respecta a los componentes de las armas no letales, el nivel de
confianza estadística requerido a veces está establecido (con justa razón) en el
nivel bajo, ya que su falla solo tiene un leve impacto operacional y sus implica-
ciones en términos de seguridad son menores o nulas (por ejemplo, en el caso de
la falla de un proyectil incendiario). En cambio, el sistema de reconocimiento de
objetivo montado en un arma autónoma puede exigir un nivel muy elevado de
confianza estadística para reducir al mínimo el empleo de armas letales contra
civiles y lograr atacar objetivos enemigos. Si se estima necesario un nivel de segu-
ridad estadística para la seguridad de los civiles y existen obligaciones presupues-
tarias que impidan que se proceda a las pruebas requeridas, deberían entonces
imponerse límites adecuados respecto de las aplicaciones aprobadas para esa
arma, hasta que la experiencia de terreno permita lograr un nivel de confianza
apropiado de la fiabilidad del arma.
136 V. de manera general Defense Science Board Task Force, Munitions System Reliability, op. cit., nota 132.
137 “Solamente dime si este producto es fiable o no”, preguntaría el jefe.
138 Defense Science Board Task Force, Munitions System Reliability, op. cit., nota 132, p. 15.
31
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
¿Cómo debería aplicarse esto en la práctica? Las principales etapas del
procedimiento de adquisición de un arma están bien descriptas por McClelland,
incluso las diversas etapas de las “pruebas de demostración”, “pruebas de fabricación”
y “pruebas en servicio”139. Como señala McClelland, no se trata de un proceso jurí-
dico, sino más bien de uno de los elementos del proceso de adquisición. No obstante,
esos aspectos de la toma de decisión constituyen “etapas importantes para el aporte
de asesoramientos jurídicos formales”140. En efecto, para que las pruebas sean útiles,
es necesario que algunas cuestiones de importancia capital y relativas al funciona-
miento se traduzcan en elementos que puedan probarse y medirse de manera obje-
tiva. Numerosos países pequeños podrían limitarse a ser simples compradores de
armas listas para usar141, pero hay otros Gobiernos que participan en el proceso de
diseño, desarrollo y pruebas de armas cuya tecnología es emergente. Ciertamente,
el nivel de participación varía, pero se trata de una elección para los Gobiernos142.
De este modo, en lugar de limitarse a recibir de manera pasiva los resultados de las
pruebas y otros datos relativos a las armas, los Gobiernos podrían tomar sus propias
iniciativas en el marco del proceso de examen jurídico. Los juristas podrían aportar
su contribución desde el inicio de las fases de pruebas y evaluación, identificando los
problemas relativos al derecho, que serían luego traducidos en elementos sobre los
que fuera posible efectuar pruebas. Esta podría ser una de las formas de superar, al
menos en parte, las dificultades en lo relativo a seguridad y acceso compartimentado
que presentan las armas de alta tecnología de las que hemos hablado anteriormente.
Por ejemplo, es apropiado otorgar una mayor confianza a la fiabilidad en el caso
de aplicaciones militares que impliquen factores de riesgo más elevados para los
civiles. Esa información podría servir como referencia cruzada con datos relativos
a la fiabilidad de sistemas de armas existentes; de esa forma, podrían constituir una
contribución al proceso de toma de decisiones cuando se trate de determinar si un
nuevo proceso de identificación de objetivo bélico se puede considerar lícito.
Para que sean efectivos, los requisitos jurídicos deben expresarse en
términos “que se puedan probar, cuantificar y medir, y que sean razonables”143.
139 J. McClelland, op. cit., nota 1, p. 401. O incluso, las pruebas pueden llevarse a cabo en las etapas de diseño
y aceptación inicial y luego, en el marco de la evaluación operacional.
140 Ibíd., p. 402.
141 Por supuesto, los compradores de sistemas de armas “listas para usar” deben, además, cerciorarse de la
licitud de las armas adquiridas. Incluso en el caso de un arma cuyo desarrollo está terminado y a la que
se le han efectuado todas las pruebas previstas, este trámite puede resultar difícil para los compradores de
armas de alta tecnología. Por ejemplo, puede ocurrir que el fabricante se niegue a proporcionar informa-
ción suficiente sobre un arma de alta tecnología que utiliza un programa informático propietario encrip-
tado, información que habría permitido al usuario final juzgar con conocimiento de causa los algoritmos
utilizados y tener confianza respecto de la fiabilidad final del arma.
142 V. Report on the Defense Science Board Task Force on Developmental Test & Evaluation, Oficina del subsecre-
tario de Defensa (Adquisición, tecnología y logística), Ministerio de Defensa de Estados Unidos, mayo de
2008, pp. 6-7, disponible en: www.acq.osd.mil/dsb/reports/ADA482504.pdf. En este informe se hizo hincapié
en la reciente disminución de la participación del Gobierno de Estados Unidos en las pruebas de calificación
(pruebas para verificar la validez del diseño y su conformidad con las especificaciones); quizás es más inquie-
tante el hecho de que el acceso del Gobierno a los datos correspondientes a las pruebas haya sido limitado.
143 Ibíd., p. 38 [traducción del CICR]. En el informe se señala que esta acción podría resultar difícil en los
comienzos. V. por ej. ibíd., p. 39, un debate de los casos en los que esta acción fue omitida en lo que
respecta a los requisitos operacionales.
32
Junio de 2012, N.º 886 de la versión original
El desafío consistirá principalmente en zanjar la brecha que a menudo separa las
definiciones de los requisitos técnicos y el funcionamiento operacional deseado. La
existencia de esa brecha puede, en general, “atribuirse a la terminología empleada
para definir el nivel de funcionamiento requerido, así como a las condiciones y la
manera en la que ese funcionamiento [debe] medirse”144. Es precisamente sobre ese
punto que el trabajo en común de juristas e ingenieros puede influir en el proceso
de forma tal que tanto el proceso, como las demostraciones y el análisis puedan
adoptarse como métodos válidos para prever el funcionamiento real.
Una vez que un sistema se ha puesto en servicio, se pueden seguir reali-
zando otras pruebas para obtener más información sobre las capacidades del
sistema y cerciorarse de que realmente cumpla con las exigencias del usuario. Esa
fase de pruebas y evaluación es particularmente crítica, ya que es la única que está
vinculada al empleo del sistema en el “mundo real”145.
Si los especialistas del derecho proporcionaran criterios jurídicos cohe-
rentes con los que pudiera evaluarse una categoría de armas, la conformidad
permanente de esas armas con las exigencias del derecho podría tomarse en cuenta
en un proceso ya existente. Otro ámbito en el que sería útil la contribución de los
juristas es la evaluación y el análisis de la integración y la interacción de sistemas
y subsistemas. Cuando se trata de un sistema de sistemas, la experiencia militar en
Estados Unidos muestra que no existe ningún
“director de programa único que “posea” la responsabilidad del funcionamiento
o la verificación para el conjunto de múltiples elementos constitutivos de los
sistemas; no existe hoy en día ningún proceso de adjudicación ampliamente utili-
zado que permita atribuir fácilmente la responsabilidad de las capacidades [de
un sistema de sistemas], con excepción de los sistemas de mando y control”146.
La situación es muy diferente en otros sectores. Las principales empresas
automotrices, por ejemplo, utilizan procesos extremadamente sofisticados de
diseño, producción, pruebas y validación de calidad para cada componente de un
vehículo; por lo tanto, cuentan con la posibilidad de una atribución de respon-
sabilidad detallada para cada componente, sistema y producto completo (incluso
para los sistemas múltiples). Si los juristas trabajaran junto con los ingenieros de
sistemas, en las diferentes instancias del proceso de control de calidad se podrían
identificar problemas jurídicos críticos que exigieran a la vez la realización de
pruebas y la atribución de responsabilidad (por ejemplo, en caso de incumpli-
miento del derecho internacional humanitario) entre el fabricante del arma y las
diversas partes militares interesadas.
144 Ibíd., p. 41.
145 Por ejemplo, se comprobó de manera empírica que algunas fallas se debían a “factores operacionales
que no se habían tomado en cuenta en las pruebas realizadas a los fines del desarrollo, la validación y
la supervisión”, Defense Science Board Task Force, Munitions System Reliability, op. cit., nota 132, p. 17
[traducción del CICR].
146 Report on the Defense Science Board Task Force on Developmental Test & Evaluation, op. cit., nota 142,
p. 43 [traducción del CICR].
33
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
Fiabilidad y reconocimiento automático de objetivo
Las armas diseñadas para estallar pero que no estallan como estaba
previsto al momento de utilizarlas en operaciones y se dejan en el terreno tras el
cese de hostilidades se denominan “restos explosivos de guerra”147. De hecho, la
fiabilidad de las municiones se define incluso como una “medida de la probabilidad
de una explosión lograda”148. Dados los peligros a los que los artefactos explosivos
sin estallar exponen a la población civil, ya existe una reglamentación jurídica en
la materia149. Sin embargo, lo que no se sabe tan bien es que la fiabilidad de las
armas, asociada al reconocimiento automático de objetivo, conlleva otro efecto
importante: el problema que se plantea no es solo el de un arma que no explosiona,
sino también el de un arma que se equivoca de objetivo.
Intentaremos entonces determinar aquí si es razonable concluir, sobre la
base del análisis de datos de reconocimiento, que un objetivo en particular posea
algunas propiedades o características enemigas y, si fuera el caso, precisar cuándo
resulta razonable arribar a dicha conclusión. Tomemos el caso en el que la diferencia
entre la hipotética característica enemiga y los datos de reconocimiento no es ni tan
grande como para que rechacemos automáticamente el objetivo, ni tan pequeña
como para que la validemos fácilmente. En ese caso, se debería efectuar un análisis
estadístico más sofisticado (pruebas de hipótesis, por ejemplo). Supongamos que
se probó por experiencia que una concordancia del 90 % entre los datos de reco-
nocimiento y la información disponible sobre cierto tipo de objetivos enemigos
constituía un criterio fiable para confirmar un objetivo enemigo. Si la concordancia
fuera del 100 % o del 30 %, posiblemente podríamos arribar a una conclusión acep-
table utilizando el sentido común. Supongamos ahora que la concordancia entre
los datos es del 81 %. Es cierto que podríamos pensar que estamos relativamente
cerca del 90 %, pero ¿podríamos por ello decir que eso es suficiente para validar
el objetivo como objetivo lícito? Si aceptamos o rechazamos los datos para decidir
que se trata de un objetivo lícito, no podemos estar absolutamente seguros de haber
tomado la decisión correcta. Estamos obligados a admitir la incertidumbre y lidiar
con ella. Cuanto más ajustamos los criterios de validación de los datos cruzados,
menos son las posibilidades de que un sistema automático de reconocimiento tome
como objetivos para atacar a objetivos que se deben evitar (“no objetivos”); en
cambio, habrá más posibilidades de que el sistema de reconocimiento fracase al
identificar objetivos y reconocerlos como lícitos150.
El nivel al cual se supone que un arma debe explosionar podría corres-
ponder a una “tasa de funcionamiento fiable del 95 %”151. Esa tasa de fiabilidad es
147 V. Defense Science Board Task Force, Munitions System Reliability, op. cit., nota 132, p. 10.
148 Ibíd., p. 14 [traducción del CICR].
149 Por ejemplo, v. el capítulo sobre “Unexploded and abandoned weapons”, en W. Boothby, op. cit., nota 45,
pp. 297-317.
150 V. Defense Science Board Task Force, Munitions System Reliability, op. cit., nota 132, p. 28.
151 Ibíd., p. 11. Incluso ese nivel de fiabilidad se basa en condiciones controladas, y un nivel inferior se autoriza
en las condiciones propias de las operaciones, de forma tal de tomar en cuenta “factores ambientales tales
como el terreno y las condiciones meteorológicas”, ibíd., Anexo III, DoD Policy Memo on Submunition
Reliability, p. 1 [traducción del CICR].
34
Junio de 2012, N.º 886 de la versión original
la de las armas autónomas que una de cada veinte veces disparan contra un objetivo
ilícito como consecuencia de un error de clasificación. ¿Se estimaría aceptable ese
“funcionamiento” cuando de lo que se trata es de distinguir los objetivos lícitos de
los objetivos protegidos? Vemos que si un arma se considera desde este punto de
vista, la mejor manera de definir la fiabilidad radica en el siguiente interrogante:
“¿el arma cumple la función que se le ha asignado?”152. Además, “siendo que las
capacidades en términos de espoleta y guiado están cada vez más integradas, la
fiabilidad de la adquisición de objetivos deberá medirse y evaluarse”153. Se sugirió
que lo que se necesitaría es un “nivel de probabilidad muy elevado para la identifi-
cación de objetivo correcto... y un nivel de probabilidad muy bajo para el riesgo de
que se identifiquen erróneamente objetivos amigos u objetivos civiles como obje-
tivos válidos, es decir, como objetivos enemigos”154. Dado que existe un equilibrio
inherente entre sensibilidad y especificidad, resulta conveniente tomar también en
cuenta la manera en la que se empleará un arma. Si, sobre la base de un examen
independiente, un operador humano da la autorización de seguir adelante con el
ataque o, por el contrario, da la orden de abandonarlo, está proporcionando una
protección adicional contra un “falso” reconocimiento; en ese caso, sería aceptable
un número mayor de resultados con falso positivo generados por el sistema auto-
mático de reconocimiento. En cambio, si se trata de un arma autónoma, el efecto
militar de un empleo correcto contra objetivos enemigos identificados debe sope-
sarse más minuciosamente tomando en cuenta los riesgos que corren los civiles.
Observaremos aquí que uno de los objetivos de los sistemas automatizados y los
sistemas autónomos es, justamente, tomar volúmenes importantes de datos de
observación que abrumarían a un operador humano: cuando las “observaciones [se
cuentan] por millones [...] incluso un riesgo de errores muy bajo podría provocar
lamentables incidentes fratricidas”155. La confianza en la capacidad de un sistema
autónomo para operar en el mundo real podría incrementarse desplegando esos
sistemas en modo semiautónomo, es decir que un operador humano debería dar
la aprobación final de disparo156. Un riguroso análisis de los datos posterior a la
misión permitiría que, con el tiempo, se disponga de una evaluación estadística-
mente significativa de la fiabilidad del arma respecto de la identificación correcta
de los objetivos lícitos.
En cuanto a las pruebas, hay un último punto que amerita ser señalado:
El hecho de lograr o no algunos resultados [aumento de las capacidades, eficacia
del personal y reducción de los costos gracias a un uso mucho más amplio de
los sistemas autónomos] dependerá del desarrollo de métodos completamente
nuevos que permitan “la confianza en la autonomía” por medio de procesos
de verificación y validación de los estados casi ilimitados de los sistemas que
152 Ibíd., p. 14.
153 Ibíd., p. 16.
154 Ibíd., p. 23 [traducción del CICR].
155 V. Report of Defense Science Board Task Force on Patriot System Performance: Report Summary, op. cit.,
nota 60, p. 43 [traducción del CICR].
156 V. A. Myers, op. cit., nota 23, pp. 91-92.
35
A. Backstrom e I. Henderson - Surgimiento de nuevas capacidades de combate: los avances tecnológicos
contemporáneos y los desafíos jurídicos y técnicos que plantea el examen previsto en el artículo 36 del Protocolo I
resultan de los niveles elevados de adaptabilidad y autonomía. En efecto, el
número de estados de entrada que se pueden presentar en esos sistemas es tan
elevado que no solo es imposible probarlos directamente en su totalidad, sino
que ni siquiera es posible probar más que una insignificante fracción de ellos.
El desarrollo de esos sistemas resulta, por lo tanto, intrínsecamente imposible
de verificar mediante los métodos actuales y, por consiguiente, resulta también
imposible certificar su funcionamiento en la totalidad de las aplicaciones (a
excepción de algunas aplicaciones relativamente menores).
Es posible desarrollar sistemas con niveles elevados de autonomía, pero la falta
de métodos de verificación y validación impide la autorización de utilización
de todos los niveles de autonomía, excepto los más bajos. Sin embargo, podría
haber eventuales adversarios listos para desplegar sistemas con niveles de auto-
nomía mucho más elevados sin necesidad alguna de procedimientos certifica-
bles de verificación y validación, por lo cual podrían lograr importantes ventajas
en términos de capacidad sobre [nuestras] fuerzas aéreas. Para compensar esta
ventaja asimétrica, habría que desarrollar métodos (a la fecha inexistentes) que
permitieran disponer de procedimientos fiables en materia de verificación y
validación157.
En el ámbito de las armas, la investigación se diferencia claramente de las
pruebas. ¿Esta investigación (por oposición al desarrollo) debería verse limitada
u obstaculizada por consideraciones jurídicas? De manera general, sin contar las
restricciones presupuestarias y desde el punto de vista legal, nada impide a la inves-
tigación llevar el estudio de armas potenciales tan lejos como lo permitan los límites
de la ciencia y la ingeniería, en especial dado que las leyes cambian158. Los momentos
oportunos para imponer límites sobre la base del derecho se sitúan durante las fases
de producción y despliegue de las armas. Evidentemente, algunos podrían (y lo
hacen) proporcionar argumentos diferentes basándose en la ética y la moral159. Es
efectivamente a este nivel donde mejor se defienden y debaten esos argumentos.
157 Fuerza Aérea de Estados Unidos, “Technology horizons”, disponible en: http://www.af.mil/information/
technologyhorizons.asp [traducción del CICR].
158 V. los ejemplos de los submarinos y aeroplanos a los que se hace referencia en K. Anderson y M. Waxman,
op. cit., nota 29, pp. 6-7. Aunque algunos aspectos del derecho internacional humanitario pueden cambiar,
esta evolución probablemente no se extienda a los principios fundamentales como son las obligaciones de
distinción y proporcionalidad, así como la prohibición de causar males superfluos.
159 V. Matthew Bolton, Thomas Nash y Richard Moyes, “Ban autonomous armed robots”, artículo 36, 5 de
marzo de 2012, disponible en: http://www.article36.org/statements/ban-autonomous-armed-robots/:
“Aunque la asignación de un mayor papel a los robots en los conflictos parece ser un fenómeno imposible
de parar, debemos trazar una línea roja que jamás se ha de cruzar: la identificación de objetivos totalmente
autónoma. Una primera medida en ese caso podría consistir en reconocer que esa línea roja debe efectiva-
mente afectar a todos los niveles, desde la tecnología relativamente simple de las minas terrestres antivehí-
culo (no prohibidas hasta la fecha), hasta la mayoría de los sistemas complejos en curso de desarrollo. No
habría que ignorar por ello los desafíos que afrontará una toma de posición semejante. Por ejemplo, quizás
habrá que examinar la manera en que la automatización funciona en el contexto de la defensa antimisiles
y en otros contextos. Sin embargo, algunos fundamentos parecen sólidos. La decisión de matar o herir
no debería dejarse a las máquinas y, aunque a veces no sea perfecta, la distinción entre militares y civiles
deberían hacerla solo seres humanos” [traducción del CICR].
36
Junio de 2012, N.º 886 de la versión original
Conclusión
Frente a la complejidad tecnológica de las armas y los sistemas de armas
en constante aumento, es importante que los informáticos, los ingenieros y los
juristas, entre otros especialistas, dialoguen unos con otros cada vez que un Estado
emprenda el examen de armas que exige el artículo 36 del Protocolo adicional I160.
Esos exámenes no pueden estar “compartimentados”, es decir que cada disciplina se
aboque de manera aislada a su propio campo técnico. Por el contrario, las personas
que conduzcan el examen jurídico deberán demostrar que poseen “una compren-
sión técnica de la fiabilidad y la precisión del arma examinada”161, así como de la
manera en que el arma será empleada en las operaciones162. Por supuesto, ello no
significa que cada uno de los especialistas —juristas, ingenieros, informáticos y
operadores— deba ser competente en todas las disciplinas; sino que cada uno de
ellos debe poseer una comprensión suficiente de las otras áreas como para detectar
las interacciones potenciales, mantener debates fructíferos y evaluar sus propias
decisiones según su impacto en los demás campos en desarrollo.
Los responsables del desarrollo de las armas deberán conocer las normas
esenciales del derecho internacional humanitario que rigen el empleo de las armas.
Por su parte, los juristas que aporten su punto de vista en la evaluación de la licitud
deberán estar particularmente bien informados sobre la manera en que se utilizará
el arma examinada en las operaciones y aplicar este conocimiento para facilitar
la elaboración de directivas operacionales coherentes que tomen en cuenta los
desafíos que los avances tecnológicos representan para el derecho internacional
humanitario. Además, las partes deben comprender cómo deben elaborarse e inter-
pretarse los métodos de pruebas y validación, incluso las medidas de fiabilidad,
no solo en cuanto a resultados operacionales, sino también al cumplimiento del
derecho internacional humanitario.
Dado que a menudo la información sobre las capacidades de un arma
determinada es extremadamente confidencial y “compartimentada”, los juristas,
los ingenieros y los operadores pueden ser llamados a trabajar juntos, de manera
cooperativa e imaginativa, para superar los límites impuestos por la clasificación
de seguridad y la compartimentación del acceso a la información. Un enfoque para
considerar consistiría en elaborar parámetros jurídicos claramente enunciados
que puedan ser útiles al momento de las pruebas de sistemas. Otro enfoque podría
consistir en diseñar conjuntos de ecuaciones entre criterios de validación multi-
paramétricos. Esos conjuntos de ecuaciones permitirían proceder a pruebas de
hipótesis que integren datos relativos a la fiabilidad, los niveles de confianza y los
factores de riesgo, utilizando datos de entrada como la ventaja militar anticipada,
los datos relativos a la fiabilidad del arma, el grado de incertidumbre de las medidas
de reconocimiento y los factores de riesgo respecto de los civiles.
160 V. P. Spoerri, op. cit., nota 54.
161 K. Lawand, op. cit., nota 1, p. 929 [traducción del CICR].
162 CICR, Guía para el examen jurídico de las armas, los medios y los métodos de guerra nuevos – Medidas
para aplicar el artículo 36 del Protocolo adicional I de 1977, op. cit., nota 1, pp. 17-18.
37