viernes, 10 de abril de 2015

La ONU convoca un encuentro internacional sobre el uso robots asesinos

Entre los días 13 y 17 de abril, en Ginebra se desarrollará una reunión de expertos para analizar la situación actual de los sistemas de armas autónomos letales (Lethal Autonomous Weapons Systems LAWS). En el encuentro, los expertos del Convenio sobre Ciertas Armas Letales (Convention on Certain Conventional Weapons CCW) analizarán cuestiones relativas a las tecnologías emergentes en materia de sistemas de armas letales autónomas, en base al desarrollo tecnológico alcanzado, que permiten automatizar determinados sistemas de armas de manera que se pueden dotar de capacidad de decisión letal.

Está claro que el grupo de expertos pretende convencer a las Naciones Unidas de la necesidad de prohibir estos sistemas de armas antes de que se comercialicen.

Visto en YouTube.Una muestra, en Fort Benning's Maneuver Battle Lab, de tecnologías con armas sobre vehículos no tripulados
Modular Advanced Armed Robotic System (MAARS)

El tema armas es muy serio realmente, tras la tragedia del MH17, se hace notar, en los medios especializados, el temor a que las grandes potencias estén perdiendo el control sobre ciertas categorías de tecnología muy letal y que ésta caiga en manos de facciones sin escrúpulos, más aún con la escala bélica que se están desarrollando en varios escenarios. Es de terror pensar que una máquina descontrolada se ponga a seleccionar blancos.--

Un MQ-9 Reaper, un UAV con capacidad de ataque con misiles. Visto en Wikipedia

Los ‘robots asesinos’ salen de la ciencia ficción
Por Guillermo Altares, publicado en El País.

Los robots asesinos, máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano, han abandonado la ciencia ficción para entrar de lleno en la agenda internacional sobre desarme: a partir del próximo lunes, la ONU reúne en Ginebra a decenas de expertos durante cinco días para estudiar todas las implicaciones de los llamados Sistemas de Armas Autónomos Letales (LAWS, en sus siglas en inglés). El objetivo de los investigadores es convencer a la comunidad internacional para que impulse una prohibición global de este tipo de armas, que plantean profundos dilemas éticos, sobre todo en el terreno de las leyes de la guerra: ¿quién es responsable si una máquina autónoma comete un crimen? Todavía no existen; pero sí la tecnología capaz de desarrollarlas.

“Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibición”, explica Noel Sharkey, profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield y el académico que ha impulsado la mayor campaña internacional contra los robots militares, Stop Killer Robots. “Hay muchas naciones implicadas, aunque este tipo de decisiones requieren mucho tiempo”, agrega. Sharkey, que lleva casi una década dedicado exclusivamente a este problema, asegura que la reunión de Ginebra se produce “porque ha habido tanto debate sobre los robots asesinos, que las delegaciones nacionales en la Convención sobre Armas Convencionales han decidido convocar a expertos para documentarse a fondo antes de tomar una decisión”.

El objetivo de esta convención es el control de lo que se denominan “armas inhumanas” y ha arrancado acuerdos internacionales para prohibir, por ejemplo, determinados tipos de minas antipersonales y los láser cegadores. Este armamento se prohibió antes de que estuviese operativo y eso es lo que pretenden los científicos: que los robots asesinos no lleguen a crearse nunca. Muchos países han desarrollado sistemas de armas autónomos, como el x47-B de EE UU, un avión que puede aterrizar y despegar solo. De hecho, la eficacia del escudo israelí Cúpula de Hierro se basa en la robótica. Se han inventado armas que se mueven por su cuenta –por ejemplo, el Samsung SGR-1 surcoreano que patrulla la frontera con Corea del Norte–, pero la decisión de abrir fuego sigue siendo humana. Por ahora.

Con motivo del encuentro de Ginebra, Human Rights Wacht y Harvard Law School’s International Human Rights Clinic han publicado este jueves un informe que relata lo que implicaría que las máquinas con capacidad para decidir sobre la vida y la muerte entrasen en el campo de batalla. Su conclusión es clara: “Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional”.

Una de las ideas contra las que lucha la campaña internacional es que, en principio, no suena mal que sean máquinas, y no seres humanos, los que hagan las guerras. El panorama que describe este documento se parece bastante a Terminator: “Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles.

Debido a que estas armas revolucionarían la guerra, también pueden desatar una carrera armamentista. Una vez que estuviesen totalmente desarrolladas, se producirá una proliferación a estados irresponsables o grupos armados no estatales. Algunos críticos también argumentan que el uso de robots podría hacer más fácil que los líderes políticos recurrirán a la fuerza porque reduciría el riesgo para sus propios soldados”. A todo esto, habría que sumar la responsabilidad ante las leyes de la guerra. Los expertos trazan el paralelismo con los coches autónomos, una tecnología plenamente desarrollada, pero no circulan porque no se ha resuelto el problema de la responsabilidad si ocurre un accidente con un coche que conduce una máquina.

El Comité Internacional para el Control de los Robots Armados (ICRAC), formado por científicos, abogados, expertos en derechos humanos, ha desarrollado un argumentario para la reunión de Ginebra con los problemas para la seguridad global que plantean las armas autónomas. “Nos encontramos en un momento crítico en la evolución del armamento. Todavía estamos a tiempo para detener la automatización de la decisión de matar, para asegurarnos que todas las armas siguen estando controladas por seres humanos”, mantiene el texto. / Por Guillermo Altares, publicado en El País.-

No hay comentarios.:

Publicar un comentario

Antes de colocar un comentario tenga en cuenta que no se permitirán comentarios que:
- sean anónimos y/o posean sólo un nickname.
- no estén vinculados a una cuenta.
- posean links promocionando páginas y/o sitios
- puedan resultar ofensivos o injuriosos
- incluyan insultos, alusiones sexuales innecesarias y
palabras soeces o vulgares
- apoyen la pedofilia, el terrorismo o la xenofobia.

Este Blog ni su autor tiene responsabilidad alguna sobre comentarios de terceros, los mismos son de exclusiva responsabilidad del que los emite. De todas maneras, por responsabilidad editorial me reservo el derecho de eliminar aquellos comentarios que considere inadecuados, abusivos, injuriantes, discriminadores y/o contrarios a las leyes de la República Argentina.