viernes, 28 de octubre de 2016

Preocupa una posible carrera robótica armamentística

El ‘Dilema de Terminator’, los robots que podrían ser máquinas asesinas.
Por y Matthew Rosenberg y John Markoff, publicado por The New York Times/es.

Estados Unidos desarrolla tecnología militar con inteligencia artificial con el fin de mantener su supremacía bélica mundial, mientras los científicos y activistas están preocupados por lo que implica una carrera robótica armamentística.

CAMP EDWARDS, Massachusetts — Un pequeño dron de seis rotores voló encima de la réplica de una aldea del Medio Oriente y se acercó a una estructura parecida a una mezquita; su cámara estaba rastreando objetivos.

No había humanos piloteando el dron, que se puede comprar en Amazon. Sin embargo, después de añadirle un software avanzado de inteligencia artificial, se transformó en un robot que podía encontrar e identificar a media docena de hombres con réplicas de AK-47 que deambulaban por la aldea, fingiendo ser insurgentes.

Mientras el dron descendía ligeramente, un rectángulo púrpura parpadeaba en un video retransmitido a los ingenieros que monitoreaban la prueba. El artefacto había localizado a un hombre oculto en las sombras, una muestra de las destrezas de caza que ofrecen una vista preliminar de cómo el Pentágono planea transformar la guerra.

Casi sin que se note fuera de los círculos de defensa, el Pentágono ha hecho que la inteligencia artificial sea la base de su estrategia para mantener la posición de Estados Unidos como el poder militar dominante del mundo. Está gastando miles de millones de dólares para desarrollar lo que llama armas autónomas y semiautónomas, y construir un arsenal lleno de armas que hasta ahora solo han existido en las películas de Hollywood y ciencia ficción, lo cual ha alarmado a los científicos y activistas que están preocupados por lo que implica una carrera robótica armamentística.

El Departamento de Defensa está diseñando jets robóticos de combate que volarían para combatir junto a aviones tripulados. Ha probado misiles que pueden decidir qué atacar, y ha construido naves que pueden cazar submarinos enemigos, acechando a los que encuentra a miles de kilómetros, sin la ayuda de seres humanos.

“Si Stanley Kubrick dirigiera Dr. Strangelove de nuevo, se trataría del problema de las armas autónomas”, dijo Michael Schrage, un becario de investigación en la Sloan School of Management del Instituto Tecnológico de Massachusetts.

Los funcionarios de defensa dicen que Estados Unidos necesita las armas para mantener su ventaja militar sobre China, Rusia y otros rivales, que también están invirtiendo en esa área (al igual que algunos aliados, como el Reino Unido e Israel). El presupuesto más reciente del Pentágono definió que se gastarán 18 mil millones de dólares a lo largo de tres años en tecnologías que incluyen a las armas autónomas.

“China y Rusia están desarrollando redes de batalla tan buenas como las nuestras. Pueden ver a la misma distancia que las nuestras; pueden lanzar municiones guiadas tan lejos como nosotros”, dijo Robert O. Work, el secretario adjunto de Defensa, quien ha sido una fuerza impulsora para el desarrollo de armas autónomas. “Queremos asegurarnos de que seríamos capaces de ganar a la misma velocidad con la que hemos podido hacerlo en el pasado”.

Así como la Revolución Industrial permitió la creación de máquinas poderosas y destructivas como aviones y tanques que reducían el papel de los soldados individuales, la tecnología de inteligencia artificial hace posible que el Pentágono reordene la prioridad del hombre y las máquinas en el campo de batalla, de la misma forma en que está transformando la vida cotidiana con computadoras capaces de ver, escuchar y hablar, al igual que autos capaces de conducirse de forma autónoma.

Las nuevas armas ofrecerían un nivel de velocidad y precisión que ningún ser humano podría igualar, además reducirían la cantidad —y el costo— de soldados y pilotos expuestos a una posible muerte o desmembramiento en combate. El desafío para el Pentágono es asegurarse de que las armas sean compañeras confiables de los humanos, en lugar de amenazas potenciales.

El corazón del cambio estratégico que concibió el Pentágono es un concepto llamado Combate Bélico Centauro por los funcionarios. Le dieron el nombre del personaje que es mitad hombre y mitad caballo en la mitología griega; la estrategia enfatiza el control humano y las armas autónomas como maneras de aumentar y ampliar tanto la creatividad como las habilidades para resolver problemas de los soldados, pilotos y marinos. No se trata de remplazarlos.

Las armas, según la visión del Pentágono, serían menos como Terminator y más como el superhéroe de los cómics Iron Man, dijo Work en una entrevista.

“Hay mucho temor en torno a los robots asesinos y Skynet (la red asesina de inteligencia artificial de los filmes sobre Terminator)”, dijo Work. “Esa no es, en absoluto, la manera en que lo concebimos”. Cuando se trate de decisiones de vida o muerte, “siempre habrá un humano en el proceso”, dijo.

Sin embargo, más allá del Pentágono, hay un gran escepticismo acerca de que esos límites queden definidos una vez que las tecnologías sean perfeccionadas.

El año pasado, cientos de científicos y expertos advirtieron en una carta abierta que incluso desarrollar el arma inteligente más tonta supondría el riesgo de comenzar una carrera armamentística mundial. El resultado serían robots completamente independientes que pueden asesinar, tan baratos y disponibles para los países rebeldes y extremistas violentos como para las grandes potencias.

“Las armas autónomas se convertirán en las Kalashnikov del mañana”, señalaba la carta. El debate dentro de las fuerzas militares ya no es sobre construir armas autónomas o no hacerlo, sino acerca de cuánta independencia deben tener. El vicepresidente del Estado Mayor Conjunto de Estados Unidos, Paul J. Selva, dijo que Estados Unidos estaba a una década de tener la tecnología para construir un robot completamente autónomo que pudiera decidir a quién matar y cuándo hacerlo, aunque no tenían intenciones de construir uno.

Otros países no se han quedado atrás y es muy probable que alguien haga el intento de sacar “algo parecido a Terminator”, dijo Selva. No obstante, los funcionarios estadounidenses apenas comienzan a enfrentarse a las implicaciones generadas por las armas que algún día podrían operar de manera independiente, más allá del control de sus desarrolladores.

Dentro del Pentágono, el dilema se conoce como “El enigma de Terminator”, y no hay consenso sobre si Estados Unidos debería buscar tratados internaciones para intentar prohibir la creación de esas armas o construir las suyas para estar a la par de lo que sus enemigos pudieran crear.

Por ahora, el estado actual de la tecnología es menos aterrador. Prueba A: el dron pequeño y sin armas que se probó este verano en Cabo Cod. No podía encenderse ni despegar por sí mismo. Los humanos debían decirle adónde ir y qué buscar. Pero una vez arriba, decidía por sí mismo cómo ejecutar sus órdenes.

La Agencia de Proyectos de Investigación Avanzada de Defensa, conocida como DARPA, está desarrollando el software de las máquinas que podrían funcionar con pequeñas unidades de soldados o infantes de marina que sirvan de exploradores o tengan otras funciones.

A diferencia de los drones que el ejército utiliza actualmente (los cuales requieren que alguien los controle de manera remota), “este no es así”, dijo el mayor del ejército Christopher Orlowski. “Trabaja contigo. Es como tener otra cabeza en el combate”.

La parte complicada es desarrollar máquinas cuyo comportamiento sea lo suficientemente predecible para que puedan desplegarlas de manera segura, y que también sean flexibles para manejar situaciones inestables. Una vez que dominen eso, decirle a quién o a qué dispararle es fácil; ya existen las armas programadas para atacar a solo ciertos tipos de objetivos.

Sin embargo, no es probable que la tecnología de comportamiento permanezca solo en manos estadounidenses. Las tecnologías que se desarrollan en DARPA por lo general no se mantienen en secreto, y ahora muchas se encuentran en todas partes, pues son lo que acciona desde los vehículos autónomos hasta el internet. / Por y Matthew Rosenberg y John Markoff, publicado por The New York Times/es.--



Nota: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.

No hay comentarios.:

Publicar un comentario

Antes de colocar un comentario tenga en cuenta que no se permitirán comentarios que:
- sean anónimos y/o posean sólo un nickname.
- no estén vinculados a una cuenta.
- posean links promocionando páginas y/o sitios
- puedan resultar ofensivos o injuriosos
- incluyan insultos, alusiones sexuales innecesarias y
palabras soeces o vulgares
- apoyen la pedofilia, el terrorismo o la xenofobia.

Este Blog ni su autor tiene responsabilidad alguna sobre comentarios de terceros, los mismos son de exclusiva responsabilidad del que los emite. De todas maneras, por responsabilidad editorial me reservo el derecho de eliminar aquellos comentarios que considere inadecuados, abusivos, injuriantes, discriminadores y/o contrarios a las leyes de la República Argentina.