jueves, 20 de julio de 2017

Eres un robot

¿No eres un robot? Compruébalo.
Por Tim Wu, publicado por The New York Times.

Cuando los autores de ciencia ficción imaginaron las invasiones de robots, la idea era que las máquinas se volverían lo suficientemente inteligentes y poderosas como para adueñarse del mundo por la fuerza, ya fuera por su propia voluntad o comandadas por algún personaje malvado. En la realidad, está sucediendo algo tan solo un poco menos terrorífico. Día con día, los robots están imitando cada vez mejor a los humanos. Cuando son controlados por oportunistas, malhechores y a veces incluso Estados-nación, se tornan particularmente peligrosos para las sociedades democráticas, las cuales tienen como premisa estar abiertas a la ciudadanía.

Ciberseguros (cyber insurance)
Imagen de archivo. No pertenece a la nota del The New York Times
Los robots que se hacen pasar por personas se han vuelto una amenaza. Para espectáculos populares de Broadway (¿les suena el nombre de Hamilton?) en realidad son bots y no humanos los que compran buena parte de los boletos, si no es que la mayoría. Los espectáculos se venden de inmediato y los intermediarios (amos malvados de los robots, casi literalmente) obtienen millones de dólares en ganancias deshonestas.

Philip Howard, director del Computational Propaganda Research Project (Proyecto de Investigación de la Propaganda Computacional) de Oxford, estudió el despliegue de bots para producir propaganda durante la votación del brexit y en las elecciones presidenciales recientes de Estados Unidos y Francia. Twitter sufre una particular distorsión debido a las millones de cuentas de bots en la plataforma. Durante los comicios franceses fueron principalmente robots de Twitter los que intentaron convertir la etiqueta #MacronLeaks en un escándalo. Facebook ha admitido que prácticamente fue hackeado durante las elecciones estadounidenses de noviembre pasado. Howard, de Oxford, declaró que “las noticias basura se compartieron tanto como las noticias profesionales los días previos a la elección” en esa red social.

Los robots también se usan para atacar a las instancias democráticas de la administración del Estado. En los últimos meses, la Comisión Federal de Comunicaciones de Estados Unidos inició un debate público respecto de la revocación de la “neutralidad web” que propone la dependencia. En años anteriores, este tipo de procedimientos atraía a millones de comentaristas (humanos). En esta ocasión, alguien con motivaciones propias, pero sin apoyo real del público, desencadenó un ataque de robots que se hicieron pasar por cientos de miles de personas (mediante identidades robadas) para inundar el sistema con comentarios falsos en contra de las reglas federales de “neutralidad web”.

Sin lugar a dudas, en la actualidad, los robots que se hacen pasar por personas son distintos de los que se imaginaron los autores de ciencia ficción: no son capaces de sentir, no llevan armas y no tienen cuerpos físicos. En cambio, estos humanos falsos solo tienen lo estrictamente necesario para “pasar” por humanos: un nombre, tal vez una apariencia virtual, un número de tarjeta de crédito y, si se requiere, una profesión, una fecha de cumpleaños y una dirección. Los crean programas o secuencias de comandos que dan a una persona el poder de imitar a miles.

Lo más seguro es que el problema empeore y que se extienda incluso a más áreas de la vida, porque los bots están entrenados para mejorar su capacidad de imitar a los humanos. Dado el grado de saturación de las reseñas de productos por parte de los robots, los cuales suelen otorgar cinco estrellas, no es difícil detectar los casos de sabotaje comercial a través de las reseñas negativas. En los próximos años, los límites de financiamiento de campaña serán (y tal vez ya lo son) burlados al usar ejércitos de robots que se hacen pasar por “pequeños” donadores. Finalmente, votar es otro blanco evidente —tal vez el principal—.

Hasta el momento, nos hemos conformado con dejar que la industria tecnológica enfrente el problema, la cual se ha concentrado en crear defensas como Captcha, esas molestas pruebas que te piden escribir algo o seleccionar ciertas imágenes para demostrar que no eres un robot. Sin embargo, dejarlo todo en manos de la industria no es una solución a largo plazo. En primer lugar, las defensas en realidad no disuaden a los robots que suplantan identidades, sino que recompensan de manera equivocada a los que logran vencerlos. Además, tal vez el problema más grave para una democracia es que las empresas como Facebook y Twitter carezcan de un incentivo financiero importante para hacer algo respecto de los asuntos de interés público, como el caso de los millones de usuarios falsos que están corrompiendo el proceso democrático. Twitter calcula que es probable que existan al menos 27 millones de cuentas falsas; los investigadores sugieren que el número verdadero es cercano a 48 millones, pero la empresa hace muy poco por solucionar el problema.

El asunto es tanto público como privado, y los bots que suplantan identidades deben ser considerados como aquellos a los que la ley llama hostis humani generis: enemigos de la humanidad, como los piratas y demás forajidos. Esto permitiría una mejor estrategia de ofensiva: el peso del poder del Estado sobre la gente que utiliza los ejércitos de robots para atacar al comercio o a la democracia.

La campaña ideal en contra de los robots debería tener una estrategia donde se combine la tecnología con las leyes. Una mejor detección de los robots nos podría ayudar a encontrar a las mentes detrás de estos o a hacer posible que la seguridad nacional lance contraataques, lo cual puede llegar a ser necesario en el caso de ataques provenientes del extranjero. Se podría encargar a instancias privadas la eliminación de los robots malignos. Un remedio legal sencillo sería una ley “Blade Runner” que vuelva ilegal el despliegue de cualquier programa que oculte su verdadera identidad para hacerse pasar por humano. Los procesos automatizados deberían estar obligados a declarar “Soy un robot”. Si vamos a tener contacto con un humano falso, sería bueno saberlo.

Utilizar robots para crear apoyo falso, robar boletos o afectar a la democracia es justamente el tipo de maldad de la que nos advertían los autores de ciencia ficción. Usar robots es sacar ventaja del hecho de que las campañas políticas, las elecciones e incluso los mercados abiertos hacen suposiciones humanas, puesto que confían en que hay sensatez o al menos legitimidad en la gente y valor en el debate público. No obstante, cuando el apoyo y las opiniones pueden fabricarse, los argumentos malos o impopulares tienen posibilidades de vencer; no gracias a la lógica, sino a un nuevo y peligroso tipo de fuerza, la mayor amenaza para todas las democracias. / Por Tim Wu, publicado por The New York Times. Tim Wu, autor de “The Attention Merchants: The Epic Struggle to Get Inside Our Heads”, es profesor de la Facultad de Derecho de la Universidad de Columbia y colaborador en la sección de opinión.--


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

No hay comentarios.:

Publicar un comentario

Bienvenido al blog y muchas gracias por su visita. Espero que el contenido sea de utilidad, interés y agrado.
Los comentarios están moderados. Antes de colocar un comentario lea bien las condiciones, tenga en cuenta que no se permitirán comentarios que:
- sean anónimos y/o posean sólo un nickname.
- no estén vinculados a una cuenta.
- posean links promocionando páginas y/o sitios.
- no se admite propaganda de ningún tipo
- puedan resultar ofensivos o injuriosos
- incluyan insultos, alusiones sexuales innecesarias y
palabras soeces o vulgares
- apoyen la pedofilia, el terrorismo o la xenofobia.

Este Blog ni su autor tiene responsabilidad alguna sobre comentarios de terceros, los mismos son de exclusiva responsabilidad del que los emite. De todas maneras, por responsabilidad editorial me reservo el derecho de eliminar aquellos comentarios que considere inadecuados, abusivos, injuriantes, discriminadores y/o contrarios a las leyes de la República Argentina.