viernes, 27 de julio de 2018

Grosero error de la Inteligencia Artificial

En diagnósticos y prontuarios
La inteligencia artificial pifia y avergüenza a IBM y Amazon: "Este producto es un pedazo de mierda"
Por Juan Marcos Bouthemy, publicado por Clarín.

La inteligencia artificial avanza a toda máquina, pero su aplicación irrestricta genera preocupación sobre distintos asuntos de la vida social. 

Aún con notables aciertos y usos diversos, la creciente capacidad de las computadoras de aprender en el procesamiento de datos tiene que ser considerada también por sus errores.

Ciberseguros (cyber insurance)
Esta semana, dos noticias dieron indicios sobre la necesidad de implementar con extremo cuidado las soluciones que hoy puede brindar la inteligencia artificial tanto en la gestión de la salud como de la seguridad.

Se trató nada menos que de los sistemas de dos gigantes de la tecnología, IBM y Amazon. Pero ni los productos de estas potencias se salvan de críticas demoledoras y campañas para su regulación.

La supercomputadora y el cáncer
Watson es el motor de inteligencia artificial de IBM. Utilizando tecnologías de aprendizaje informático, esta suerte se supercomputadora de aplica en variedad de negocios e investigaciones, en todo tipo de áreas e industrias.

Lo que hace Watson es, ante una pregunta, analizar datos, aprender de ellos automáticamente y ofrecer soluciones en el trabajo.

Para eso, estudia la estructura de lo que se le cuestiona y usa millones de reglas lógicas para dar la mejor respuesta. No por nada lleva el nombre del compañero de Sherlock Holmes.

Su aplicación va desde la energía a las finanzas, de los recursos humanos a la cocina. Pero este miércoles se reveló una deficiencia de Watson en el campo de la salud. 

Los expertos médicos que estaban trabajando con IBM descubrieron hace un año los errores que estaba cometiendo la supercomputadora a la hora de analizar diagnósticos oncológicos y ofrecer tratamientos.

Según documentos a los que accedió en exclusiva el sitio especializado en salud Stat, los expertos habían descubierto "múltiples ejemplos de recomendaciones de tratamientos inseguros e incorrectos" en el sistema.

Uno de los casos fue el de un hombre de 65 años que padecía cáncer de pulmón y hemorragias. Watson sugirió que se le recetara quimioterapia y Bevacizumab, la droga de un medicamento (en Argentina, lo comercializa Roche) cuyo prospecto advierte justamente que aumenta el riesgo de hemorragia.

No está claro si ese ejemplo fue el de un paciente real o si fue parte de una evaluación hipotética. Pero los expertos criticaron ampliamente el sistema oncológico de Watson y afirmaron que solía hacer recomendaciones "frecuentemente inexactas", según los documentos a los que accedió Stat.

El producto, indicaban, genera "dudas serias sobre el proceso en el que se elabora el contenido y la tecnología subyacente".

Un médico de un hospital de Florida fue más categórico cuando le envió su evaluación a IBM: "Este producto es un pedazo de mierda".

Consultados por el sitio Gizmodo, desde IBM dijeron que han "aprendido y mejorado a Watson en el área de la Salud en base a las continuas devoluciones de clientes, las nuevas evidencias científicas y las nuevas alternativas del cáncer y sus tratamientos".

El sistema oncológico de Watson, indicó un vocero de la compañía, es usado para entrenar a médicos en el tratamiento de 13 tipos de cáncer y está siendo usado en 230 hospitales en todo el mundo, y "ha brindado apoyo al tratamiento de más de 84.000 pacientes".

El sistema que vio a los políticos como ladrones
El jueves, en tanto, una ONG de derechos civiles de Estados Unidos reveló que el polémico sistema de reconocimiento facial de Amazon no sirvió para diferenciar a un delincuente de un político.

La Unión de Libertades Civiles Americanas (ACLU, por su sigla en inglés) realizó una prueba con el software Rekognition, que la compañía de Jeff Bezos le vende a distintas entidades gubernamentales en Estados Unidos. Los resultados fueron preocupantes (aún cuando hilarantes).

ACLU hizo que Rekognition analizara los rostros de los más de 500 miembros del Congreso de Estados Unidos y el sistema respondió que 28 legisladores habían sido arrestados por actos criminales, lo cual era falso.

Rekognition, un software que cuesta 12 dólares, puede comparar las nuevas caras que registra con imágenes de grandes bases de fotos (por ejemplo, de prontuarios). Así, promete identificar automáticamente personas con un pasado o presente criminal.

Pero en la prueba que hizo ACLU, el software les adjudicó un pasado criminal a diputados y senadores, demócratas y republicanos, sin antecedentes penales. Para peor, destacaron desde la organización, el 39 por ciento de los equívocos fueron con legisladores de color.

"Una identificación, ya sea acertada o no, le podría costar a una persona su libertad o incluso su vida. La gente de color ya se ve afectada en forma desproporcionada por las prácticas policiales y es fácil ver que Rekognition podría exacerbar eso", dijo ACLU.

La organización, que aboga por una ley que regule el reconocimiento facial, también advirtió que la tecnología podría amenazar el derecho a las expresiones religiosas y a la protesta.

Cuando el sitio especializado Ars contactó a Amazon, la empresa recomendó que en la identificación de personas (por ejemplo, por parte de fuerzas de seguridad) hay que confiar sólo cuando hay un porcentaje de precisión superior al 95 por ciento. 

"Un 80 por ciento de confianza es un límite aceptable para fotos de panchos, sillas, animales o para otros usos en redes sociales", comentó Amazon, y recalcó: "En situaciones de la vida real, Amazon Rekognition se usa casi exclusivamente para ayudar a achicar el campo y permitir que los humanos hagan revisiones expeditivas y consideren las opciones usando su criterio". / Por Juan Marcos Bouthemy, publicado por Clarín.-

Lea la nota original de Juan Marcos Bouthemy, publicada por Clarín.--

___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

No hay comentarios.:

Publicar un comentario

Antes de colocar un comentario tenga en cuenta que no se permitirán comentarios que:
- sean anónimos y/o posean sólo un nickname.
- no estén vinculados a una cuenta.
- posean links promocionando páginas y/o sitios
- puedan resultar ofensivos o injuriosos
- incluyan insultos, alusiones sexuales innecesarias y
palabras soeces o vulgares
- apoyen la pedofilia, el terrorismo o la xenofobia.

Este Blog ni su autor tiene responsabilidad alguna sobre comentarios de terceros, los mismos son de exclusiva responsabilidad del que los emite. De todas maneras, por responsabilidad editorial me reservo el derecho de eliminar aquellos comentarios que considere inadecuados, abusivos, injuriantes, discriminadores y/o contrarios a las leyes de la República Argentina.