OpenAI y otros expertos alertan una extinción tras la inteligencia artificial, como si fuera una pandemia
El pronunciamiento compara los peligros de estos programas con guerras nucleares
Por Renato Silva, publicado por Infobae
Un breve comunicado publicado por el Centro para la Seguridad de Inteligencia Artificial y que fue firmado por expertos y personalidades reconocidas en el campo de la tecnología, como el CEO de OpenAI, Sam Altman, ha destacado que la inteligencia artificial podría generar posibles eventos de “extinción” para la sociedad.
La declaración, que se reduce únicamente a un párrafo introductorio y una frase final, indica que aún cuando se están debatiendo formas para regular las inteligencias artificiales, se tiene que centrar la atención en mitigar los posibles peligros que pueda traer consigo la creación de versiones mucho más avanzadas de estos programas.
“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear”, coinciden los expertos entre los que se encuentran Demis Hassabis, CEO de Google DeepMind; Kevin Scott, CTO de Microsoft, Jaan Tallinn, cofundador de Skype, entre otros científicos y personalidades reconocidas.
Aunque Altman indicó en entrevistas durante el año 2023, que la inteligencia artificial con capacidad para dominar al mundo como se presenta en las películas, sí aseguró que teme que pueda ser utilizada para generar contenido dirigido a desinformar a las personas.
Aún cuando Altman aseguró que estos programas se benefician del contacto con los humanos y permiten identificar y corregir errores pequeños antes de que se generen otros mayores, sí se mostró muy a favor de la regulación de este tipo de tecnología para proteger la seguridad de los usuarios en internet.
Sin embargo la postura del CEO de OpenAI sobre la regulación parece depender mucho de lo que considere como adecuado. Ya en medio del debate de una posible norma de control para los países miembros de la Unión Europea, Altman comentó que la propuesta inicial le parecía excesiva.
El representante de la compañía indicó que intentaría cumplir con los estándares del Parlamento Europeo en la medida de sus posibilidades pero en caso de no poder, tendría que cerrar sus operaciones en esa parte del mundo. Posteriormente indicó que OpenAI “no tiene planes de irse de Europa”.
Por el momento la Unión Europea, a través de la Comisión Europea, sigue debatiendo una propuesta para regular la inteligencia artificial basada en una pirámide de riesgos. La propuesta señala que las IA que deseen ingresar a este mercado deberían tener estándares de seguridad para ser admitidas. Si las que acceden presentan problemas de seguridad, deberán ser vetadas, solucionarlos y volver a ingresar.
Italia contra ChatGPT
A raíz del aumento de la popularidad de la inteligencia artificial generativa, como en el caso de ChatGPT y sus diferentes versiones como GPT-3.5 y GPT-4, las preocupaciones sobre la seguridad de los usuarios y su información personal aumentaron en diferentes países del mundo.
Uno de los primeros en hacerle frente a esta problemática fue Italia, que incluso llegó a prohibir el acceso a ChatGPT de forma temporal hasta que se resuelvan los inconvenientes de ciberseguridad de la plataforma.
El veto duró varios días entre el 31 de marzo y el 13 de abril del año 2023, apenas unos días antes de que se lanzara la función de borrar el historial de conversaciones de ChatGPT y se diera a los usuarios la opción de elegir si sus conversaciones podrían utilizarse para entrenar a la inteligencia artificial. / Por Renato Silva, publicado por Infobae.-
Noticias relacionadas:
Posts relacionados:
- Beneficios del uso de la IA en la industria de la defensa y seguridad. JSK Blog. 28/07/2022.
- La pregunta clave es: ¿cómo regular la IA?. JSK Blog. 02/05/2023.
- Sobre el ChatGPT. JSK Blog. 31/05/2023.
- La Inteligencia Artificial hace tiempo que reemplaza a humanos. JSK Blog. 25/03/2023.
- Los algoritmos dominan y definen. JSK Blog. 01/12/2022.
___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados.
Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.
No hay comentarios.:
Publicar un comentario
Bienvenido al blog y muchas gracias por su visita. Espero que el contenido sea de utilidad, interés y agrado.
Los comentarios están moderados. Antes de colocar un comentario lea bien las condiciones, tenga en cuenta que no se permitirán comentarios que:
- sean anónimos y/o posean sólo un nickname.
- no estén vinculados a una cuenta.
- posean links promocionando páginas y/o sitios.
- no se admite propaganda de ningún tipo
- puedan resultar ofensivos o injuriosos
- incluyan insultos, alusiones sexuales innecesarias y
palabras soeces o vulgares
- apoyen la pedofilia, el terrorismo o la xenofobia.
Este Blog ni su autor tiene responsabilidad alguna sobre comentarios de terceros, los mismos son de exclusiva responsabilidad del que los emite. De todas maneras, por responsabilidad editorial me reservo el derecho de eliminar aquellos comentarios que considere inadecuados, abusivos, injuriantes, discriminadores y/o contrarios a las leyes de la República Argentina.