OpenAI y otros expertos alertan una extinción tras la inteligencia artificial, como si fuera una pandemia
El pronunciamiento compara los peligros de estos programas con guerras nucleares
Por Renato Silva, publicado por Infobae
Un breve comunicado publicado por el Centro para la Seguridad de Inteligencia Artificial y que fue firmado por expertos y personalidades reconocidas en el campo de la tecnología, como el CEO de OpenAI, Sam Altman, ha destacado que la inteligencia artificial podría generar posibles eventos de “extinción” para la sociedad.
La declaración, que se reduce únicamente a un párrafo introductorio y una frase final, indica que aún cuando se están debatiendo formas para regular las inteligencias artificiales, se tiene que centrar la atención en mitigar los posibles peligros que pueda traer consigo la creación de versiones mucho más avanzadas de estos programas.
“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear”, coinciden los expertos entre los que se encuentran Demis Hassabis, CEO de Google DeepMind; Kevin Scott, CTO de Microsoft, Jaan Tallinn, cofundador de Skype, entre otros científicos y personalidades reconocidas.
Aunque Altman indicó en entrevistas durante el año 2023, que la inteligencia artificial con capacidad para dominar al mundo como se presenta en las películas, sí aseguró que teme que pueda ser utilizada para generar contenido dirigido a desinformar a las personas.
Aún cuando Altman aseguró que estos programas se benefician del contacto con los humanos y permiten identificar y corregir errores pequeños antes de que se generen otros mayores, sí se mostró muy a favor de la regulación de este tipo de tecnología para proteger la seguridad de los usuarios en internet.