Ciertamente, solo necesita "jugar" por un corto tiempo con el famoso chat "inteligente", prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI, para entender que está lejos de ser el robot supremo que todo lo sabe y que la novedosa tecnología es insegura.
Logo del ChatGPT de OpenAI. Visto en Wikipedia |
Entre los entendidos y "expertos" que lo prueban y analizan, no pocos lo consideran que puede ser propenso a ser oscuro. Se señala que tiene una tendencia a la verosimilitud en sus resultados.
En la practica uno le pregunta algo y ChatGPT responde, pero como toda IA en fase de desarrollo, no son pocos los que han encontrado errores. Lo malo de esto es que muchos "diletantes" no reconocen los errores, usan y comparten información errónea, retroalimentado la base de información de la que se "nutre" el mismo ChatGPT.
Hay que tener muy en cuenta que "los responsables ya nos advierten en la ventana principal de ChatGPT de lo que hace y no hace esta IA. Entre sus limitaciones, OpenAI nos dice que, en ocasiones, puede generar información incorrecta. También dice que puede crear contenido sesgado o instrucciones perjudiciales. Y, finalmente, que tiene conocimientos limitados del mundo y no sabe qué ha ocurrido después de 2021" (Hipertextual).
En cuanto a la ciberseguridad, se ha informado que los ataques de inyección de prompt pueden provocar que los usuarios caigan en la trampa de estafas y robo de información cuando utilizan los chatbots de IA.