miércoles, 31 de mayo de 2023

Sobre el ChatGPT

Ciertamente, solo necesita "jugar" por un corto tiempo con el famoso chat "inteligente", prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI, para entender que está lejos de ser el robot supremo que todo lo sabe y que la novedosa tecnología es insegura.
Logo del ChatGPT de OpenAI. Visto en Wikipedia

Entre los entendidos y "expertos" que lo prueban y analizan, no pocos lo consideran que puede ser propenso a ser oscuro. Se señala que tiene una tendencia a la verosimilitud en sus resultados.

En la practica uno le pregunta algo y ChatGPT responde, pero como toda IA en fase de desarrollo, no son pocos los que han encontrado errores. Lo malo de esto es que muchos "diletantes" no reconocen los errores, usan y comparten información errónea, retroalimentado la base de información de la que se "nutre" el mismo ChatGPT.

Hay que tener muy en cuenta que "los responsables ya nos advierten en la ventana principal de ChatGPT de lo que hace y no hace esta IA. Entre sus limitaciones, OpenAI nos dice que, en ocasiones, puede generar información incorrecta. También dice que puede crear contenido sesgado o instrucciones perjudiciales. Y, finalmente, que tiene conocimientos limitados del mundo y no sabe qué ha ocurrido después de 2021" (Hipertextual).

En cuanto a la ciberseguridad, se ha informado que los ataques de inyección de prompt pueden provocar que los usuarios caigan en la trampa de estafas y robo de información cuando utilizan los chatbots de IA.

Lo que se conoce como "inyección de prompt", "consiste en alimentar el sistema de inteligencia artificial con datos de una fuente externa para que se comporte de una manera que sus creadores no pretendían. En las últimas semanas, varios ejemplos de ataques de inyección indirecta se han centrado en grandes modelos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT de OpenAI y Bing Chat de Microsoft. También se ha demostrado cómo se puede hacer un mal uso de los plugins de ChatGPT" (Wired). 
No son pocos los países que han tomado medidas contra el servicio de chatbot de OpenAI por filtrar información privada de los usuarios.
"El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido" Paal Aaserudseter, ingeniero de seguridad de Check Point Software.
Desde OpenAI en relación a la seguridad dijeron que "creemos que los potentes sistemas de IA deben estar sujetos a rigurosas evaluaciones de seguridad. Se necesita regulación para garantizar que se adopten tales prácticas, y nos involucramos activamente con los gobiernos en la mejor forma que podría tomar dicha regulación".

También, aseguraron que no pueden predecir "todas las formas beneficiosas en que las personas usarán nuestra tecnología , ni todas las formas en que las personas abusarán de ella. Es por eso que creemos que aprender del uso en el mundo real es un componente crítico para crear y lanzar sistemas de IA cada vez más seguros con el tiempo".

En fin, no sólo por ciberseguridad las corporaciones y empresas serias lo prohíben a su personal. No permiten el uso de uso de la IA, con ChatGPT como máximo exponente.

Las telefónicas no permiten ChatGPT para trabajar con información de la empresas, por riesgos a la necesaria protección de datos. Bancos también prohibieron su uso con carácter general.

Los gigantes tecnológicos tampoco permiten a sus trabajadores el uso de Inteligencia Artificial tipo ChatGPT.

Todos los gobiernos serios, especialmente en el hemisferio norte, se sumaron a las medidas contra el ChatGPT.

Las revistas científicas prohíben la inclusión de ChatGPT como coautor en los artículos. Algunas editoriales también prohíben el uso del bot en la preparación de los envíos, pero otras consideran que su adopción es inevitable. Las editoriales de miles de revistas científicas prohibieron o restringieron a sus colaboradores su uso.

Tales acciones no son gratis.-


Actualización 21:25

Ésto respondió el propio ChatGPT cuando se le consulto sobre "la seguridad y riesgos del ChatGPT":

"La tecnología de ChatGPT ofrece muchas ventajas en términos de procesamiento de lenguaje natural y generación de texto. Sin embargo, también es importante tener en cuenta las consideraciones de seguridad y los posibles riesgos asociados con el uso de esta herramienta.

En primer lugar, la seguridad de los datos es una preocupación importante. Cuando se utiliza ChatGPT, los datos de entrada se envían a través de Internet y se almacenan en servidores. Aunque los proveedores de servicios hacen todo lo posible para garantizar la seguridad de estos datos, siempre existe el riesgo de que se produzcan brechas de seguridad o violaciones de privacidad.

Otro aspecto a considerar es el potencial de manipulación. ChatGPT puede generar texto convincente y coherente, lo que podría llevar a la difusión de información falsa o engañosa. Existe el riesgo de que el modelo pueda ser utilizado maliciosamente para generar contenido falso, difamar a personas o propagar teorías de conspiración.

Además, debido a su capacidad de aprendizaje a partir de datos de entrenamiento, ChatGPT puede verse afectado por sesgos inherentes en esos datos. Esto significa que el modelo puede tener sesgos en su salida, como discriminación o prejuicios, que pueden ser problemáticos si se utilizan de manera injusta o discriminatoria.

También es importante destacar que ChatGPT es una herramienta automatizada y carece de comprensión contextual y emocional. Puede generar respuestas inapropiadas o insensibles en ciertas situaciones, especialmente cuando se trata de temas sensibles o delicados. La falta de discernimiento humano puede generar problemas y malentendidos en las interacciones con los usuarios.

Otro riesgo potencial es la dependencia excesiva de ChatGPT para la toma de decisiones. La inteligencia artificial, incluido ChatGPT, es una herramienta poderosa, pero no debe ser la única fuente de información o consejo. Es importante utilizar el juicio humano y la verificación cruzada con fuentes confiables al tomar decisiones importantes basadas en la información proporcionada por el modelo.

En resumen, aunque ChatGPT ofrece muchas ventajas en términos de generación de texto, también conlleva riesgos y desafíos. La seguridad de los datos, el riesgo de manipulación, los sesgos inherentes, la falta de comprensión contextual y emocional, y la dependencia excesiva son consideraciones importantes al utilizar esta herramienta. Es fundamental utilizarla de manera responsable y consciente, siempre teniendo en cuenta sus limitaciones y los posibles riesgos asociados".-


Notas relacionadas:
.

___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

No hay comentarios.:

Publicar un comentario

Bienvenido al blog y muchas gracias por su visita. Espero que el contenido sea de utilidad, interés y agrado.
Los comentarios están moderados. Antes de colocar un comentario lea bien las condiciones, tenga en cuenta que no se permitirán comentarios que:
- sean anónimos y/o posean sólo un nickname.
- no estén vinculados a una cuenta.
- posean links promocionando páginas y/o sitios.
- no se admite propaganda de ningún tipo
- puedan resultar ofensivos o injuriosos
- incluyan insultos, alusiones sexuales innecesarias y
palabras soeces o vulgares
- apoyen la pedofilia, el terrorismo o la xenofobia.

Este Blog ni su autor tiene responsabilidad alguna sobre comentarios de terceros, los mismos son de exclusiva responsabilidad del que los emite. De todas maneras, por responsabilidad editorial me reservo el derecho de eliminar aquellos comentarios que considere inadecuados, abusivos, injuriantes, discriminadores y/o contrarios a las leyes de la República Argentina.