Mostrando las entradas con la etiqueta IA. Mostrar todas las entradas
Mostrando las entradas con la etiqueta IA. Mostrar todas las entradas

martes, 30 de diciembre de 2025

Un problema - El “Shadow AI” se extiende en las empresas

El 61% de los empleados están utilizando IA sin permiso de sus empresas

El informe alerta que el 37% de usuarios configura algoritmos a sus necesidades, creando flujos de trabajo avanzados y una brecha entre la innovación y las políticas internas de las compañías.
Por Santiago Neira, publicado por Infobae

Visto en Infobae
El uso de herramientas de inteligencia artificial se ha extendido rápidamente entre los empleados, con un 61% aprovechando esta tecnología sin el conocimiento ni la autorización de sus empresas, según un informe reciente de VML The Cocktail y Salesforce.

Qué es el “Shadow AI”

El estudio de VML The Cocktail y Salesforce revela que el fenómeno conocido como Shadow AI, o uso no supervisado de inteligencia artificial, se ha convertido en una práctica común. Más de la mitad de los empleados que utilizan IA lo hacen sin que su departamento de TI esté informado o involucrado en el proceso.

Esto no solo implica una brecha en la seguridad de los datos, también puede derivar en la adopción de metodologías y flujos de trabajo que las empresas no logran monitorear ni estandarizar...



___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

miércoles, 24 de diciembre de 2025

La IA en Latinoamérica es ya una fuerza económica concreta

Cómo la IA impulsa la economía en Latam: impacto en ingresos y productividad que supera las expectativas globales

El 95% de las empresas en Brasil y el 83% en México que adoptaron IA reportan un retorno positivo de la inversión. El dato proviene de un informe de Linux Foundation comisionado por Meta
Publicado por La Nación

Visto en La Nación
La inteligencia artificial es ya en Latinoamérica una fuerza económica concreta y en plena expansión. De hecho, el mercado regional de IA alcanza hoy un valor estimado de USD 12.700 millones, con un crecimiento anual del 28,1%. Algunas proyecciones resultan todavía más ambiciosas: distintos estudios señalan que la IA tiene el potencial de sumar hasta 1 billón de dólares hacia 2038 a la economía de la región.

Los datos, claramente auspiciosos para el sector, surgen del informe “Impacto económico y laboral de la IA en Latinoamérica”. El estudio fue realizado por la Linux Foundation y comisionado por Meta, y no solo cuantifica el crecimiento: analiza también los retos y oportunidades que enfrenta la región para apalancar esta tecnología y promover un desarrollo más equitativo.

Cuando se trata de inteligencia artificial, las empresas de la región ya no hablan de promesas, sino de resultados. Y los números lo confirman:...



___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

miércoles, 29 de octubre de 2025

Nvidia da envidia a competidores y a muchos otros

Nvidia se convierte en la primera empresa en alcanzar un valor de US$5 billones

La empresa logró un nuevo récord, impulsada por el auge de la inteligencia artificial que redefine el mapa tecnológico global
Publicado por La Nación

Nvidia se convirtió en la primera empresa de US$5 billones, solo tres meses después de que el fabricante de chips de Silicon Valley fuera el primero en romper la barrera de los US$4 billones.

Foto de ChiangYing-ying - AP. Visto en La Nación
Alcanzar este nuevo hito pone más énfasis en la agitación desatada por la fiebre de inteligencia artificial, que es vista ampliamente como el mayor cambio tectónico en tecnología desde que el cofundador de Apple, Steve Jobs, presentó el primer iPhone hace 18 años. Apple aprovechó el éxito del iPhone para convertirse en la primera empresa que cotiza en bolsa en ser valorada en US$1 billón, US$2 billones y, eventualmente, US$3 billones.

Sin embargo, existen preocupaciones sobre una posible burbuja de IA, con funcionarios del Banco de Inglaterra señalando a principios de este mes el creciente riesgo de que los precios de las acciones tecnológicas inflados por el auge de la IA puedan estallar. El jefe del Fondo Monetario Internacional ha levantado una alarma similar.

El voraz apetito por los chips de Nvidia es la principal razón por la que el precio de las acciones de la empresa ha aumentado tan rápidamente desde principios de 2023. El miércoles, las acciones tocaron los US$207,80 en operaciones previas al mercado con 24,3 millones de acciones en circulación, situando su capitalización de mercado en US$5,05 billones...



___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

sábado, 11 de octubre de 2025

Hay que abandonar el “clic fácil” y apostar por periodismo humano y ético

Rosental Calmon Alves: “En un mundo de robots, el periodismo hecho por humanos tendrá un valor agregado”

El periodista brasileño advierte que la irrupción de los agentes de IA transformará la relación entre medios y audiencias; pide abandonar el “clic fácil” y apostar por periodismo humano y ético
Por Gastón Roitberg, publicado por La Nación

Rosental Calmon Alves en su oficina de la Universidad de Texas
Foto de Gastón Roitberg. Visto en La Nación
En tiempos de disrupción permanente, pocos observadores han sabido anticipar con tanta claridad la transformación del periodismo como Rosental Calmon Alves. El periodista brasileño, docente y director fundador del Centro Knight para el Periodismo en las Américas, lleva décadas analizando cómo la tecnología sacude los cimientos de una industria acostumbrada a modelos estables. Hoy, cuando la inteligencia artificial redefine la relación entre medios y audiencias, vuelve a sonar su voz de alerta.

Hace más de veinte años, Alves acuñó una frase que se volvió célebre en las redacciones latinoamericanas: “Pasaremos de la era de los medios de masa a la era de la masa de medios”. Su predicción se cumplió: la comunicación dejó de ser unidireccional y mediocéntrica para convertirse en un ecosistema disperso, donde individuos y organizaciones no tradicionales compiten en alcance con las marcas periodísticas históricas. Ahora advierte que una nueva ola de cambio se aproxima con la llegada de los agentes de inteligencia artificial (IA).

El experimentado periodista brasileño los describe como una evolución de los modelos de lenguaje (LLM): no solo procesarán información y generarán texto, sino que planearán, ejecutarán acciones y actuarán como intermediarios entre los medios y sus públicos. “Estamos pasando de los LLM (large language models o grandes modelos de lenguaje) a la era de los agentes IA. Pronto habrá que pensar el periodismo en clave B2A2C: de la empresa al agente y de éste al consumidor”, explica. Así como el SEO se volvió imprescindible para seducir a Google, ahora los editores deberán optimizar contenido para los agentes.

Lejos de un mensaje catastrofista, Alves insiste en que el periodismo humano de calidad será más valioso que nunca, en un océano de información producida por máquinas. Pero advierte: seguir persiguiendo clics fáciles es un camino sin retorno,...


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

martes, 30 de septiembre de 2025

Resulta más fácil hacer trampas usando la IA

La gente hace muchas más trampas si usa IA: “Son niveles de engaño que no habíamos visto”

Un estudio muestra que delegar en una máquina tan complaciente con las peticiones humanas multiplica las decisiones poco éticas. Los autores creen que el diseño de las plataformas debe cambiar para evitarlo.
Por Jordi Pérez Colomé, para El PAÍS, publicado por La Nación  

Imagen de Shutterstock. Vista en La Nación
A un humano le resulta más fácil hacer trampas si delega en una máquina como ChatGPT, según un nuevo estudio científico publicado recientemente en la revista Nature. La inteligencia artificial (IA) funciona como una especie de colchón psicológico que reduce la sensación de responsabilidad moral. A las personas les cuesta más mentir o hacer algo irresponsable si deben asumir todo el protagonismo. La IA, y su voluntad de cumplir con cualquier petición de sus usuarios, puede provocar una oleada de trampas.

“Hay ya bastante investigación que muestra que la gente está más dispuesta a actuar de manera poco ética cuando puede poner cierta distancia con sus acciones, y delegar es una forma clásica de hacerlo”, resume Zoe Rahwan, coautora del artículo e investigadora del Instituto Max Planck para el Desarrollo Humano (Alemania). “Pero hemos dado con un segundo hallazgo clave que nos sorprendió: la enorme disposición de los agentes de IA a obedecer órdenes abiertamente poco éticas”, añade.

Experimentos sobre la responsabilidad

Los autores hicieron varios experimentos donde variaban el modo de pedir o informar de los resultados...

 
___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

miércoles, 16 de julio de 2025

Conversando con la Inteligencia

La inteligencia artificial generativa (IAG) o generative artificial intelligence (GenAI o GAI) es un subcampo de la inteligencia artificial que utiliza modelos generativos para producir texto, imágenes, vídeos, otras formas de datos u otros medios en respuesta a comandos o consultas.

Los sistemas de IA generativa notables incluyen herramientas chatbots como Gemini, ChatGPT, Copilot, Claude, Grok y DeepSeek; modelos de texto a imagen como Stable Diffusion, Midjourney y DALL-E; y modelos de texto a vídeo como Veo y Sora.

Los modelos de IA generativa aprenden los patrones y la estructura de sus datos de entrenamiento de entrada y luego generan nuevos datos que tienen características similares.

Lo que más sorprende de IAG es la capacidad del sistema para participar en conversaciones naturales, generar contenido creativo, ayudar con la codificación y realizar diversas tareas analíticas.

Personalmente he probado varias de esas herramientas, y la que más utilizo es Gemini de Google.

Gemini es un chatbot generativo de inteligencia artificial desarrollado por Google. Basado en el modelo de lenguaje grande (LLM) del mismo nombre, se lanzó en febrero de 2024. Su predecesor, Bard, se lanzó en marzo de 2023 en respuesta al auge de ChatGPT de OpenAI y se basó en los LLM LaMDA (Language Model for Dialogue Applications - Modelo de Lenguaje para Aplicaciones de Diálogo) y PaLM (Pathways Language Model - Modelo de lenguaje Pathways).

Como modelo de lenguaje de Google, el funcionamiento de su IA se basa en dos pilares:
  1. Entrenamiento fundamental de la IA: Fue entrenado con un corpus masivo y diverso de texto que incluye libros, artículos enciclopédicos, noticias, trabajos académicos, análisis históricos y económicos, etc.. Esta base de conocimiento le permite comprender y contextualizar todo lo referente a la consulta que se le realice.
  2. Búsquedas en tiempo real: Para asegurar que la información sea precisa y relevante, realiza una serie de búsquedas a través de Google Search. Estas búsquedas no se enfocaron en un único artículo, sino en agregar y sintetizar información de múltiples fuentes confiables. A continuación elabora una lista de los temas de búsqueda y los tipos de fuentes consultadas que sirven como base para la construcción del análisis que realiza para dar la respuesta.

La calidad de tu pregunta determina la calidad de la respuesta de la IA Generativa

En el creciente universo de la inteligencia artificial generativa IAG, una regla fundamental se ha vuelto innegable: la calidad de la respuesta que se obtiene está directamente ligada a la calidad de la consulta que se realiza. Lejos de ser un oráculo que adivina nuestros pensamientos, estas herramientas son potentes procesadores de lenguaje que dependen enteramente de las instrucciones que reciben. Por lo tanto, para desbloquear su máximo potencial, es crucial dominar el arte de formular preguntas efectivas.

miércoles, 23 de abril de 2025

¿Vendrá el Día Q?

Día Q, la amenaza invisible que podría romper internet sin previo aviso

Un avance cuántico aún sin fecha podría desactivar los sistemas que protegen tus datos bancarios, mensajes privados y hasta las redes del gobierno sin que nadie lo vea venir.
Por Opy Morales, publicado por Infobae

Visto en Infobae
Nuestro mundo digital depende de una capa invisible: la criptografía. Este escudo protege nuestros mensajes, transacciones bancarias, datos médicos e infraestructuras críticas. Sin embargo, una revolución tecnológica amenaza con destruir esta protección de la noche a la mañana, en un momento que los expertos han bautizado como “Día Q”.

La amenaza invisible
Imagina despertar un día y descubrir que todos tus secretos digitales están expuestos, que los sistemas bancarios colapsan y que infraestructuras vitales como redes eléctricas o sistemas de transporte fallan simultáneamente. Este es el escenario catastrófico que podría desencadenar el Día Q: el momento en que un ordenador cuántico suficientemente potente sea capaz de romper los sistemas de cifrado actuales.

No se trata de ciencia ficción. La computación cuántica, que aprovecha las extrañas propiedades de la física cuántica, avanza rápidamente en laboratorios de todo el mundo...


Artículo relacionado:

El Apocalipsis Cuántico está cerca y es realmente peligroso. "Los analistas de ciberseguridad lo llaman Q-Day, o el Día Q: el día en que alguien construya una computadora cuántica capaz de descifrar las formas de encriptación más utilizadas. Estos problemas matemáticos han mantenido a salvo los datos íntimos de la humanidad durante décadas, pero el Día Q, todo podría volverse vulnerable, para todos: correos electrónicos, mensajes de texto, publicaciones anónimas, historiales de localización, monederos bitcoin, informes policiales, registros hospitalarios, centrales eléctricas, todo el sistema financiero mundial. Pues, parece bastante para preocuparse". Publicado por WIRED.-


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

martes, 1 de abril de 2025

Tecnologías que se imponen: IA y Blockchain

Choque de titanes: la dupla que puede generar una nueva revolución tecnológica

Ambas hoy dominan las conversaciones entre expertos y tienen una posibilidad enorme de potenciarse; igual de grande es el desafío que trae su fusión
Por Victoria Mendizábal, publicado por La Nación

Ava Pellor/The New York Times. Visto en La Nación
Las dos tecnologías emergentes de las que se habla hoy tienen nombre y apellido: por un lado, la inteligencia artificial y, por otro, la blockchain. La primera, más fácil para entender y usar a los ojos del usuario, mientras que la segunda combina conceptos técnicos más difíciles y una accesibilidad más compleja. La cuestión es que ambas están siendo protagonistas de muchos titulares. Pero, ¿tienen que ver una con la otra? ¿Podrían eventualmente tener un punto de encuentro para potenciarse?

En primer lugar, la inteligencia artificial y la blockchain no comparten mucho más que el hecho de que son ambas nuevas tecnologías. La IA se puede definir como el conjunto de tecnologías y sistemas informáticos diseñados para imitar capacidades humanas como el razonamiento, el aprendizaje, la percepción, la resolución de problemas y la toma de decisiones. En otras palabras, es la habilidad de una máquina para realizar tareas que normalmente requieren inteligencia humana.


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

sábado, 22 de marzo de 2025

El trabajo periodístico con IA es un error

Thomas Baekdal: “Usar IA para crear contenido periodístico es, en esencia, un enfoque equivocado”

El analista danés advierte sobre los errores estratégicos que han cometido los medios de comunicación en su relación con la tecnología y sostiene que la industria debe desarrollar modelos de negocios que permitan una segmentación más efectiva
Por Gastón Roitberg, publicado por La Nación.

Con más de 20 años de experiencia analizando tendencias en la industria de los medios, Thomas Baekdal ha sido una voz crítica respecto a cómo los editores han abordado la digitalización. Desde su plataforma independiente, Baekdal.com, examina los cambios estructurales del periodismo y sus modelos de negocio, alejándose de las métricas tradicionales que priorizan el volumen por sobre el valor.


Una lectura recomendada

___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

martes, 28 de enero de 2025

Expertos piden cautela sobre el uso de DeepSeek

En un artículo publicado por The Guardian informan que un "profesor de Oxford desaconseja poner datos privados en la plataforma por si pudieran ser compartidos con el estado chino"

Visto en The Guardian
Los expertos han pedido cautela a la hora de adoptar rápidamente la plataforma de inteligencia artificial china DeepSeek , citando preocupaciones sobre la difusión de información errónea y sobre cómo el Estado chino podría explotar los datos de los usuarios.

La nueva IA de bajo costo eliminó 1 billón de dólares del principal índice bursátil tecnológico estadounidense esta semana y rápidamente se convirtió en la aplicación gratuita más descargada en el Reino Unido y los Estados Unidos. Donald Trump la calificó como una “llamada de atención” para las empresas tecnológicas.

Su aparición ha conmocionado al mundo tecnológico al demostrar aparentemente que puede lograr un rendimiento similar al de plataformas ampliamente utilizadas como ChatGPT a una fracción del costo.

Michael Wooldridge, profesor de fundamentos de IA en la Universidad de Oxford, dijo que no era descabellado suponer que los datos introducidos en el chatbot pudieran compartirse con el Estado chino.

Dijo: “Creo que está bien descargarlo y preguntarle sobre el desempeño del club de fútbol Liverpool o charlar sobre la historia del imperio romano, pero ¿recomendaría incluir algo sensible, personal o privado en ellos? Absolutamente no… Porque no sabes a dónde van los datos”.

viernes, 18 de octubre de 2024

La Inteligencia Artificial y el autoritarismo

Siguiendo con éste interesante tema de la IA como herramienta autoritaria. Desde el año pasado hemos empezado a vivir una nueva revolución digital liderada por la Inteligencia Artificial (IA), y no son pocos los que han señalado que comenzamos una nueva era porque la IA nos abre un escenario sin límites.

Imagen de Shutterstock, vista en nobbot
Se destaca el uso de la IA generativa, no nos cansamos de elogiar sus capacidades y posibilidades. Pero al mismo tiempo, somos consientes que puede convertirse en una herramienta poderosa para consolidar el poder en manos de unos pocos y nos cuestionamos su real impacto en la gobernabilidad democrática, convivencia ciudadana, seguridad de las personas y estabilidad global. Frente a esto, no pocos creemos que es necesario replantearnos qué forma comienza a adquirir la democracia digital mediante el uso de la IA.

Lamentablemente, la IA generativa podría maximizar la desinformación y golpear aún más las democracias alicaídas y plantea la probabilidad que gobiernos autoritarios que pueden llegar o ya llegaron al poder a través de procesos "democráticos" conocidos como "regímenes híbridos".

Es conocido que éstos autócratas buscan perpetuarse en el poder y establecen un proceso de control de la ciudadanía y anulación de oposición. La gente queda cautiva, dependiente y prácticamente sin opciones de elección.

jueves, 17 de octubre de 2024

La IA como herramienta autoritaria

La inteligencia artificial (IA) es una tecnología poderosa que puede ser utilizada tanto para el bien como para el mal. La intersección entre la inteligencia artificial (IA) y el poder político es una de las discusiones más candentes de nuestra era. Es cierto que la IA, con su capacidad para procesar enormes cantidades de datos y aprender de ellos, puede convertirse en una herramienta poderosa para consolidar el poder en manos de unos pocos.

Yuval Noah Harari analizó cómo impactará la Inteligencia Artificial en el poder: democracias, dictaduras, burócratas y “Terminators”

El historiador y escritor israelí cree que las redes de información tienden a ser “centralizadas”, lo que plantea desafíos y riesgos para los gobiernos.
Publicado por Infobae

El historiador y escritor israelí Yuval Noah Harari analizó las implicaciones transformadoras que la inteligencia artificial (IA) puede tener en las estructuras de poder actuales.

A través de su nueva obra “Nexus”, el autor explora cómo este agente tecnológico
está transformando la forma en que los humanos toman decisiones
Visto en Infobae
En una extensa entrevista con Noema, no dudó en señalar que la IA ya está inclinando la balanza a favor de redes de información “centralizadas”, lo que plantea desafíos a las democracias y riesgos aún mayores para los regímenes autoritarios.

A través de su nueva obra “Nexus”, el autor explora cómo este agente tecnológico está transformando la forma en que los humanos toman decisiones y cómo, paradójicamente, podría facilitar la consolidación de las dictaduras.

Centralización del poder: la IA como herramienta autoritaria

Una de las ideas más inquietantes que plantea Harari es que la IA, lejos de ser simplemente un recurso tecnológico más, podría reforzar las estructuras de poder centralizadas y dar un nuevo aliento a los regímenes dictatoriales.

“Una hipótesis destacada es que la IA podría inclinar la balanza decisivamente a favor de las redes de información centralizadas, a favor de las dictaduras”, aseguró el autor, quien añadió que lo que no funcionó en el siglo XX debido a la limitada capacidad humana para procesar grandes volúmenes de datos, ahora podría ser altamente efectivo con la IA. “Cuando se inunda a los humanos con información, se ven abrumados. Cuando se inunda a la IA con información, mejora. Los datos son el alimento, el combustible para el crecimiento de la IA”, reflexionó.

Esta capacidad de la inteligencia artificial para manejar datos masivos a una velocidad y precisión inalcanzables para los humanos abre la puerta a una forma de control sin precedentes, donde los sistemas autoritarios podrían superar una de sus mayores debilidades: la ineficiencia.

lunes, 23 de septiembre de 2024

¿Estás seguro que chateas con una persona, o un bot con IA?

Cómo diferenciar si en un chat me está hablando un humano o un robot con IA

Reconocer distintas señales puede evitar que millones de personas caigan en estafas, robos, y otros riesgos
Por Dylan Escobar Ruiz

La inteligencia artificial (IA) está cada vez más presente en diversos espacios sociales, llegando al punto en que la línea entre humanos y chatbots en las conversaciones en línea se ha vuelto cada vez más difusa.

Muchos estudios que analizan esta coyuntura han enfatizado que casi la mitad de los participantes considera que distinguir entre un humano y un chatbot es una tarea difícil. Esto porque los bots han alcanzado un nivel de sofisticación hasta lograr superar la prueba de Turing, una evaluación que mide si una máquina puede imitar el comportamiento humano.


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

viernes, 5 de julio de 2024

Ucrania desarrolla robots de combate con inteligencia artificial

Ucrania ve nacer la era de los robots asesinos impulsados por IA

Por Paul Mozur y Adam Satariano para The New York Times

Un dron armado con una ojiva, que se utilizará en la línea del frente
en la región de Járkov, al noreste de Ucrania.
Finbarr O'Reilly para The New York Times
En un campo a las afueras de Kiev, los fundadores de Vyriy, una empresa ucraniana de drones, trabajaban hace poco en un arma del futuro.

Para mostrar cómo funcionaba, Oleksii Babenko, de 25 años, director ejecutivo de Vyriy, se subió a su motocicleta y recorrió un camino de tierra. Detrás de él, lo seguía un dron, mientras un colega monitoreaba los movimientos desde una computadora del tamaño de un portafolio.

Hasta hace poco, un humano habría pilotado el cuadricóptero. Ya no. En cambio, después de que el dron fijara su objetivo —Babenko— voló por sí solo, guiado por un software que utilizaba la cámara de la máquina para rastrearlo.

El rugido del motor de la motocicleta no fue rival para el dron silencioso que acechaba a Babenko.

Si el dron hubiera estado armado con explosivos y si sus colegas no hubieran desactivado el rastreo autónomo, Babenko habría muerto.

Vyriy es tan solo una de las muchas empresas ucranianas que trabajan para dar un gran paso adelante en la militarización de la tecnología de consumo, motivada por la guerra con Rusia.



___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

miércoles, 22 de mayo de 2024

La Unión Europea aprobó el AI Act

La Unión Europea aprobó la primera ley en el Mundo para regular la Inteligencia Artificial: así funcionará

El AI Act busca controlar las capacidades avanzadas de la IA generativa y los riesgos relacionados con el uso de material protegido por derechos de autor
Por Rossana Marín, publicado por Infobae

La Unión Europea dio luz verde a la primera ley mundial para regular
la inteligencia artificial. (Europa Press/Budrul Chukrut). Visto en Infobae
La Unión Europea (UE) finalmente dio luz verde a la primera ley importante a nivel mundial para la regulación de la inteligencia artificial (IA). Se trata del AI Act, una normativa pionera que establece reglas comprensivas sobre la tecnología de IA.

El lanzamiento de ChatGPT por OpenAI puso de manifiesto la falta de detalle en la legislación existente para abordar las capacidades avanzadas de la IA generativa emergente y los riesgos relacionados con el uso de material protegido por derechos de autor. Esto llevó a los funcionarios a reconocer la necesidad de una normativa más específica...


Post relacionado:

 
___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

lunes, 13 de mayo de 2024

La IA como piloto de combate

La estrategia de EEUU para adelantarse a China en el uso de la Inteligencia Artificial en operaciones militares.

Experimentos con campos magnéticos terrestres buscan ofrecer soluciones eficaces frente a la vulnerabilidad de los sistemas de navegación por satélite, mostrando avances significativos en tecnología de defensa.
Por Rossana Marín, publicado por Infobae.

Este F-16 pilotado por IA mostró potencial en ejercicios de combate en California. (AP/Damian Dovarganes). Visto en Infobae

La Fuerza Aérea de los Estados Unidos llevó a cabo un ejercicio de combate aéreo en California que involucró a dos jets de combate, uno de ellos pilotado por Inteligencia Artificial (IA) y otro por un piloto humano.

Este desarrollo demuestra el compromiso de Estados Unidos por mantenerse a la vanguardia frente a China en lo que respecta a la utilización de la IA en sistemas de armamento, especialmente en momentos donde la navegación autónoma y el vuelo de aeronaves sin intervención directa humana se están convirtiendo en una realidad tangible.


 
___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

viernes, 22 de marzo de 2024

Vivimos en una simulación ¿?

Un postulado es una proposición no evidente por sí misma ni demostrada, pero que se acepta, ya que no existe otro principio al que pueda ser referida.

En informática hay un antiguo postulado que dice: "lo que funciona bien, no se cambia"

Espero que si ciertamente estoy en una simulación, no se les ocurra cambiar nada, salvo exista una sustancial mejora general en el país. Y que sea un upgrade de los muy buenos, efectivamente probado.

En ésta línea, recuerden que "el Universo no te da lo que quieres, responde a lo que eres"

La alarmante teoría de Elon Musk sobre la humanidad, el universo y la realidad en que vivimos

Foto: Pixabay, vista en Infobae
La Teoría de la Simulación, siguiendo la línea de la saga fílmica Matrix, indica que la humanidad vive dentro de un programa informático. Qué dice el empresario y magnate al respecto.

¿Qué es la teoría de la simulación?

Esta idea forma parte de la llamada hipótesis de la simulación que es una teoría que propone que tanto el mundo como todo lo que habita en él son producto de una realidad simulada, al igual que también lo es el resto del universo...Lea el artículo completo


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

jueves, 21 de diciembre de 2023

Muy interesante: 19 cursos sobre Inteligencia Artificial

Visto en Infobae
Lista de 19 cursos para aprender sobre inteligencia artificial este fin de año

IBM y Coursera anunciaron el lanzamiento de 19 cursos centrados en el fortalecimiento de conocimientos dentro de los campos de la ingeniería de IA, ciberseguridad, ciencia de datos y más, con el fin de que los estudiantes puedan robustecer sus hojas de vidas ya que se ofrece un certificado... Leer el artículo completo


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

martes, 21 de noviembre de 2023

Microsoft conduce la idea original de OpenAI y su ChatGPT

La idea original de OpenAI y su ChatGPT ha muerto: ahora, Microsoft está al mando.

El cambio de compañía de Sam Altman, líder del sector de inteligencia artificial, llevó a los analistas a predecir que la empresa fundada por Bill Gates podría dominar el campo.
Por Will Oremus, Julian Mark y Eli Tan para The Washington Post / Leído en Infobae.

Sam Altman, ex CEO y miembro de la junta directiva de OpenAI (EFE)
Visto en Infobae
OpenAI, que se tambaleaba el lunes tras la destitución de su consejero delegado, Sam Altman, y su posterior contratación por Microsoft, nunca estuvo destinada a ser la típica start-up tecnológica de altos vuelos. La creadora de herramientas de inteligencia artificial tan populares como ChatGPT y Dall-E se fundó en 2015 como una organización sin ánimo de lucro, con la misión declarada de desarrollar la IA de la manera “más probable para beneficiar a la humanidad en su conjunto, sin restricciones por la necesidad de generar un rendimiento financiero”.

La idea era que una organización sin ánimo de lucro pudiera anteponer la ética a los beneficios y la seguridad a una carrera por desarrollar y comercializar una tecnología que sus fundadores creían que podía suponer una amenaza existencial para la raza humana.

Pero tras la sorprendente destitución de Altman, seguida de su aparente salto a Microsoft y de un motín entre el personal de OpenAI exigiendo su reincorporación, esa idea se tambalea. Y nadie se beneficiará más que Microsoft, que ahora puede trabajar con Altman y potencialmente con muchos de sus leales sin las limitaciones de la junta sin ánimo de lucro de OpenAI.

jueves, 9 de noviembre de 2023

Opinión: el uso de la Inteligencia Artificial con fines militares

Los desafíos de la inteligencia artificial en el campo militar

Es necesario ejercer mayor presión internacional para que se estimulen e intercambien buenas prácticas y se adopten principios éticos en el uso de la IA con fines militares.
Por Roberto García Moritán, publicado por Clarín

Imagen decorativa, vista en Defensa.com
La aplicación de la inteligencia artificial (IA) a la carrera de armamentos no es un hecho nuevo aunque ha adquirido una dimensión que merece atención como todos los demás ámbitos de la informática para fines militares. Desde hace medio siglo el concepto se utiliza en relación con el software.

También las armas inteligentes aparecieron en el siglo pasado. Ya entonces existían, por ejemplo, el guiado de misiles sin intervención humana o, en el caso más extremo, la llamada Mano Muerta, que puede dar la orden de un ataque nuclear de represalia si considera que las personas que lo controlan ya han fallecido.

Las últimas décadas han producido en avance geométrico de la aplicación de la IA a los sistemas de armamentos. Según el SIPRI, no se trata de una tecnología en si misma sino de capacidades de aplicación militar que hace a los armamentos potencialmente más eficientes, más baratos, mas compactos y más autónomos.

Los más conocidos son los drones. También la detección y análisis de posibles amenazas. La IA tiene hoy la capacidad no solo de evaluar la situación en el campo de batalla sino de hasta predecir el futuro basándose en las acciones del enemigo e incluso tomar una decisiones militares por sí misma.