Mostrando las entradas con la etiqueta Supercomputación. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Supercomputación. Mostrar todas las entradas

lunes, 4 de septiembre de 2023

Los nuevos trabajos y las nuevas carreras gracias a la IA

6 trabajos que la Inteligencia Artificial está creando y qué tipo de preparación requieren

Por Margarita Rodríguez, publicado por BBC News Mundo.

“Hay muchos estudios que dicen que la Inteligencia Artificial (IA) está creando más empleos que los que destruye”.

De hecho, están naciendo nuevas carreras, le dice a BBC Mundo Elena Ibáñez, CEO de Singularity Experts, una startup que brinda asesoría laboral.

Imagen de Getty Images, vista en BBC News Mundo
Y, al mismo tiempo, esa tecnología “está haciendo evolucionar profesiones tradicionales en absolutamente todos los sectores”.

La pregunta -dice la experta- no es hacia dónde apuntan las oportunidades laborales, sino en qué nos tenemos que formar dentro de nuestras profesiones para capturar las oportunidades que la IA está generando.

“Lo que estamos viendo en el mercado, sobre todo hablando con clientes tanto del sector tecnológico como de industrias más tradicionales, no es que la IA viene a destruir empleos”, le dice a BBC Mundo Francisco Scaserra, líder de Tecnología en Argentina de la compañía de reclutamiento de personal Michael Page.

“Probablemente seguimos pensando en los humanos para tareas que son demasiado básicas, creo que el gran desafío es hacer que las posiciones que ya existen evolucionen para tener un valor agregado diferente y no se queden con la transaccionalidad. De ella se puede encargar la IA”.

Creer que la IA es solo un asunto de Silicon Valley y las grandes tecnológicas, es no ver el abanico en toda su amplitud.

El año pasado, por ejemplo, el Departamento de Operaciones de Paz de las Naciones Unidas buscaba un experto en IA y Machine Learning (aprendizaje automático). Y de hecho, en el Instituto Interregional de la ONU para Investigaciones sobre Delincuencia y Justicia opera un Centro de IA y Robótica.

"Imparable"

Pese a la perspectiva negativa con la que muchas personas ven la IA, no solo por su efecto en el mercado laboral, sino por el poder que temen puede llegar a desarrollar, no todos ven el panorama sombrío.

Si bien el Foro Económico Mundial indicó, en un informe de 2020, que la fuerza laboral se estaba automatizando “más rápido de lo esperado, desplazando a 85 millones de puestos de trabajo” para 2025, apuntó a que “la revolución robótica creará 97 millones de nuevos empleos”.

En abril, Gilbert F. Houngbo, director general de la Organización Internacional del Trabajo (OIT) fue contundente: “La inteligencia artificial es imparable. Tenemos que aceptar que avanzará más y más”.

martes, 17 de agosto de 2021

Las asombrosas métricas de almacenamiento

En general, la mayoría de las personas familiarizadas con los equipos (smartphones, tablets, cámaras digitales, notebooks, desktops, etc.) conocen sobre MegaByets, GigaBytes y TeraBytes.

Almacenamiento
El costo oculto de la fotografía digital es el almacenamiento.
Pero más allá de ésto el tema capacidades de almacenamiento digital es interesante por lo que representa
Foto: "Almacenamiento", de Jorge S. King ©Todos los derechos reservados

Mucha gente sabe que en su equipo tienen un dispositivo de almacenamiento de algunas decenas a algunas centenas de GigaBytes o hasta un disco de 2 TeraBytes. Pero las capacidades de almacenamiento van mucho más allá y seguirán elevándose con el tiempo.

Por lo que siempre es bueno conocer y entender éstas unidades de medida de almacenamiento, y lo que representan:

MÉTRICA

VALOR

BYTES

BYTE (B)

1

1

KILOBYTE (KB)

1.024¹

1.024

MEGABYTE (MB)

1.024²

1.048.576

GIGABYTE (GB)

1.024³

1.073.741.824

TERABYTE (TB)

1.024⁴

1.099.511.627.776

PETABYTE (PB)

1.024⁵

1.125.899.906.842.624

EXABYTE (EB)

1.024⁶

1.152.921.504.606.846.976

ZETTABYTE (ZB)

1.024⁷

1.180.591.620.717.411.303.424

YOTTABYTE (YB)

1.024⁸

1.208.925.819.614.629.174.706.176

La unidad inicial de medida es el Byte, la unidad de información de base utilizada en computación y en telecomunicaciones, y que resulta equivalente a un conjunto ordenado de ocho bits, por lo que en español también se le denomina octeto.

El YottaByte es actualmente la mayor unidad de bytes reconocida por la Oficina Internacional de Pesas y Medidas. Sin embargo, ya existe una designación para la siguiente unidad: el BrontoByte corresponde a 1024 veces un YottaByte. Los posibles ámbitos de aplicación de esta unidad son el Internet de las cosas y los datos de los sensores.

viernes, 23 de enero de 2015

El pasar la página, es un gusto que permanece en las mayorías

Según el informe anual "La Sociedad de la Información en España", que elabora la Fundación Telefónica, la lectura de libros es la única actividad en la que predomina el formato tradicional frente a los formatos digitales. La sensación de "pasar la página" sigue fuerte en la preferencia de los lectores.

Visto en "Las diez maneras en que los eBooks están cambiando nuestra forma de leer", Lectura Lab
El informe destaca que tres de cada cuatro lectores prefieren solamente el formato físico, en papel. También señala que contrariamente al resto de las actividades, aquellos que utilizan el medio digital en la lectura de libros no renuncian al medio tradicional y suelen mantener ambos formatos.

Me encuentro en la minoría que ha abandonado el papel, me cautivan las pantallas, lo digital.

viernes, 19 de septiembre de 2014

¿Recuerdan The Minority Report? algo parecido estaría a la vuelta de la esquina

"Un estudio arroja efectividad de casi 70% en la prevención de delitos. Prevenir crímenes antes que se cometan es algo que nos enseñó Philip K. Dick en The Minority Report y durante muchos años las fuerzas policiales han buscado un modo de aplicarlo. Si bien estamos lejos de tener mutantes que adivinen el futuro, una forma más terrorífica podría ayudar a que la visión de Dick se vuelva realidad: minería de datos telefónicos". Por Luis Miranda para FayerWayer.-

Más conocida en ingles, "data mining", la minería de datos o exploración de datos (es la etapa de análisis de "Knowledge Discovery in Databases" o KDD) es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos.

Ya empresas de retail, finanzas, entretenimiento y telecomunicaciones se internan en el "universo" de estas herramientas apuntadas a predecir comportamientos, bajas de usuarios, posibles fraudes, etc..

Básicamente, la minería de datos tiene por propósito procesar datos de un dominio para encontrar patrones de comportamiento útiles para la toma de decisiones.  Es muy utilizada en los negocios, y los que están "metidos"  en éste apasionante tema, cada tanto, con sorpresa comentan que han sacado la nariz de un medio y se han introducido en otro totalmente nuevo, abriendo nuevas posibilidades de conocimiento, entendimiento y desarrollo.

lunes, 16 de diciembre de 2013

Las supercomputadoras en Argentina según el LARTop50

ISAAC de la Comisión Nacional de Energía Atómica CNEA
En Latinoamérica las instituciones que poseen supercomputadoras no son muchas, pero hay unas cuantas.

Gracias al proyecto del ranking Top 50 para Latinoamérica, que nació en el 2011 en la Universidad Nacional de San Luis (Argentina) y está integrado por investigadores de varios países de la región, se tiene un listado de equipos e instituciones.

LARTop50 tiene como objetivo crear y mantener la lista con las estadísticas de los 50 sistemas de supercomputación con mejor desempeño en Latinoamérica, con el propósito de proveer bases confiables para detectar y seguir tendencias en la computación de alto desempeño en nuestra región.

El mejor desempeño con el benchmark LINPACK es usado como medida de desempeño para ordenar los sistemas de computación en este ranking.

Los 13 equipos, en la primera lista LARTop50, fue publicada en agosto en el durante el Simposio Latinoamericano de Computación de Alto Rendimiento, HPC LatAm 2013, celebrado en la "Universidad Nacional de Cuyo" (Mendoza, Argentina).

Veintidós (22) sitios de HPC de Uruguay (1), México (4), Brasil (4) Chile (4) Venezuela (1), Colombia (3) y Argentina (5) registraron su sistema. Trece sitios han completado sus resultados del benchmark Linpack.

Los cuatro equipos en Argentina que figuran en el listado son:
  1. ISAAC de la Comisión Nacional de Energía Atómica CNEA - GTIC/DCAP/DCAP, fabricada por SIASA, con procesadores INTEL Xeon X32207/Xeon E5420, posee 644 núcleos y alcanza los 2922 GFlops. Se encuentra en la posición 5 del ranking.
  2. Piluso de Rosario HPC - HPCROS, fabricada por Dell SUN, Modelo Dell PowerEdge R715, con procesadores AMD Opteron 6100, posee 704 núcleos y alcanza los 1080 GFlops. Se encuentra en la posición 10 del ranking.
  3. ICB-ITIC del Instituto de Ciencias Básicas - ITIC- Universidad Nacional de Cuyo, fabricada por Vertex, Modelo A+ Server 4042G-6RF, con procesadores AMD Opteron 6272, posee 128 núcleos y alcanza los 225.6 GFlops. Se encuentra en la posición 12 del ranking.
  4. CALCULO de la Unidad de Cálculo en Física y Química Teórica - UnCaFYQT - INIFTA, fabricada por Intel, con procesadores Intel Core 2 Quad Intel Core 2 Duo E6750, posee 128 núcleos y alcanza los 78.6 GFlops. Se encuentra en la posición 13 del ranking.
Se puede bajar el listado de 1-13 de Julio de 2013 desde el sitio del LARTop50.

La supercomputadora Wilkes tiene la energía equivalente al de 4.000 computadoras de escritorio

Visto en BBC Mundo
La supercomputadora "más ecológica del mundo".- "La Universidad de Cambridge construyó la que dice es la supercomputadora más ecológica del mundo de su tipo. Bautizada como Wilkes, tiene la energía equivalente al de 4.000 computadoras de escritorio funcionando al mismo tiempo, dijo la universidad. Pero Wilkes fue construida para que sea eficiente más que poderosa". Por BBC Mundo.

jueves, 5 de diciembre de 2013

Proyecto Excess de la UE apunta a la eficiencia energética de esos sistemas TIC para reducir al máximo su huella ecológica

Ensamblado de un supercomputador, el "Ermitaño" en el Centro de Computación de Alto Rendimiento en Stuttgart (HLRS).
Fuente: crayvideo/Youtube
La ecología llega a la informática: Excess reduce el consumo energético de los sistemas
Publicado por Patricia Pérez, visto en Tendencias 21.

El sector de las TIC se enfrenta a dos retos clave para crecer de forma sostenible. Debe aumentar la eficiencia energética, sin dejar de ofrecer un rendimiento cada vez mayor. Ambos retos parten del mismo eje: reducir el consumo de energía desde los propios sistemas informáticos, aspecto que abordará el proyecto Excess de la UE desde la Universidad de Chalmers en Suecia.

Las tecnologías de la información y la comunicación (TIC) están cada vez más integradas en nuestra vida cotidiana. El reto ahora es conseguir que la propia tecnología haga frente a la eficiencia energética de esos sistemas TIC para reducir al máximo su huella ecológica.

Aunque este objetivo no sea una novedad, se hace más imperioso si cabe con el paso de los años y la evolución informática, inmersa ahora en un punto de transición de petaescala a exaescala, con el consiguiente aumento del consumo eléctrico si no se pone remedio.

La necesidad de controlar el gasto energético y frenar la emisión de gases invernadero obligará en pocos años a limitar los sistemas informáticos en potencia y energía, pero sin que ello afecte al rendimiento. Para buscar soluciones se ha puesto en marcha el proyecto Excess, del que forman parte los principales expertos en computación de alto rendimiento y sistemas informáticos de Europa.

Se trata de un proyecto subvencionado por la Unión Europea y dirigido desde la Universidad de Chalmers, en Suecia. Según explica la propia web de Excess, el objetivo es proporcionar nuevos modelos con paradigmas de computación eficientes, lo que permitirá un importante ahorro energético de los sistemas informáticos.

La investigación seguirá un enfoque integral que incluya al mismo tiempo tanto aspectos de hardware como software, abriendo así más posibilidades para abordar con éxito el problema de la eficiencia energética, al tiempo que se descubren soluciones innovadoras.

Capas de abstracción

Como explica la Universidad de Chalmers en un comunicado, cada sistema se enfrenta a un desafío único, diverso y complejo. Así, mientras los dispositivos móviles necesitan hacer más cálculos con una capacidad de batería fija; en los sistemas embebidos, como la electrónica de consumo, los clientes demandan capacidad de respuesta como característica principal.

Otros dispositivos requieren mantener las baterías o el consumo de energía eléctrica bajo mínimos, y los servidores de ordenador, la potencia necesaria para operar. De hecho, los centros de datos de empresas como Google ya se llevan las inversiones más importantes de la compañía.

“Reducir el consumo de energía en sistemas embebidos propiciaría un aumento de su uso en nuevos sectores de la economía como, por ejemplo, los edificios de energía inteligentes, donde el potencial de ahorro energético se sitúa en torno al 30 por ciento", explica Philippas Tsigas, profesor de Ciencias de la Computación en Chalmers y coordinador del proyecto.

Excess va a detenerse primero en mejorar la comprensión del binomio potencia/energía, para emprender después un proceso continuado hasta reducir el derroche energético. Una de las primeras piedras se encuentra en el propio diseño de los sistemas actuales, que tienden a centrarse en capas de abstracción, dejando potencial de rendimiento y energía sin utilizar que podría aprovecharse con la optimización de todo el sistema coordinado.

Tsigas cita como ejemplo la existencia de chips que soportan mecanismos específicos para controlar el consumo de energía, aunque la mayoría no se utiliza por las dificultades de uso que entraña para el programador. Así, en lugar de incluirlo en la arquitectura del dispositivo, donde se puede conseguir el mayor ahorro de energía, la optimización de potencia del software se deja a menudo en un segundo plano.

Enfoque integral

Por contra, Excess adoptará un enfoque integral e introducirá metodologías de programación novedosas para simplificar drásticamente el desarrollo de aplicaciones de bajo consumo energético, lo que será aplicable a una amplia gama de sistemas de computación, pero sin que ello afecte a aspectos significativos del rendimiento.

“Para alcanzar el siguiente nivel de eficiencia energética, la interacción del hardware y el software debe optimizarse a través de un proceso de co-diseño de software/hardware iterativo, como el que vamos a desarrollar en Excess”, apunta Tsigas.

Se trata en definitiva de crear nuevos modelos que permitan la optimización integral en todas las capas del sistema informático. Funcionarían como un puente, al apoyarse en cuatro "pilares": unificar modelos de programación para la optimización energética, crear librerías y algoritmos de eficiencia, ejecutar análisis energéticos y simuladores de hardware para el mismo fin. / Publicado por Patricia Pérez, visto en Tendencias 21.

Post relacionado:

jueves, 10 de octubre de 2013

Ensamblado del Cray XE6 'Ermitaño' en HLRS

Un interesante vídeo del ensamblado de un supercomputador Cray XE6, el "Ermitaño" en HLRS, en el High Performance Computing Center de Stuttgart (Centro de Computación de Alto Rendimiento en Stuttgart), Alemania. Realizado en 2011.

La supercomputadora Cray XE6 toma la probada infraestructura Cray XT5 y lo combina con dos tecnologías innovadoras: potentes procesadores multi-core de AMD y la interconexión de los galardonado géminis. El resultado es un sistema que trae la producción petaescala a una comunidad más amplia HPC y fundamentalmente cambia la forma en sistemas Cray comunicarse. Diseñado para escalar a más de 1 millón de núcleos de procesador.

Visto en YouTube, vía crayvideo

El campo de computación de alto rendimiento (High performance Computing o HPC en inglés) es una herramienta muy importante en el desarrollo de simulaciones computacionales a problemas complejos. Para lograr este objetivo, la computación de alto rendimiento se apoya en tecnologías computacionales como los clusters, supercomputadores o mediante el uso de la computación paralela. La mayoría de las ideas actuales de la computación distribuida se han basado en la computación de alto rendimiento.

martes, 11 de diciembre de 2012

¿Te consideras real? ¿Que pensarías si te demuestran que sos parte de una simulación informática?

¿Es el Universo una simulación informática?.- "Hace casi una década, en el 2003, un filósofo británico extendió la idea de que el Universo en el que vivimos podría ser una simulación informática a cargo de nuestros descendientes. Aunque hoy nos pueda parecer una broma y poco probable, e incluso incomprensible, la propuesta se pone a prueba gracias a la creación de una prueba potencial de un grupo de físicos de la Universidad de Washington". Por Miguel Jorge para ALT1040.

Científicos de EE UU planean comprobar si vivimos en un Matrix.- "Aunque las simulaciones que actualmente ofrecen las supercomputadoras más avanzadas están muy lejos de poder crear un modelo primitivo del Universo, científicos de la Universidad de Washington creen que hay pistas que podrían indicar si formamos parte de un entorno simulado, a lo Matrix". Por TICbeat.

jueves, 3 de junio de 2010

Hablando de supercomputación

Anoche me fui a la cama pensando en el tema de la supercomputación, en particular en esos megas centros que manejan la información climática, recordando el vídeo del Goddard Space Flight Center de la NASA y su NCCS.

Realmente es inimaginable el respaldo económico que debe haber para suministrar los recursos de supercomputación a los científicos e ingenieros de la NASA. Pero bueno, están en Estados Unidos.

En relación a esto hoy leí en mi lector de feeds que Estados Unidos es el país con mayor cantidad de supercomputadoras del mundo, lo publican en FayerWayer, un muy interesante blog a seguir, donde replican una una interesante infografía elaborada por BBC, donde se destaca el predominio de los Estados Unidos en cantidad de supercomputadoras.

Muy interesante es también darle una lectura al ránking de supercomputadoras en TOP500 Supercomputer Sites, con la lista de Junio de 2010. En primera posición está el Laboratorio Nacional de Oak Ridge, EE.UU. con su Jaguar - Cray XT5-SE Opteron de seis núcleos de 2,6 GHz / 2009.

Actualización:

En el mes de Noviembre pasado, colocamos aquí un interesante vídeo del montaje del supecomputador más grande del mundo, justamente el Jaguar - Cray XT5-SE Opteron.

Lastimosamente al vídeo lo han declarado privado en YouTube. Se puede visitar este: http://www.youtube.com/watch?v=zx677CceBAc, que es un vídeo (time lapse) de la actualización del Jaguar superordenador ORNL. Para obtener más información, por favor visite www.nccs.gov
.

miércoles, 2 de junio de 2010

Clima y supercomputación


Visto en NASAexplorer channel, en YouTube.

Un muy interesante vídeo de NASAexplorer, el canal en YouTube del Goddard Space Flight Center, donde se abre una ventanita al impresionante mundo de la supercomputación aplicada al estudio del clima.

El NASA Center for Climate Simulation (NCCS), o Centro de la NASA para la Simulación Climática, se encuentra en el Goddard Space Flight Center. Allí tienen un centro de cómputos que es capaz de ejecutar complejos modelos que ayuda en gran medida a los científicos a comprender mejor la Tierra y sus procesos climáticos.

Este breve vídeo, que tiene habilitada la traducción de los subtítulos a varios idiomas, se introduce en el NCCS y nos lleva a un fascinante "detrás de cámaras" del campo del modelado del clima. Usando supercomputadoras para procesar los datos de las observaciones satelitales, estos modelos se utilizan para predecir el tiempo y dar una imagen de cómo los sistemas de la Tierra y el clima están cambiando.

De la fuente del vídeo:
Para obtener más información sobre la NCCS, visite:

jueves, 19 de noviembre de 2009

Montaje del mayor supercomputador del mundo


Un interesante vídeo ... del montaje del supercomputador más grande del mundo, el Jaguar (Cray XT5), propiedad de Cray. Recientemente, la organización TOP500 ha dado a conocer su ranking bianual con las supercomputadores más potentes de todo el mundo, en el primer lugar está Jaguar, situado en el Laboratorio Nacional Oak, Tennessee, U.S.A. Pueden leer sobre sus características en el website de TOP500, tiene 37.376 procesadores AMD Istambul Opteron de seis núcleos a 2.6Ghz (c/u), el conjunto tiene una capacidad de procesamiento de 1.759 petaflops de cálculos por segundo.

Visto en Gizmología, y en ALT1040.

En este otro vídeo, también visto en Gizmología, se puede ver como se realiza el upgrade de los procesadores en cada placa. Ver vídeo.