Mostrando las entradas para la consulta cloud ordenadas por fecha. Ordenar por relevancia Mostrar todas las entradas
Mostrando las entradas para la consulta cloud ordenadas por fecha. Ordenar por relevancia Mostrar todas las entradas

martes, 21 de octubre de 2025

Los deseados datacenters de Alphabet Inc. y Amazon.com

Condiciones Clave para la Instalación de Centros de Datos de Google y Amazon

No son pocos los países de nuestra región que sueñan "hacer negocios" con Alphabet Inc. (Dueña de Google) y Amazon.com, apuntando a la instalación de datacenters (centros de datos). Todo un gran negocio en países del hemisferio norte donde tienen disponibilidad de energía infraestructura instalada, redes troncales con acceso a cables submarinos, entre otras ventajas comparativas, al que hay que sumar el dato de la temperatura ambiente en climas "frescos".

Google Data Center II
Captura de pantalla de Google Street View, del centro de datos
de Google en  Council Bluffs, Iowa, U.S.A
La elección de la ubicación para un nuevo centro de datos (o una "región" de disponibilidad, que consta de múltiples centros) por parte de gigantes tecnológicos como Alphabet (Google) y Amazon.com (AWS) es una decisión estratégica multimillonaria. No se basa en un solo factor, sino en una compleja matriz de requisitos técnicos, económicos, climáticos, geográficos y políticos.

A continuación, se desglosan las condiciones esenciales que cualquier país o región candidata debe cumplir.

1. Energía: El Recurso Más Crítico

Este es, con diferencia, el factor más importante. Los centros de datos consumen enormes cantidades de electricidad para alimentar servidores y, sobre todo, para los sistemas de refrigeración.
  • Disponibilidad y Redundancia: Se necesita acceso a una red eléctrica extremadamente robusta y estable, con múltiples subestaciones y, preferiblemente, diversas fuentes de generación. La redundancia es clave para garantizar un tiempo de actividad del 99.999%.
  • Costo: El precio de la energía debe ser competitivo y predecible a largo plazo, ya que representa uno de los mayores costos operativos.
  • Sostenibilidad: Ambas compañías tienen ambiciosos objetivos de operar con energía 100% renovable. Por ello, la proximidad a fuentes de energía limpia (hidroeléctrica, eólica, solar o geotérmia) es un factor cada vez más decisivo.

lunes, 23 de junio de 2025

Una consideración en la Modernización de Sistemas

En tecnología lo único permanente es el cambio, todas las organizaciones en algún momento necesitaran construir un puente entre su tecnología antigua y las nuevas herramientas digitales.

Imagen de archivo
Los sistemas en uso, que son la base de sus operaciones, pueden terminar siendo como un ancla, aunque son el motor de la operación diaria, a menudo frenan la innovación. Es vital tener "capacidad de crecimiento", evolucionar para competir.

Una de las preguntas clave a responder: ¿Cómo podemos cerrar esa brecha para que los sistemas heredados y los nuevos funcionen juntos y compartan la información como es necesario?

Son realmente pocos los que hablan sobre cómo cerrar la brecha entre los sistemas heredados y las nuevas tecnologías. No pocas veces se presenta el problema cuando tenemos un sistema antiguo que aún funciona, pero necesitamos implementar tecnología nueva para obtener una capacidad que antes no teníamos.

Cerrar la brecha entre sistemas heredados y nuevas tecnologías es un viaje estratégico y a menudo continuo. Requiere una combinación de planificación cuidadosa, la elección de las herramientas y enfoques adecuados, y una fuerte gestión del cambio para asegurar una transición exitosa y el máximo valor para el negocio, el servicio y la organización.

Hay que tener muy en cuenta que no es tarea para improvisados, y los errores cuestan mucho, mucho.

Cerrar la brecha entre los sistemas heredados (legacy systems) y las nuevas tecnologías es un desafío común en muchas organizaciones. Los sistemas heredados, aunque a menudo son la columna vertebral de las operaciones, pueden ser rígidos, costosos de mantener, difíciles de integrar y presentar vulnerabilidades de seguridad. Por otro lado, las nuevas tecnologías ofrecen agilidad, escalabilidad, eficiencia y nuevas capacidades.

Aquí un resumen que explica cómo se puede abordar esta brecha, junto con las estrategias y consideraciones clave:

jueves, 19 de junio de 2025

Telegram avanza

Telegram es la aplicación de mensajería más rápida del mercado, poniendo en contacto a la gente a través de una red única y distribuida de centros de datos alrededor del mundo. Es mensajería instantánea en estado puro, simple, rápido, seguro y sincronizado en todos nuestros dispositivos. Una de las 10 apps más descargadas del mundo con más de 1.000 millones de usuarios activos.
Logo de Telegram

Sin dudas Telegram es la herramienta perfecta para alojar comunidades en línea y coordinar el trabajo en equipo.

La aplicación, conocida por su sistema de cifrado de extremo a extremo, ha sido valorada por su compromiso con la privacidad. Para 2024 contaba con más de 950 millones de usuarios activos, lo que la posiciona como una de las más utilizadas a nivel mundial.

Telegram cuenta actualmente con mil millones de usuarios y obtuvo ganancias por primera vez el año pasado. Según Financial Times, luego de reportar una pérdida de 173 millones de dólares en 2023 con ingresos de apenas 343 millones, en 2024 la compañía obtuvo 540 millones en ganancias sobre ingresos de 1.400 millones. Telegram ha emitido unos 2.400 millones de dólares en bonos en los últimos cuatro años (y recompró 375 millones entre septiembre y diciembre del año pasado).

Recientemente Telegram y Elon Musk sellaron una alianza por US$ 300 millones para incorporar Grok IA a más de mil millones de usuarios. Pavel Durov y Elon Musk acordaron una colaboración de un año que integra al asistente de Inteligencia Artificial directamente en la aplicación de mensajería.

Los términos de la asociación permiten a xAI, que absorbió X a fines de marzo, y a Grok acceder a los numerosos usuarios de Telegram, que Durov estimó el miércoles en más de 1.000 millones de personas.

Según se ha informado, los grandes grupos de IA generativa buscan acelerar la adopción de sus respectivos asistentes para tener una masa crítica y rentabilizar las enormes sumas invertidas en su desarrollo.

El tema de la privacidad:

Históricamente, Telegram se ha diferenciado por su fuerte enfoque en la privacidad y seguridad. Algunas de sus características clave en este aspecto incluyen:

sábado, 22 de junio de 2019

5G - Pensar en un nuevo smartphone y en mucho, mucho más

Los diferentes fabricantes están y estarán ocupados en lanzar nuevos equipos que sean compatibles con las nuevas tecnologías. Es una regla insoslayable, en gran medida aceptada.

Un ejemplo es la noticia de hoy: WhatsApp será compatible en teléfonos con Android 4.0.3 o posterior, iPhone con iOS 8 o posterior y algunos modelos de teléfonos con sistema operativo KaiOS 2.5.1 o posterior incluidos los JioPhone y JioPhone 2.

SIM
Foto de Jorge S. King ©Todos los derechos redervados
Desde el 01/07 muchos equipos no actualizados, no podrán usar la app.

En los próximos meses, quienes quieran seguir usando WhatsApp deberán ir pensando en gastar en un nuevo equipo. Whatsapp ya no se desarrolla para sistemas operativos "antiguos", y se señala que "algunas de las funciones podrían dejar de funcionar en cualquier momento" en esos equipos.

No tengo ese problema, nunca fui usuario de WhatsApp, ni pienso usarlo.

Aunque si estoy pensando en un nuevo smartphone para más adelante, que sea compatible con 5G. Es posible que en 2024 comencemos a operar con 5G en Argentina. Tal vez antes si mejora la economía y se hacen bien las cosas en el "manejo" del espectro.

El 5G permitirá alcanzar velocidades de 10 Gbps, tener hasta 100 veces más dispositivos conectados que con 4G y reducir el consumo energético en un 90%. Hay muchas expectativas, pero para que llegue el 5G se requiere aprovechar el 4G, el punto de partida para países subdesarrollados como la Argentina es mejorar el acceso y la calidad de esta tecnología, que en algunas zonas hoy es deficiente.

Según los expertos del mercado de las telecomunicaciones, en Argentina el desembarco del 5G recién se daría en 2021 o incluso en 2022. Pero en Argentina la llegada del 5G aún está en veremos pues no se han hecho todos los deberes y hay cuestiones sin resolver que hacen a temas tecnológicos, capacidad de desarrollo local, asuntos regulatorios e inversiones en investigación.

Como 5G tiene varios propósitos, se necesitan diferentes frecuencias o bandas del espectro. El Enacom deberá habilitar las bandas que correspondan, algo no fácil de hacer. En Argentina están habilitadas las bandas de 700, 850, 900, 1700/2100, 1900, y 2.500. El 4G corre en 1700/2100. El total de espectro asignado para las tres operadoras (Movistar, Claro y Personal) es de 470 MHz en banda de 700, 900 y 2.500/2.600 MHz.

La banda de 2600 MHz no está limpia y la de 700 Mhz tiene algunas áreas interferidas, los 470 MHz están lejos de la recomendación del Unión Internacional de Telecomunicaciones (UIT) que es de 1.300 MHz, para banda ancha móvil (4G). El 5G se va a necesitar como mínimo 1.000 MHz de espectro, además que se abran otras bandas.

Para el componente de súper alta velocidad y baja latencia se necesitan bandas milimétricas de 26, 28 y 40 Ghz. La que tienen mayor prioridad para la GSMA es la de 26 Ghz. A nivel global se está dando demanda creciente en espectro, y se están utilizando nuevas bandas, en lo que se llama bandas medias (3-6 GHz) y bandas milimétricas (26-39 GHz).

Argentina precisa de mayor espectro radioeléctrico para impulsar la economía digital, dado que hasta hoy tiene 20% de las frecuencias que sugiere la Unión Internacional de Comunicaciones como piso para 2020. Un mayor espectro radioeléctrico favorecerá el despliegue de la tecnología 5G.

También queda claro que para que llegue el 5G a Argentina, hay que cambiar leyes. Para el desarrollo y consolidación de esta tecnología es fundamental que exista un marco legal coherente y confiable, que garantice certeza jurídica.

El 5G no se limitará a ser el relevo del 4G en nuestro móvil, implica una nueva generación de redes de comunicaciones de banda ancha móvil pensada como solución a la explosión de la demanda de comunicaciones, servicios y aplicaciones móviles que hay y que se espera.

domingo, 30 de diciembre de 2018

La ciberseguridad es un tema de importancia para todos

Cuáles son las tendencias en ciberseguridad para 2019.
Por Pablo Rodríguez Romeo, publicado por Ámbito Financiero.


El 2018 nos sorprendió con un sinnúmero de ataques informáticos de gran magnitud y sofisticación. El robo de criptomonedas se ha convertido en una tendencia de este año, al igual que los ataques sufridos por los Estados y organismos gubernamentales. La ciberguerra se ha declarado y sus manifestaciones no dejan de crecer, un desafío no menor para todos los Estados que quieran hacerle frente.

Malware plantado
Imagen: captura de pantalla de ©Universal Pictures. Post relacionado: La ficción a veces es real
También, fuimos testigos del ciberataque a una de las cadenas de hoteles más grandes del mundo, catalogado como uno de los peores incidentes informáticos de la historia; y WannaCry continuó haciendo de las suyas sumando más afectados a los del 2017.

Particularmente, en el mundo corporativo los ataques a las organizaciones han sido cada vez más grandes y la respuesta de protección a esas amenazas ha sido un desafío a superar. Los ciberdelincuentes han desarrollado malware cada vez más inteligente lo que hace mucho más difícil la respuesta ante esas amenazas.

Pero, entonces ¿cómo nos tenemos que preparar para 2019?

Los ataques dirigidos y muy avanzados estarán en aumento. El phishing dirigido, o también conocido como spear phishing, se volverá cada vez más frecuente, aprovechando la poca educación de los usuarios para una navegación y uso del correo electrónico seguros. Del mismo modo, y siguiendo la tendencia de este año, los ataques a IoT serán cada vez mayores porque significan una puerta entrada a otros dispositivos.

lunes, 13 de agosto de 2018

Viendo códigos, evaluando hacia adelante

Actualizar los conocimientos en el tema en que manejas no están demás, al contrario son casi que vitales. 

La transformación digital ha marcado un antes y un después en el tipo de profesiones más demandadas, los desarrolladores web, analistas de datos, los programadores para móvil, los desarrolladores de Big Data o profesionales del Cloud Computing, la inteligencia de información, etc., capitalizan futuro laboral.

Viendo códigos
Foto: "Viendo códigos", de Jorge S. King ©Todos los derechos reservados
Entre las sugerencias más útiles, pensando como desde el presente construyes tu futuro laboral, están:
  • Vital es Informarse sobre las tendencias del mundo laboral, y cuáles serán los puestos de trabajo que ofrecerán más demandados.
  • Preparar la búsqueda de empleo en concordancia con las necesidades del mercado. Aprender a hacer un análisis del mercado laboral.
  • Tener en muy en cuenta que la aplicación de las tecnologías y el ámbito digital ha cambiado el panorama laboral.
Si tiene hijos, es importante informarles que son los perfiles STEM (Science, Technology, Engineering and Mathematic), traducido al español, científicos, técnicos, ingenieros y matemáticos. Se calcula que la demanda de éstos perfiles aumentará un 14% anualmente, en los próximos dos años (Hasta 2020).

El mundo está cambiado, vea de no quedarse en el camino.

Todas las fotografías con Todos los derechos reservados por Jorge S. King© 2006-2018 Absténgase de utilizarlas

Post relacionado:


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

lunes, 4 de junio de 2018

Google canceló el polémico proyecto Maven

Por qué Google no renovará su polémico proyecto Maven de inteligencia artificial con el Pentágono.
Por BBC News Mundo.

El Proyecto Maven de Google fue arriesgado desde sus inicios. Que una de las empresas tecnológicas más poderosas del mundo se implicara en un proyecto militar para mejorar la precisión de los ataques del Departamento de Defensa de Estados Unidos tenía demasiadas implicaciones éticas.

MQ-1B Predator, foto de US Air Force, vista en Wikimedia.org
Pero el viernes pasado Diane Greene, una alta ejecutiva de la compañía, declaró que la firma no renovará el contrato, el cual termina en marzo de 2019.

Y es que la polémica se había incrementado en los últimos meses. Más de 3.000 de sus empleados le pidieron en una carta abierta a principios de abril que se cancelara el proyecto.

En ella expresaban sus temores ante lo que consideraban el primer gran paso en el uso de la inteligencia artificial para fines letales:

"Creemos que Google no debería participar en el negocio de la guerra", aseguraban. También decían que esta iniciativa ignora la "responsabilidad ética y moral" . Y a mediados de mayo una docena empleados renunciaron en protesta por el proyecto Maven.

Parece ser que Google lo tuvo en cuenta, pues, según Greene, la empresa no extenderá su contrato a causa de las fuertes "reacciones", negativas para la empresa.

Un problema de imagen
A pesar de las declaraciones de Greene -quien es la responsable del área de negocios en la nube- algunos tienen dudas.

Kate Conger, una periodista del sitio de noticias tecnológicas Gizmodo, le dijo a la BBC que cree que Google seguirá trabajando en el entorno militar a pesar de la controversia.

Greene dijo que el contrato con el Pentágono le aportará a Google unos US$9 millones -una suma relativamente pequeña- pero muchos piensan que podría implicar una cooperación mucho mayor en el futuro.

El Proyecto Maven incluye el uso de aprendizaje automático y talento de ingeniería para distinguir personas y objetos en videos de drones.

También supone la creación de un software de código abierto (el que se fabrica bajo una licencia que permite su uso, modificación y redistribución) y algoritmos de aprendizaje automático.

El objetivo final es crear un sofisticado sistema con el que se puedan vigilar ciudades enteras.

De acuerdo con un informe publicado en Gizmodo que cuenta con tres fuentes internas de Google, el principal problema radica en que el liderazgo de la compañía en el desarrollo de estas tecnologías entró profundamente en conflicto con los intereses militares.

Una serie de emails internos a los que también tuvo acceso el diario estadounidense The New York Times sugieren que algunos ejecutivos vieron el contrato como una enorme oportunidad, mientras que a otros les preocupaba cómo pudiera percibirse su implicación en este tipo de actividades si se hacían públicas.

Pero eso no fue todo.

Los desafíos
"Para poder llevar a cabo del Proyecto Maven, Google Cloud (el sistema de servicios en la nube) se enfrentaba a un desafío", se lee en el informe de Gizmodo.

sábado, 2 de junio de 2018

El proyecto Maven genera dolores de cabeza en Google

Se trata de un polémico proyecto que ayuda al Pentágono a mejorar la precisión de sus ataques militares con UAV y UAS (drones), al cual muchos empleados de Google se oponen.

"Unos 3.100 empleados de Google han firmado una carta abierta para pedir a su director ejecutivo, Sundar Pichai, que ponga fin a la participación de la empresa en el llamado Proyecto Maven" (BBC).

MQ-1B Predator
MQ-1B Predator, foto de US Air Force. Vista en Flickr
Un muy interesante artículo de Lee Fang publicado por The Intercept informa que tras la revelación en marzo de que Google había  firmado en secreto un acuerdo con el Pentágono para proporcionar tecnología de inteligencia artificial de avanzada para la guerra de drones, la compañía se enfrentó a una revuelta interna. Alrededor de una docena de empleados de Google han renunciado en señal de protesta y miles han  firmado  una petición para pedir el fin del contrato. El esfuerzo, denominado  Proyecto Maven  por los militares, está diseñado para ayudar a los operadores de drones a reconocer las imágenes capturadas en el campo de batalla.

Google ha intentado sofocar la disidencia interna en las conversaciones con los empleados. Diane Greene, directora ejecutiva de la unidad de negocios en la nube de Google, hablando en una reunión del ayuntamiento después de las revelaciones, afirmó que el contrato era "solo" por $ 9 millones, según el  New York Times , un proyecto relativamente menor para un gran empresa.

Los correos electrónicos internos de la empresa obtenidos por The Intercept cuentan una historia diferente. Los correos electrónicos de septiembre muestran que el brazo de desarrollo comercial de Google esperaba que los ingresos de inteligencia artificial de los drones militares aumentaran de $ 15 millones iniciales a $ 250 millones anuales.

De hecho, un mes después de que se conociera la noticia del contrato, el Pentágono asignó $ 100 millones adicionales  al Proyecto Maven.

La cadena interna de correo electrónico de Google también señala que varios grandes jugadores de tecnología compitieron para ganar el contrato del Proyecto Maven. Otras firmas de tecnología como Amazon estaban en la carrera, escribió un ejecutivo de Google involucrado en las negociaciones. ( Amazon no respondió a una solicitud de comentarios.) En lugar de servir únicamente como un experimento menor para el ejército, los ejecutivos de Google en el hilo afirmaron que el Proyecto Maven estaba "directamente relacionado" con un importante contrato de computación en la nube que valía miles de millones de dólares. Las firmas de Silicon Valley están compitiendo por ganar.

Los correos electrónicos señalan además que Amazon Web Services, el brazo de computación en la nube de Amazon, "tiene algunas cargas de trabajo" relacionadas con Project Maven.

Jane Hynes, portavoz de Google Cloud, envió un correo electrónico a The Intercept para decir que la compañía respalda la declaración dada al New York Times esta semana de que " los nuevos principios de inteligencia artificial en desarrollo impidieron el uso de inteligencia artificial en el armamento". Hynes se negó comenta más sobre los correos electrónicos obtenidos por The Intercept.

La cadena de correos electrónicos de septiembre que discutió el contrato recientemente firmado incluyó a Scott Frohman y Aileen Black, dos miembros del equipo de ventas de defensa de Google, junto con el Dr. Fei-Fei Li, científico jefe de Google Cloud, así como miembros del equipo de comunicaciones.

martes, 17 de octubre de 2017

Wi Fi vulnerable a ciberataques

WPA2 era considerado el método más seguro para la protección de redes WiFi, pero en éstos días el investigador en seguridad informática, Mathy Vanhoef perteneciente al grupo de investigación IMEC-DISTRINET de la universidad Belga KU Leuven, ha demostrado cómo "el protocolo WPA2/WPA (tanto Personal como Enterprise) es vulnerable a un nuevo tipo de ataque, provocando que se pueda comprometer la comunicación segura e incluso inyectar código, mediante un ataque MitM al mecanismo de autenticación" (Hispasec).

Según Vanhoef, "la vulnerabilidad residiría en el propio diseño del protocolo WPA2, no en la implementación que utilice el sistema operativo, estando de facto afectados, todos aquellos dispositivos o sistemas que tengan WIFI habilitado".

"Ahondando en la vulnerabilidad, ésta se basaría en la capacidad de forzar la reutilización del 'nonce' o número arbitrario de un solo uso, utilizado durante el inicio de autenticación de una comunicación cifrada entre el cliente (supplicant) y servidor (AP), generalmente mediante un vector de iniciación (IV). Esto ocurre durante el protocolo de autenticación 4-way handshake, cuando se negocian las claves compartidas y el Pairwise Master Key (PMK), para iniciar el cifrado de la comunicación (norma IEEE 802.11i (https://en.wikipedia.org/wiki/IEEE_802.11i-2004) )".

"Con este nuevo método, denominado Key Reinstallation Attacks (KRACKs), el atacante sería capaz de reinstalar una clave en uso, e incluso forzar una clave nula (all-zero encryption key) según el escenario utilizado en su demostración para Android 6.0, como Linux, reenviando 'handshakes' especialmente modificados" (Hispasec - KRACKs: grave vulnerabilidad en el protocolo WPA2).

Ésta clase de ataque llamado KRACK o Key Reinstallation Attack (ataque de reinstalación de clave) es difícil de ejecutar en algunos equipos, pero muy fácil en otros. Se informó que durante la investigación descubrieron que dispositivos Android, Linux, Apple, Windows, OpenBSD, MediaTek y Linksys, entre otros, poseen la vulnerabilidad.

Alliance, la organización que certifica dispositivos que usan la tecnología, informó que “la mayoría de los proveedores” están actualizando sus sistemas. Sin embargo, es extremadamente difícil saber cuánto tiempo tardará en llegar a todos los usuarios. Se ha indicado que es altamente recomendable actualizar todos los dispositivos lo antes posible, incluido el firmware de los routers y evitar a toda costa cambiar de protocolo para usar WEP.

jueves, 13 de julio de 2017

Argentina - Bases de datos públicas estarían en Amazon

Fuerte señal de Macri a tecnológicas globales: el Gobierno probará bases de datos públicas en la nube de Amazon.
Por Cesar Dergarabedian, publicado por iProfesional.

El acuerdo, que suscribió el ministro de Modernización, Andrés Ibarra, también incluye el compromiso del gigante estadounidense de apoyar a unas 300 "startups" locales con capacitación y financiación, y entrenar a unos 300 docentes y un millar de alumnos de unas 200 escuelas.

Bases de datos públicas en Amazon
Foto de la web de AWS. Visto en Flickr
Los datos generados por las tecnologías de la información y la comunicación (TIC) son el "petróleo" del siglo XXI. Sin embargo, por la ley de hábeas data, las empresas que operan en la Argentina deben resguardar en servidores locales esos registros que tengan de sus clientes, por lo que los datos están, en cierta manera, "nacionalizados".

Esa norma, junto a otras restricciones que afectan en especial a los bancos, es uno de los principales obstáculos para el desarrollo de la computación en la nube, desde la perspectiva de los grandes jugadores globales de este mercado, como Google, Microsoft y Amazon.

El gobierno nacional dio este miércoles un paso significativo para comenzar a remover esa traba con la firma de un acuerdo con Amazon Web Services (AWS), la unidad de negocios de "cloud computing" del gigante del comercio electrónico estadounidense.

Según informó en una conferencia de prensa previa a la firma del acuerdo, en la que participó iProfesional, Marcos Grilanda, mánager regional de AWS, el convenio habilitará a la administración Macri a probar durante un año en los centros de datos de la empresa dos sets de bases de datos estatales aún no definidas.

El acuerdo, que suscribió por el Gobierno su ministro de Modernización, Andrés Ibarra, también incluye el compromiso de Amazon de apoyar a unas 300 "startups" con capacitación y financiación, y entrenar a unos 300 docentes y un millar de alumnos de unas 200 escuelas en temas referidos a la computación en la nube.

Grilanda, quien participará en una reunión "privada" con el presidente Mauricio Macri y otros ejecutivos del proveedor, dijo que además de estos compromisos, la empresa trabajará junto al Gobierno en "cambios en la legislación" referida a los datos.

AWS tiene hoy tres centros de datos en Brasil, por lo que es muy posible que las pruebas del Estado se hagan en esos "data center" o en los que posee la empresa en los Estados Unidos.

La compañía tiene firmados acuerdos similares con los gobiernos de Chile y Honduras. En el caso de la Argentina, es un convenio de "cooperación en la modernización de la plataforma tecnológica del Gobierno

Detalles
Ibarra, y el vicepresidente de política pública mundial de Amazon Web Services, Michael Punke, rubricaron un "memorándum de entendimiento" con el objetivo de trabajar en conjunto para "promover la innovación pública y usar la computación en la nube para impulsar el desarrollo" de las TIC en la Argentina.

El objetivo del "consorcio", como lo definió la empresa es "implementar acciones y programas de colaboración y asistencia técnica en materia de gestión, diseño, desarrollo y operación" de TIC.

El convenio tiene un año de duración, en que la Argentina y AWS "buscarán promover proyectos de innovación y desarrollo económico a través de la educación y la capacitación para la nube. Además, se trabajará en conjunto para propulsar la modernización de la infraestructura de tecnologías de información".

Para lograr los objetivos del acuerdo, AWS se comprometió con el gobierno a:

martes, 22 de noviembre de 2016

Se agranda Oracle Corporation y adquiere DynDNS

Una de las mayores empresas de software conocida principalmente por sus soluciones de bases de datos y por el lenguaje de programación Java, Oracle Corporation adquirió a DynDNS (Dynamic Network Services, Inc.), la compañía de Internet de los Estados Unidos, dedicada a soluciones de DNS en direcciones IP dinámicas, que fuera ciberatacada el pasado 21 de octubre. En realidad fueron varios ciberataques masivos que bloquearon una parte fundamental de la infraestructura de Internet.

Imagen de Oracle
Se ha informado que Oracle, que ofrece desde hace tiempo soluciones cloud a través de su plataforma, concretamente Infrastructure-as-a-Service (IaaS) y Platform-as-a-Service (PaaS), ha querido ampliar su catálogo con ésta adquisición, y con la misma se posiciona como un componente crítico para muchas empresas de Internet.

DynDNS brinda servicios a unos 3.500 sitios y maneja diariamente 40.000 millones de decisiones de optimización de tráfico.

Oracle planea agregar la solución DNS, de DynDNS, a su plataforma de cloud computing, que provee una variedad de productos de Infraestructura como Servicio (IaaS) y Plataforma como Servicio (PaaS), en competencia con empresas como Amazon AWS.

En julio pasado se conoció que Oracle compró por US$9.300 millones del editor NetSuite, uno de los pioneros de la informática en la nube. La operación de compra, que debería concluir a fines de año en caso de recibir el aval de las autoridades de la competencia de Estados Unidos y de los accionistas de NetSuite, debería tener un efecto positivo inmediato sobre los resultados de Oracle.

A principios de noviembre, Oracle inauguró su primer Centro de Innovación para toda Latinoamérica, ubicado en sus oficinas de Buenos Aires. Desde el Centro de Innovación se trabajarán proyectos transformacionales e innovadores de Big Data, Internet of Things y Smart Cities para diferentes industrias como retail, banca, media, telcos y Manufacturing. Además, permitirá mostrar soluciones innovadoras utilizando tecnología propia a través de casos de uso y proyectos piloto.-


Prevéngase del Aedes aegypti, el mosquito de la fiebre amarilla, del dengue, de la chikunguña, de la fiebre de Zika y el Virus Mayaro. Cuide su salud y la de los suyos. Asesórese como ayudar a combatir el Aedes aegypti. Comience con las medidas preventivas


___________________ Nota: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.

viernes, 14 de octubre de 2016

Llegó una revolución que modificará la forma en que vivimos

Qué es la cuarta revolución industrial (y por qué debería preocuparnos).
Por Valeria Perasso, publicado por BBC Mundo.

A finales del siglo XVII fue la máquina de vapor. Esta vez, serán los robots integrados en sistemas ciberfísicos los responsables de una transformación radical.

Los economistas le han puesto nombre: la cuarta revolución industrial.

Revolución 4.0
Revolución 4.0 - Imagen publicada en Infosepp Año 5 · Nº 21 · Febrero 2015 - Ministerio de Ciencia,
Tecnología e Innovación Productiva / engineersjournal.ie. La imagen no pertenece a la nota de BBC
Marcada por la convergencia de tecnologías digitales, físicas y biológicas, anticipan que cambiará el mundo tal como lo conocemos.

martes, 10 de noviembre de 2015

Corea del Sur moverá el 60% de los servicios de gobierno electrónico a la nube para el 2017

El País apunta a subir a la nube el 60% de los servicios de su administración pública para 2017, lo informa ZDNet.

Corea del sur habrá movido otros 750 servicios a la nube a finales de 2016, y cerrar el presente año habiendo subido ya un total de 400 servicios, Con la transición se dispone a mejorar en gran medida el mantenimiento y la entrega de servicios de gobierno electrónico.

La nota informa que Corea del Sur está aprovechando su conectividad hiper-rápida y la penetración de LTE a los servicios de gobierno electrónico, y agilizar los servicios públicos.

Su "computación en nube" (Cloud computing) emplea una red de servidores remotos conectados vía Internet, para almacenar, gestionar y procesar los datos, en lugar de tener un servidor local o un ordenador personal.

Ejemplos sencillos del ampliamente utilizado cloud computing incluyen aplicaciones web, como Dropbox, y servicios basados ​​en la nube, como Google Drive y iCloud de Apple.

En Corea del Sur se extiende esencialmente la lógica y la eficiencia de estos servicios para la entrega de servicios gubernamentales. El país ya es líder mundial en términos de gobierno electrónico, y se clasificó por primera vez por el índice de desarrollo del gobierno electrónico de las Naciones Unidas en 2014, con Australia, Singapur y Japón cerca.

Nota fuente

___________________
Nota: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.

miércoles, 22 de julio de 2015

Adobe Flash, apuntan a que pronto sea sólo un recuerdo

El mundo tecnológico prepara el funeral del Adobe Flash.
Por Robert McMillan, publicado por The Wall Street Journal.

Flash, el popular software de Adobe Systems Inc., que en su momento le dio vida a la web, al dotar de videoclips y dibujos animados a páginas que estaban ocupadas por texto estático y fotos. La semana pasada, el programa, criticado durante años como un riesgo de seguridad y una carga para el progreso en línea, se convirtió en un destacado contendiente para pasar a mejor vida en materia de tecnología.

Imagen de Adobe Systems Inc.
La semana pasada, el director de seguridad de Facebook Inc.  Alex Stamos le ofreció a Adobe un consejo no solicitado: dejen de intentar arreglar el Flash y descontinúenlo. Google Inc. y Mozilla Corp. hicieron lo mismo, y desactivaron temporalmente el Flash en sus navegadores web luego de que fuera revelado que hackers estaban explotando una falla del sistema. La ofensiva de los gigantes de la tecnología fue el capítulo más reciente en la caída del Flash y una ilustración de cómo los aparatos móviles —el iPhone de Apple Inc. en particular— están cambiando rápidamente el panorama del rubro.

Adobe sigue distribuyendo el Flash y actualizaciones de seguridad regulares para que los usuarios las descarguen. Si los consumidores siguen preocupados por que vuelva más lento su sistema o represente un riesgo de seguridad, pueden desinstalarlo de sus computadoras, aunque entonces quizás no puedan ver algunos videos y contenido interactivo.

Pero Danny Brian, vicepresidente de investigación de Gartner Inc., considera que la decadencia del Flash es inevitable. “Estaba en las cartas desde al menos uno o dos años”, aseguró.

martes, 14 de abril de 2015

La evolución de Cisco en la era del Internet de todo

Comparto un interesante vídeo de cual es la visión de Cisco de esta transformación que está ocurriendo, en el mundo, en materia de tecnologías de información y comunicaciones, y cómo la incorporación de las cosas a la red potenciarán la transformación.
Descripción gráfica de un mundo interconectado. Visto en Wikipedia
"Cisco define Internet of Everything como la reunión de personas, procesos, datos y cosas para hacer conexiones en red más relevantes y valiosas que nunca, convirtiendo la información en acciones que crean nuevas capacidades, experiencias más ricas, y oportunidades económicas sin precedentes para las empresas, los individuos y los países" (Cisco).
Una definición alternativa señala que Internet de las cosas es el punto en el tiempo en el que se conectarían a Internet más “cosas u objetos” que personas. A la ‘Internet de todo’ (Internet of Everything IoE), también se la define como la cuarta fase de evolución de la Red de Redes.

La primera fase fue la conectividad (correos electrónicos, buscadores); la segunda, la economía de red (colaboración, e-commerce) y coexistente con la tercera, de la experiencia inmersiva, en auge también en la actualidad (redes sociales, video, cloud).

En el siguiente vídeo, Gabriel Sakata, Gerente General de Cisco Argentina, explica claramente la evolución de Cisco en la era del Internet de todo.

Visto en YouTube, vía CiscoLatam

viernes, 16 de agosto de 2013

El clima es apto para implementar estrategias de cloud computing

Diagrama de Cloud Computing. Visto en Wikipedia
Created by Sam Johnston using OminGroup's OmniGraffle and
Inkscape (includes Computer.svg by Sasa Stefanovic)
El clima cálido del Cloud Computing
Por María Gabriela Gallardo, Gerente de Marketing de Negocios de Intel para América Latina, visto en DiarioTi

Opinión: Cualquier empresa es apta para implementar estrategias de cloud computing y sólo basta con buscar la optimización de las aplicaciones tecnológicas y una mayor agilidad en el procesamiento de la información.

El cómputo en la nube ha dejado de ser tan sólo una tecnología a través de la cual se puede disponer de aplicaciones, documentos y/o recursos almacenados en algún servidor de internet, para transformarse en una verdadera herramienta empresarial que se adapta a las necesidades de gestión de las compañías de manera inmediata y fácil, por lo que no requiere de grandes recursos de capacitación para su uso.

De acuerdo con datos de IDC, los servicios públicos en la nube crecerán a 647 millones de dólares para finales de 2013, y para 2016 representarán el 6% del gasto total en software y 26% del gasto total en hardware de infraestructura en las empresas.

Durante 2013, el concepto de Cloud aumentó en diversidad y granularidad. La palabra Nube dejó de ser un concepto individual y se convierte en un ingrediente de expresiones combinadas que reflejan mercados en sí mismos, como por ejemplo eMail en la Nube, Analytics en la Nube, o desarrollo de aplicaciones en la Nube.

Por otra parte, estudios realizados por Intel®, estiman que para 2015 habrá 15 mil millones de dispositivos conectados y más de 3 mil millones de usuarios en la red, por lo que se espera un aumento del 33% anual en la cantidad de tráfico de información global en los centros de datos. Esto superará los 4.8 zetabytes generados por año, esto es 3 veces el volumen producido durante todo el año 2011. A estos niveles, cada usuario conectado generará cada día más de 4GB de tráfico de datos, equivalente al tamaño de una película con una duración de 4 horas en formato HD.

Lo anterior demuestra que la cantidad de datos que deberán ser almacenados aumentarán en alrededor de 50% anualmente, y con el fin de acompañar este crecimiento, se espera que el número de servidores en la nube supere el triple hacia el 2015. De esta manera, el clima de cloud computing se despeja e indica que el mercado continuará su desarrollo en la medida que el uso de la “nube” traiga beneficios en términos de ahorros en la operación y la habilitación de servicios con mayor agilidad. Se espera una fuerte explosión en el corto plazo.

Durante 2013 la nube se está convirtiendo en una herramienta que dará mayor agilidad y diversidad a las corporaciones para su desarrollo estratégico, gracias a usos como correo, gestión de información, o el desarrollo de aplicaciones, todo a través de la nube y en un ambiente virtualizado.

Ahora bien, cualquier empresa es apta para implementar estrategias de cloud computing y sólo basta con buscar la optimización de las aplicaciones tecnológicas y una mayor agilidad en el procesamiento de la información. La decisión de las empresas pasa por un tema de costos y de madurez en el uso de mejores prácticas, así como el nivel de medición de los servicios que ofrecen y la información que necesitan compartir y almacenar para su gestión. En la medida en que las áreas de TI estén debidamente asesoradas y tengan una mejor visibilidad de los beneficios que se pueden obtener, entonces podrán considerar usar los servicios de la nube para hacer más eficiente la operación y obtener una mayor rentabilidad en los costos operativos.

Mucho se ha hablado de los beneficios que las empresas adquieren con el cómputo en la nube: incremento de productividad; agilidad en la logística de la empresa; facilidad para gestionar la información; eficiencia del trabajo colaborativo; ahorro de energía y espacio, mejoras en la seguridad del manejo de la información. Sin embargo, es un deber de quienes somos responsables de proveer la tecnología para el adecuado almacenamiento de información en la nube, compartir una serie de consejos para implementar una estrategia de cloud computing:
  • Objetivos: se debe tener claro cuáles son los servicios que se requieren subir a la nube
  • Identificación: qué tipo de nube es la ideal para el giro y necesidades de la empresa. Actualmente existen tres tipos de nubes, privadas (dentro de la misma institución), públicas (un tercero administra los servicios) e híbridas (mezcla de pública y privada), la cual pone especial énfasis en la seguridad de las redes de comunicación que unen las nubes públicas y privadas, por ejemplo, mediante sistemas de encriptación. La adopción de uno u otro tipo, depende de las necesidades de la empresa.
  • Comparación: Es necesario identificar a los proveedores y saber qué ofrece cada uno, así como quién maneja la mejor tecnología para otorgar el servicio.
  • Decisión: Tendremos que evitar guiarnos por el precio y concentrarnos en identificar qué proveedor es el que ofrece mejor soporte técnico y SLA (por sus siglas en inglés “Service Level Agreement”, Acuerdo de Nivel de Servicio). En la actualidad un servidor que utiliza tecnología de última generación, puede sustituir 15 servidores que tengan cinco años de uso, con la misma potencia y desempeño.
Queda claro cuáles son los objetivos de tener una estrategia de cloud, pero aún existe escepticismo debido a la seguridad y protección de la información. Sin embargo, el desarrollo de componentes en los servidores de los Data Center que funcionan para el resguardo físico de datos, han evolucionado para proveer mecanismos inteligentes que aumenten la seguridad no sólo a través del software, sino desde aquello que hace posible la tecnología misma, es decir, desde la arquitectura de los procesadores, que son el corazón del almacenamiento en la nube.

Tras analizar todo lo anterior, desarrolladores de tecnología estamos trabajando junto a clientes y diferentes sectores más allá de la industria de TI, en una iniciativa a la que se ha denominado Intel® Cloud Vision 2015 que diseñará e implementará un nuevo paradigma de nube basado en tres características:
  • Nube federal: permitirá a las empresas mover y compartir datos, comunicaciones y servicios a través de nubes internas y externas con interoperabilidad flexible a través de diferentes plataformas.
  • Automatizada: es decir una nube con servicios o recursos específicos, localizados y manejados con una mínima o cero intervención humana. A través de la automatización, se optimizan los recursos y el uso de energía al máximo, ya que también se posibilita el desplazamiento seguro de aplicaciones y recursos para mejorar significativamente la eficiencia energética de los data centers.
  • Nubes “centradas en el usuario”: nubes “Inteligentes” que se adaptan a PCs y dispositivos que detecten cierto tipo de aplicaciones, comandos y capacidad de procesamiento para optimizar completamente su experiencia en la red.
Con estos mecanismos y la nueva visión, ya no existe pretexto que valga para no subirse a la nube, pues mediante el desarrollo tecnológico se logra aumentar la certeza de que los activos informativos estarán seguros y que su gestión es confiable. De esta manera las áreas de TI de las corporaciones centrarán sus esfuerzos en garantizar la continuidad de su negocio (y no en implementar más estrategias informáticas), aumentando la velocidad y capacidad de respuesta, ahorrando en consumo de energía y contando con un desempeño inteligente, junto a un retorno de inversión orientado a resultados.-

Por María Gabriela Gallardo, Gerente de Marketing de Negocios de Intel para América Latina, visto en DiarioTi.

martes, 16 de julio de 2013

Sobre la soberanía de los datos

Más allá de Snowden: la soberanía de los datos.- "¿Los datos que una compañía o gobierno considera estratégicos, deben estar en una nube internacional o en servidores y data centers dentro del territorio nacional? La masiva adopción del cloud, desde el popular Gmail a sofisticadas plataformas empresariales, está provocando una ambigüedad geopolítica de datos en todos los frentes. "¿Crees que mi correo es seguro? Sería estúpido si pensara que sí", decía este lunes el secretario General de la Unión Internacional de Telecomunicaciones, Hamadoun Touré. La visión de Touré no es antojadiza y responde a un miedo generalizado tras el caso PRISM, que no dejó país, agencia, ni continente sin espiar. Por Pablo Albarracín para Ae tecno - AméricaEconomía.

Post relacionado:
Más sobre el tema Prism y los programas de vigilancia en éste blog.

miércoles, 19 de junio de 2013

El costo de almacenar todas las llamadas de voz en EE.UU.

 PRISM logo. Visto en Wikipeda
Bueno, el tema Prism y los programas de vigilancia siguen dando que hablar en EE.UU.. En el excelente blog Microsiervos, hace un par de días publicaron un interesante post: ¿Cuánto costaría almacenar todas las llamadas de voz?.

Presentan el dato que publicaron en Archive.org por Brewster Kahle, en un artículo: "Cost to Store All US Phonecalls Made in a Year in Cloud Storage so it could be Datamined". Kahle, debido a los informes de prensa recientes, quiso cotejar el costo de la grabación y el procesamiento de todas las llamadas telefónicas en los EE.UU., según explican en la publicación en Archive.org.

Almacenar todas las llamadas de voz en EE.UU., según han calculado, "costaría unos 27 millones de dólares más unos 2 millones en electricidad para un centro de datos de 500 m2 en el que almacenar y procesar todas las llamadas telefónicas de EE UU durante un año, que suman unos 272 petabytes (285.212.672 gigantes)".

Y el interesante detalle que señalan, es que al parecer la NSA se está gastando 1.700 millones de dólares en un centro de datos de 10.000 metros2. Además informan que los números se pueden consultar en la hoja de cálculo Cost to Store All US Phonecalls Made in a Year so it Could be Datamined.

Muy bueno sería saber cuanto cuesta procesar toda esa información y cual es la valoración de los resultados. Todo un tema realmente.

miércoles, 12 de junio de 2013

Escenas fantásticas realizadas por la niebla

Big John above the Cloud
Foto: "Big John above the Cloud" por Pete Tsai en Flickr ©Todos los derechos reservados. Visto en el blog de Flickr
Una impresionante toma de la ciudad de Chicago, cubierta por la neblina como parte de una nueva serie de fotografías presentadas en un vistoso post del blog de Flickr.

Realmente son escenas fantásticas realizadas por la niebla. Para ver las fotografías, ingrese al post del blog de Flickr.

martes, 7 de mayo de 2013

Ciertamente, Photoshop CC no es el único

Photoshop CC no es la única opción: Hay alternativas.- "Reflexionemos un poco. Es cierto que el programa estrella en el mundo de la imagen y el diseño ha sido Adobe Photoshop desde los años 90. Ahora como veíamos ayer no hábrá un Photoshop CS7 versión de escritorio tal y como la hemos conocido hasta hoy, a partir de ahora el producto será Photoshop CC. Pagaremos una suscripción mensual dependiendo del tipo de usuario que elijamos en cada caso – como ya se ofrece desde hace un año en la Creative Cloud – y que pretende mantener un flujo constante de dinero hacia la compañía así como controlar la distribución no autorizada de sus programas". Por Alfonso Domínguez Lavín para Xatakafoto.

GIMP (GNU Image Manipulation Program) es una de las interesantes alternativas, lo vengo usando desde mayo del 2010, y versión tras versión lo mejoran. Se lo puede bajar desde www.gimp.org.