Mostrando las entradas para la consulta JAVA ordenadas por relevancia. Ordenar por fecha Mostrar todas las entradas
Mostrando las entradas para la consulta JAVA ordenadas por relevancia. Ordenar por fecha Mostrar todas las entradas

jueves, 13 de octubre de 2011

Dennis M. Ritchie (1941 - 2011)

Dennis M. Ritchie
Foto: "Dennis M. Ritchie" ©Todos los derechos reservados
Dennis MacAlistair Ritchie, uno de los grandes de la informática, una de las figuras más importantes detrás del diseño y desarrollo de los sistemas operativos Multics y Unix. No son pocos los "linuxeros" que lo destacan por éstos momentos, ya que "la existencia de linux fue posible gracias a Unix".

Dennis M. Ritchie también estuvo en el desarrollo de varios lenguajes de programación, uno de los más destacados "el C", sobre el cual, tiempo más tarde, escribió un célebre clásico de las ciencias de la computación junto a Brian Wilson Kernighan: El lenguaje de programación C. Éste lenguaje aún se usa ampliamente en el desarrollo de aplicaciones y sistemas operativos, es de una gran influencia en el desarrollo de otros lenguajes, más modernos, como el lenguaje de programación Java.

Cuando ésta mañana, en la office, me entero por los medios y los blogs sobre la partida de éste extraordinario pionero de la informática moderna, como lo señala Ariel Torres, hoy en su nota de tecnología de La Nación, en el acto me acordé que tenía éste libro, y me pareció adecuado ésta imagen para complementar éste post en su memoria.

"Colaboró con Ken Thompson en la construcción de Unix, que con los años se difundiría a una escala inmensa: dio origen a Linux y está en la base de Mac OS X y Android. Desde luego, el lenguaje C estuvo íntimamente ligado al desarrollo de Unix. Todas las grandes aplicaciones para Windows están escritas en alguna versión de C".
"Ritchie y Thompson recibieron en 1983 el Premio Turing, la Medalla Richard Hamming del IEEE y la Medalla Nacional de Tecnología de los Estados Unidos" (Ariel Torres/lanacion.com Tecnología).

Según leo, murió entre el sábado y el domingo 9 de octubre, en compañía de su familia. Su amigo Robert Pike, fue el primero en dar la noticia. La verdad, nos dejo un grande y con un gran legado.

sábado, 13 de marzo de 2010

Okeyko, una buena noticia

Hoy leyendo los diarios locales (santiagueños), me encuentro con una nota sobre Okeyko ("Okey" más "OK" al revés), un desarrollo argentino, bien Patria adentro, de tres jóvenes salteños que salieron a lanzar una herramienta para abaratar el costo de los mensajes de texto en la telefonía móvil.

Gerardo Cabero (28), Pablo Lugones (21) y Gabriel Fernández (21), son los que inventaron Okeyko, un programa gratuito que se instala en celulares y que reduce notablemente el costo de los sms, más aún si el mensaje se envía al exterior.

Se puede acceder al servicio, y bajar el software desde el website de Okeyko, www.okeyko.com. Los pasos son muy sencillos, sólo deben registrarse en el sitio web. www.okeyko.com. Desde allí se descarga la aplicación en forma gratuita. Y una ves que el usuario la tiene en su celular, sólo debe “logearse” (escribir su nombre de usuario y contraseña) y puede comenzar a utilizar el servicio. Como datos importantes a tener en cuenta están: hay que tener un celular medio/alto. Para poder utilizar Okeyko hay que tener habilitado el tráfico de datos que brinde la empresa telefónica. Y el teléfono debe admitir el lenguaje Java. Es importante sugerir que ante cualquier duda, consultar por correo-e a info@okeyko.com.ar una dirección que los desarrolladores han habilitado a tal efecto.

Los fundadores de Okeyko han informado que desde que el servicio está disponible, a principios de este año, ya tiene unos 9.000 usuarios de Argentina, México y España; y que ya recibieron propuestas para distribuir su sistema en Europa y la India.

Una buena noticia, que nos alienta ya que demuestra que a pesar de todo, en nuestro País hay ingenio, inteligencia y desarrollo en nuestra juventud.

jueves, 19 de septiembre de 2013

Microsoft publica parche temporal para Internet Explorer

Visto en Wikipedia
Microsoft ha publicado un parche temporal, como "Fix it" "CVE-2013-3893 MSHTML Shim Workaround" si bien esta solución solo sirve para versiones 32-bit del navegador. Visite http://support.microsoft.com/kb/2887505.

Se informa que el parche no pretende ser un sustituto de la actualización de seguridad, que seguramente se publicará posteriormente a través de un boletín en el ciclo habitual de actualizaciones.

El fallo, con CVE-2013-3893, "podría permitir la ejecución remota de código si un usuario accede a una web específicamente creada. La vulnerabilidad reside en el acceso por Internet Explorer a objetos en memoria que han sido eliminados o incorrectamente asignados por el motor de representación HTML (mshtml.dll) de IE. El exploit detectado por Microsoft está implementado totalmente en Javascript (no depende de Java, Flash, etc.) pero sí depende de una DLL de Office que no fue compilada con ASLR habilitado (Address Space Layout Randomization). El propósito de esta dll en el contexto del exploit es evitar ASLR mediante código ejecutable en una dirección en memoria conocida" (Hispasec).

Para usuarios avanzados y administradores de sistemas también se recomienda el uso de EMET (Enhanced Mitigation Experience Toolkit o kit de herramientas de experiencia de mitigación mejorada) para mitigar la explotación de la vulnerabilidad mediante la inclusión de capas de protección adicionales. EMET 3.0 y EMET 4.0 tienen soporte oficial de Microsoft. EMET es un programa de Microsoft gratuito, (solo disponible en lenguaje ingles) sencillo de manejar y de gran utilidad. En el aviso de seguridad de Microsoft se explican detalladamente los pasos para su adecuada configuración. Visite http://technet.microsoft.com/en-us/security/advisory/2887505.

Fuentes:
Post relacionado:

martes, 22 de enero de 2013

La historia de Bob, el outsourcing y la seguridad informática

Bob es un desarrollador de software, un programador “inofensivo y tranquilo” de cuarenta y tantos años, que ganaba muy bien, un poco más de de 100 mil dólares anuales, trabajando haciendo que trabajaran por él en una importante empresa relacionada con la “infraestructura crítica” de Estados Unidos. Bob simplemente le pagaba una quinta parte de su salario a unos programadores de una empresa de programación en la ciudad de Shenyang, en el sureste de China, para que hicieran su trabajo.

Hasta aquí todo parece una simple historia de alguien que desarrollo experiencia en el outsourcing (subcontratación) para hacer más eficaz su tarea y ganar más dinero con menor esfuezo. Pero no, la historia de Bob y el outsourcing tiene que ver con un caso de seguridad que ha captado la atención de expertos en seguridad en todo el mundo.

El "bueno" de Bob, que era considerado como un programador experto en C, C + +, Perl, Java, Ruby, PHP, Python, etc. “inofensivo y tranquilo”, y que en los últimos años, "recibió excelentes calificaciones por su desempeño por su codificación limpia, y bien escrita”. Y también había sido señalado como “el mejor desarrollador en el edificio”. Pero se transformó en un "caso de estudio" de la empresa de telecomunicaciones estadounidense, Verizon.

Todo se inició cuando la empresa relacionada con la “infraestructura crítica” de Estados Unidos, que según la investigación de Verizon, había ido poco a poco avanzando hacia una fuerza de trabajo más orientado teletrabajo, y por lo tanto había comenzado a permitir a sus desarrolladores trabajar desde casa en ciertos días, comenzó a registrar cierta actividad anómala en sus registros de su Virtual Private Network (VPN), y solicitó una auditoría a su proveedor de servicios, Verizon, que finalmente ha permitido "destapar" la situación.

A principios de mayo de 2012, después de leer el Data Breach Investigations Report (DBIR) 2012, su departamento de seguridad, del TI de la empresa, decidió que debían iniciar un seguimiento activo de los registros que se generan en el concentrador VPN.

Entonces comenzaron escudriñando diariamente las conexiones VPN en su entorno. Fue la sorpresa del TI de la empresa, cuando descubrió que desde China accedían a sus sistemas informáticos. Los técnicos responsables de la seguridad informática de la empresa inicialmente creyeron que el acceso no autorizado a los sistemas desde China con las credenciales de Bob, no eran responsabilidad del "bueno" de Bob, que de alguna forma se había eludido, desde China, el fuerte sistema de autentificación, conformado por factores, que incluían un token de seguridad con una clave RSA. Inicialmente se pensó en algún tipo de malware de día cero que fue capaz de iniciar conexiones VPN de la estación de trabajo del escritorio de Bob a través de proxy externo y luego la ruta que el tráfico VPN a China, sólo para ser enviados de regreso a su concentrador.

Increíblemente no se sospechaba de Bob, hasta que se descubrió que había “enviado físicamente por FedEx su token de seguridad a China para que el contratista pudiera ingresar con sus credenciales”, según fue informado por un investigador forense en Verizon.

La investigación descubrió que los programadores chinos, subcontratados por Bob, trabajaban durante la noche, en un horario que imitaba a una jornada laboral promedio de ocho horas. También se pudo establecer que es probable que ésta experiencia del outsourcing de Bob "se haya extendido a lo largo de varias empresas en su área, lo que lo hizo ganar varios cientos de miles de dólares al año mientras pagaba aproximadamente 50,000 dólares anuales a sus programadores fantasma de China, según cientos de facturas en PDF que también fueron descubiertas en su computadora de trabajo" (CNN).

La investigación forense de la estación de trabajo de Bob reveló que el bueno, inofensivo y tranquilo empleado pasaba durante su horario laboral navegando por Reddit, viendo vídeos de gatos, visitando eBay y las redes sociales de Facebook y LinkedIn. Verizon, informó que a través de un correo electrónico, Bob “fue despedido al final de la investigación”.

Realmente todo un caso de estudio. Pienso que no pocos apuntarán al tema teletrabajo, y sus implicancias en la seguridad, pero creo que ésta modalidad laboral se está imponiendo y brindando posibilidades laboral a cada vez a mayor número de personas y aunque se pueda señalar aspectos que hacen a la seguridad, todo ésto se ira superando con el tiempo. Me parece que lo que se debe considerar, como algunas veces lo señalamos en éste blog, es el tema del factor humano.

El factor humano limita la gestión efectiva de la seguridad, es algo ya bien entendido pero no asumido. Las empresas tienden a menospreciar el papel de la conducta humana y se inclinan a confiar en el hardware y en el software para resolver problemas de seguridad, cuando lo que necesitan dedicar más tiempo a capacitar y concientizar al personal en políticas y procesos, si quieren asegurar las infraestructuras de TI.

Fuentes:

miércoles, 20 de agosto de 2008

Tecnologías de Programación Web en las JUCSE 2008

Hoy antes de salir a almorzar, me entregaron un sobre que me enviaron de la Secretaría Técnica del Instituto de Informática de la Universidad Católica de Santiago del Estero. Con una considerada nota, me hacen llegar un folleto informativo de las Decimosextas Jornadas sobre Computación de Santiago del Estero (JUCSE 2008).

En 2006 asistí a la edición de las jornadas de ese año, que trataban sobre Gobierno Electrónico, de las cuales puse un post oportunamente.

Este año, las jornadas, que se llevarán a cabo el 23 y 24 de Octubre próximo en el Campus de la Universidad, tienen como tema central las "Tecnologías de Programación Web". Se dictaran varios cursos a cargo de varios especialistas de nivel nacional, convocados especialmente para este importante evento anual.

El contenido de las jornadas de divide en cuatro cursos: "Estado del arte de la programación Web"; "Java, entornos de desarrollo y nuevas tecnologías"; "Tecnologías .NET para aplicaciones Web", y finalmente "Desarrollo de aplicaciones Web usando PHP y Open Source Software".

Todo un interesante programa. Pueden acceder al mismo y mayor información en la página de las JUCSE 2008.

jueves, 1 de diciembre de 2016

Sobre la falta de personal en information technology IT

BOOTCAMPS: ASÍ ES COMO LAS EMPRESAS SUPLEN LA FALTA DE PERSONAL EN IT.
Por Debora Slotnisky, publicado por INFOTECHNOLOGY.

LOS BOOTCAMPS DE PROGRAMACIÓN SIRVEN PARA SENTAR LAS BASES Y LANZAR NUEVOS PROFESIONALES AL MERCADO EN TIEMPO RÉCORD. LOS CASOS LOCALES DE UNA TENDENCIA GLOBAL.

A medida que las organizaciones dependen cada vez más del software, se incrementa la demanda de programadores. La situación se agrava por la proliferación de empresas de e-Commerce y compañías del sector tecnológico que se basan en el trabajo de los coders. A mayor demanda, hay que trabajar en la oferta. Y el problema de déficit entre los profesionales de IT es conocido y de escala global: hay pocos profesionales con conocimientos de programación. Según el estudio “Employer Branding”, de la consultora Randstad, para 2050 habrá 35 millones de puestos no cubiertos sólo en Europa debido a la escasez de perfiles de ingenieros en general y especialistas en nuevas tecnologías, como expertos en e- Commerce, marketing digital, desarrolladores web y de aplicaciones móviles.

La Argentina no es la excepción. En 2015, la exportación de servicios vinculados a soluciones y soporte de IT generó US$ 6.500 millones en divisas para el país. En parte, se debe al crecimiento (en torno del 8 por ciento) de exportaciones con respecto al año previo, según datos de Argencon, entidad conformada por empresas prestadoras de servicios basados en el conocimiento, relacionadas con los mercados externos. Y en un año de pérdida generalizada de empleo, el sector del software es de los pocos que florece: planea crear 7.000 nuevos empleos de acá a fin de año. Este sector tiene 81.800 profesionales, según la Cámara de la Industria Argentina del Software (Cessi).

Para intentar dar respuesta a esta problemática, en 2012 comienzan a surgir en Estados Unidos los denominados Coding Bootcamps o Coding Schools. Son centros que imparten cursos intensivos de entre 8 y 20 semanas de programación web y móvil, aunque también los dan vinculados al mundo digital en temáticas como User Experience (UX) y Data Science, por mencionar sólo algunos. Los programas se basan en tecnologías de punta y las clases se dan bajo la guía de profesionales experimentados que enseñan con el foco puesto mucho más en la práctica que en la teoría. Entre los más conocidos están General Assembly, Dev Bootcamp, FullStack Academy y The Data Incubator.

“En ese momento, teníamos dos problemas muy diferentes pero complementarios: Por un lado, más de la mitad de los graduados universitarios recién egresados estaban subempleados o sin trabajo, mientras que las empresas de software estaban en auge, pero luchando por encontrar suficientes programadores calificados para seguir creciendo. En este contexto, Hack Reactor nace para enseñar a programar de manera rápida a alumnos que inmediatamente después de graduarse necesitaban insertarse laboralmente”, cuenta a INFOTECHNOLOGY Shawn Drost, gerente Comercial y cofundador de Hack Reactor, uno de los bootcamps más populares.

Pero no sólo se encargan de la inserción laboral. Otro factor clave para el desarrollo de estos centros es el costo, ya que realizar uno de estos cursos es más económico que pagar una universidad privada. A modo de ejemplo, Sherif Abushadi, profesor de Dev Bootcamp, explica que su centro tiene varios campus en Estados Unidos. “Los planes de estudio son idénticos en todas nuestras sedes. Pero la cuota no, por la diferencia del costo de vida entre una ciudad y otra.” En San Francisco y Nueva York la matrícula es de US$ 13.950, mientras que en Chicago, San Diego, Seattle y Austin, es de US$ 12.700. Para tener una referencia, asistir a una universidad puede costar unos US$ 30.000 al año.

En un contexto desfavorable para el empleo, el sector IT crece

En Europa, el segundo bootcamp que comenzó a funcionar es IronHack. Gonzalo Manrique, uno de sus fundadores, cuenta: “Abrimos en octubre de 2013 con 12 alumnos. Para 2015 estimamos tener 350 entre las sedes de Madrid, Barcelona y Miami, y para el 2017 la proyección es tener casi 750 estudiantes”. Manrique dice que el 95 por ciento de sus alumnos consigue empleo como junior developer dentro de los primeros 90 días de haber egresados. “Si bien se inician en puestos básicos, pueden ir avanzando de acuerdo con sus habilidades y motiva ciones”, señala, y agrega que las organizaciones más interesadas por estos perfiles son aquellas que buscan personas para que tengan su primer empleo.

La voz de las firmas empleadoras

miércoles, 13 de marzo de 2019

EE.UU. suspende vuelos de Boeing 737 MAX 8 y MAX 9

"El presidente de Estados Unidos, Donald Trump, anunció este miércoles que la Administración Federal de Aviación (FAA, por sus siglas en inglés) suspenderá "de manera inmediata" el uso de los modelos de avión 737 MAX 8 y MAX 9 de Boeing" (BBC).

Estados Unidos en el último de una importante serie de países en suspender vuelos del Boeing 737 MAX 8, involucrado en las tragedias en el mar de Java y Etiopía. En total, 56 países han prohibido volar a estos aviones, mientras que aerolíneas de otros 10 han adoptado la misma decisión, aunque las autoridades nacionales de tráfico aéreo no se hayan pronunciado.

Visto en YouTube, vía Euronews

"En la mañana del miércoles se filtró a medios locales un informe que detallaba varias quejas de pilotos de aerolíneas estadounidenses sobre supuestos desperfectos en los mecanismos de control de los 737 MAX 8" (BBC).

Aunque aún se investigan las causas, trascendió que la similitud entre ambos accidentes y las "fallas técnicas" en el primero han situado al software de la aeronave en el foco mediático.

Según ha informado BBC, "el Boeing 737 MAX 8 es una versión actualizada del 737 que está en uso comercial desde apenas el año 2017.

Una de las diferencias con el modelo anterior es que el conocido como sensor de "ángulo de ataque" y el software conectado al mismo funcionan de manera distinta.

El software de control de vuelo es un sistema denominado MCAS (Maneuvering Characteristics Augmentation System). Fue desarrollado por Boeing expresamente para el 737 MAX 8 y el MAX 9.

Boeing dice que ese software "no controla la aeronave en vuelos normales", sino que "mejora una parte de su comportamiento en condiciones operativas no normales".

También señala que MCAS se implementó en los aviones para mejorar su manejo y su tendencia a inclinarse en ángulos de ataque elevados.

Pero los investigadores del accidente de Indonesia descubrieron que el sensor que el software del avión pudo haber activado un sistema "anticalado", anulando los controles manuales. Eso habría podido resultar en que la nariz del avión se inclinara hacia el suelo"(BBC).

Mundo.es ha informado que "la prohibición de los vuelos del 737 MAX tiene connotaciones que van más allá de la seguridad aérea. Por una parte, la prohibición del uso de su espacio aéreo por esos aparatos afecta directamente a las aerolíneas estadounidenses. Southwest - una línea área de bajo coste de EEUU - es el mayor comprador del mundo del aparato, con 31 unidades en servicio y otras 249 encargadas, según datos del mes de febrero de Boeing. La mayor aerolínea del mundo, la también estadounidense American Airlines, tiene en total 24 unidades de este avión, y espera la entrega de otras 76. Eso implica que, potencialmente, las aerolíneas estadounidenses podrían verse obligadas a no usar tener que cambiar los aviones que usan en sus vuelos a Canadá y desviarlos a rutas domésticas. En los vuelos a México lo tienen más fácil, toda vez que ese país no ha decidido que los MAX no son seguros, aunque la aerolínea de bandera, Aeromexico, si ha decidido dejar de emplearlos.

Además, las empresas de transporte aéreo canadienses también emplean el MAX. Air Canada tiene 23 en servicio y ha pedido otros 61, y Jetlines ha comprado 5, aunque no ha recibido ninguno todavía.

martes, 17 de abril de 2007

Pronósticos sobre Internet

Entre las notas que leí esta mañana me sorprendió el pronóstico de David Cearley, vicepresidente de investigaciones en mercados de tecnología de la información (TI) de Gartner, que publica Infobaeprofesional.com:

La nueva generación de Internet llegará entre 2015 y 2020 al mercado

El mundo de la web dejará de ser “virtual”, y pasará a ser compartido con el mundo “real”. Gracias a microprocesadores, sensores y aplicaciones, Internet podrá interactuar con lo concreto y material. Sería una versión muy evolucionada del juego virtual "Second Life".

La web 2.0, que conjuga diferentes herramientas que favorecen la interacción del usuario con la red y la producción de sus propios contenidos, es sólo una escala en un largo viaje tecnológico que finalizará entre 2015 y 2020 con la aparición de una “web real y mundial”.

Este nuevo entorno de Internet se caracterizará por ser “un mundo virtual” con interfaces que tendrán en cuenta el contexto en el que se maneja el usuario.

El pronóstico pertenece a David Cearley, vicepresidente de investigaciones en mercados de tecnología de la información (TI) de la consultora Gartner, quien lo compartió ante la prensa durante la sexta conferencia anual de integración empresaria, que esta compañía realizó este mes en la ciudad brasileña de San Pablo.

¿En qué consiste la “Real World Web”? Básicamente, que el mundo de la web dejará de ser “virtual”, y pasará a ser compartido con el mundo “real”. Gracias a microprocesadores, sensores y aplicaciones, Internet podrá interactuar con lo concreto y material. Según Cearley, sería una versión ampliada y muy evolucionada del juego virtual "Second Life".

Un cimiento de este proceso son las “location-aware techonologies”. Se trata de programas informáticos que permiten a las empresas tener un sistema de localización inteligente. Así, podrá encontrar a personas necesarias o recursos mucho más rápidamente, simplificar las conexiones a través de los móviles y la voz, así como mejorar la seguridad y efectividad de las redes Wi-Fi. Utiliza sistema de posicionamiento global (GPS, sigla en inglés), además de una red de telefonía móvil y microtelefónica para localizar a los usuarios de los móviles.

Las Location-aware applications, por su parte, se establecerán antes de cinco años, con servicios de GPS para apoyar procesos y actividades empresariales, como gestiones de venta.

Otro fundamento de la “Real World Web” será el “Sensor Mesh Networks”, formado por engranajes dinámicos de nodos pares, cada uno de los cuales incluye un sistema de redes y capacidades informáticas y sensoriales.

El Sensor Mesh Network sirve para canalizar datos, voz e instrucciones entre nodos, y es una fórmula muy segura de comunicación porque puede operar incluso cuando uno de los nodos se rompe o la conexión no es óptima.

Etapas previas
Según Cearley, encargado en Gartner de analizar las tendencias emergentes de tecnología y de negocios, dos etapas precedieron a la real World web. Entre 1995 y 2000, la primera World Wide Web, y entre 2005 y 2010, la web 2.0.

En la primera web, la tecnología estuvo basada en buscadores básicos y páginas albergadas (“hosteadas”), en servidores, mientras que en la versión 2.0, los cimientos son el uso de interfaces enriquecidas y de Ajax, un método informático de desarrollo de aplicaciones web que asocia un conjunto de tecnologías utilizadas habitualmente, como el código Java y el estándar XML, y los híbridos digitales o “mashups”, una mezcla de aplicaciones o aplicaciones compuestas.

En cambio, en la nueva generación de la web, la base será la interacción con el mundo real y el “procesamiento en nube” (“cloud computing”, en inglés), basados en los mainframes y el paradigma cliente-servidor, los cuales necesitan redes de área local.

En esta arquitectura, los datos residen sobre todo en servidores localizados en algún sitio de Internet y la aplicación se ejecuta tanto en los servidores de la nube (“cloud servers”, en inglés) como en el navegador del usuario.

Roles
Las diferencias entre las tres etapas también se observan en los roles que tienen las comunidades de usuarios. En la primera, el usuario accedía a la web sólo para buscar alguna información y administraba una o varias cuentas de contenido. En la segunda etapa, la web 2.0, el usuario participa con su contribución en cuanto a contenidos y administra comunidades, como ocurre con los blogs.

En la tercera, que llegará entre 2015 y 2020, según Gartner, el usuario se manejará según el contexto y se dedicará a la acción, y administrará sus distintas identidades o avatares, como ocurre en “Second Life”.

Negocios y tecnología
Cearley identificó también una serie de cambios en los negocios basados en la web. En la web 1.0, se trataba de impulsar las marcas en Internet y el comercio con avisos en ventanas emergentes (pop-ups, en inglés). En la web 2.0, se busca alentar la colaboración con el cliente y desarrollar la publicidad en redes sociales. En la “Real World Web”, el esfuerzo se concentrará en impulsar un ecosistema de negocios con redes comerciales y nuevos modelos de ingresos.

Los elementos fundadores en lo tecnológico de estas tres etapas también son muy distintos: En la primera web fueron los protocolos de Internet (IP), y otros como el hipertexto (http) y el correo electrónico. En la web 2.0, la banda ancha, los sindicadores de contenidos y las aplicaciones enriquecidas.

En la nueva web, el estándard será la web semántica. Esto requerirá para su desarrollo de la utilización de otros lenguajes como el XML o el RDF, que dotarían a cada página, archivo o recursos y contenidos de la red, de una lógica y un significado que permitirían a las computadoras conocer el significado de la información, de manera que ésta, además de aparecer en pantalla, pueda ser integrada y reutilizada. El otro fundamento tecnológico de la nueva web serán los sensores “mesh” ya mencionados.

Problemas
Cearley identificó para cada etapa una serie de “puntos de dolor”. En la primera, las interfaces eran muy limitadas mientras que en la web 2.0 hay que administrar múltiples identidades en diversos sitios comerciales. En la “real World web”, el problema lo constituirán la falsificación de realidades.

Evolución
El analista de Gartner explicó que Internet es “una tecnología de época” que no ha progresado de manera uniforme aunque sus distintas etapas de desarrollo son dependientes de las anteriores. Las capacidades de las etapas tempranas crearon nuevas informaciones y tecnologías de información, que permitieron crear la etapa siguiente.

La red se inició en la década del ’80 con el intercambio de información científica. A este modelo le siguió la interacción social, económica y tecnológica, que derivó en la web 2.0.

Esta evolución culminará en la próxima ola de Internet, con la extensión de las capacidades de las máquinas, los sensores y la semántica para crear oportunidades de valor. Muchas de las tecnologías de base de esta etapa, según Cearley, ya están disponibles, pero hay les faltan madurar para integrarlas a las tecnologías de las olas anteriores./// (César Dergarabedian para
Infobaeprofesional.com).

Siempre que leo estas notas me queda la desagradable sensación que uno va corriendo por detrás del furgón de cola de ese tren. Pero también me genera buenas expectativas que alimentan mis esperanzas.

martes, 22 de noviembre de 2016

Se agranda Oracle Corporation y adquiere DynDNS

Una de las mayores empresas de software conocida principalmente por sus soluciones de bases de datos y por el lenguaje de programación Java, Oracle Corporation adquirió a DynDNS (Dynamic Network Services, Inc.), la compañía de Internet de los Estados Unidos, dedicada a soluciones de DNS en direcciones IP dinámicas, que fuera ciberatacada el pasado 21 de octubre. En realidad fueron varios ciberataques masivos que bloquearon una parte fundamental de la infraestructura de Internet.

Imagen de Oracle
Se ha informado que Oracle, que ofrece desde hace tiempo soluciones cloud a través de su plataforma, concretamente Infrastructure-as-a-Service (IaaS) y Platform-as-a-Service (PaaS), ha querido ampliar su catálogo con ésta adquisición, y con la misma se posiciona como un componente crítico para muchas empresas de Internet.

DynDNS brinda servicios a unos 3.500 sitios y maneja diariamente 40.000 millones de decisiones de optimización de tráfico.

Oracle planea agregar la solución DNS, de DynDNS, a su plataforma de cloud computing, que provee una variedad de productos de Infraestructura como Servicio (IaaS) y Plataforma como Servicio (PaaS), en competencia con empresas como Amazon AWS.

En julio pasado se conoció que Oracle compró por US$9.300 millones del editor NetSuite, uno de los pioneros de la informática en la nube. La operación de compra, que debería concluir a fines de año en caso de recibir el aval de las autoridades de la competencia de Estados Unidos y de los accionistas de NetSuite, debería tener un efecto positivo inmediato sobre los resultados de Oracle.

A principios de noviembre, Oracle inauguró su primer Centro de Innovación para toda Latinoamérica, ubicado en sus oficinas de Buenos Aires. Desde el Centro de Innovación se trabajarán proyectos transformacionales e innovadores de Big Data, Internet of Things y Smart Cities para diferentes industrias como retail, banca, media, telcos y Manufacturing. Además, permitirá mostrar soluciones innovadoras utilizando tecnología propia a través de casos de uso y proyectos piloto.-


Prevéngase del Aedes aegypti, el mosquito de la fiebre amarilla, del dengue, de la chikunguña, de la fiebre de Zika y el Virus Mayaro. Cuide su salud y la de los suyos. Asesórese como ayudar a combatir el Aedes aegypti. Comience con las medidas preventivas


___________________ Nota: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.