El creciente flujo de datos
Hace tiempo que se advirtió de la necesidad de migrar la infraestructura IP de la red de IPv4 a IPv6 dado que las direcciones IPv4 estaban agotadas. El sistema para migrar está operando hace tiempo, pero no todos los operadores han tomado las medidas necesarias. Algunos han extendido la vida de IPv4 usando subredes y routers preparados para usar éstas mediante tablas de datos en lugar de las nuevas direcciones. Pero los routers de servidores más antiguos se ven fácilmente superados por la demanda lo cual obliga a resetearlos, lo que a su vez produce pequeños cortes en el servicio, lo que se ha observado, por ejemplo, en las webs de eBay o LastPass. No habrá colapso general, pero molestias para los usuarios hasta que las empresas se pongan al día.
Es especialmente importante si se toma en cuenta el crecimiento explosivo del flujo de datos iniciado con los equipos móviles. Además, a los millones de PC han sucedido los miles de millones de teléfonos a los cuales se añaden rápidamente otros miles de millones de sensores que se integran a la "internet de las cosas". Los canales de comunicación deben ampliarse y transmitir estos datos cada vez más rápido. Estamos en una capacidad de 100Gb por segundo pero hace falta llegar pronto a 1 terabit y luego será necesario llegar a 1 petabit. Pero computadores y software también deben avanzar para analizar estos datos en "tiempo útil". Amazon, Goole y Microsoft ya tienen sistemas de megacomputación que incluyen y coordinan millones de servidores.
Pero, sin duda, estas "granjas" de servidores pronto serán reemplazadas por otros tipos de máquinas, como la Truenorth de IBM (el sistema con un chip compuesto de 5.400 millones de transistores, con una arquitectura de redes neuronales) o The Machine de HP, que usa la tecnología de la fotónica de silicio en lugar de los tradicionales cables de cobre y podría procesar 160 petabytes de datos en solo 250 nanosegundos.
¿Pero que pasa del lado del usuario común? Está siendo bombardeado por miles de ofertas de nuevas "apps" (Android e iOS suman más del millón de artículos) y la gran mayoría no llega a las mil descargas. Hay lugar para la creatividad y los micromercados. Con el tiempo, quizás veamos cierta co-organización en torno a ideas que realmente destaquen por su utilidad general. Aquí, aún falta tiempo para ver como se reorganizará internet pero, sin duda, será fuera del modelo web.
Cuestión de volumen
Según los cálculos de Google cada semana se suben 1.500 millones de fotografías a sus servidores, pero aún así no alcanza a Facebook ni a los "reyes" exclusivos de la imagen: Flickr e Instagram. Donde Google podría anotarse una victoria es en sus esfuerzos para catalogar automáticamente las imágenes a partir de su contenido mediante reconocimiento de formas, un proyecto en que parece estar avanzando significativamente, a la par con su proyecto "Knowledge Vault" (Bóveda del Conocimiento) queserá una base de datos que almacenará información obtenida de Internet y será capaz de interpretarla gracias a un sistema de inteligencia artificial.
¿Cómo hacer frente a los centenares de artículos científicos que se publican mensualmente en cada campo del saber? Resulta practicamente imposible para los investigadores. Pero no para un robot y lo demostró un supercomputador de San José (California) llamado KnIT, que "leyó" 100.000 papers en 2 horas. En realidad, buscó en esta cantidad de textos cualquier referencia a una proteina llamada p53 (que suprime tumores) y verificó cada vez si se hacía referencia a alguna enzima activadora (kinase) de p53 aún desconocida. Así, descubrió 2 en estas 2 horas mientras las búsquedas "humanas" solo descubrían 2 al año. Se demostró así el poder del análisis automático, si bien no es generalizable para todas las áreas del saber (En física, por ejemplo, se trabaja más con ecuaciones y gráficos por lo que es mucho más difícil analizar los artículos publicados). (NewScientist, 27/08/14).
¿Cómo hacer frente a los centenares de artículos científicos que se publican mensualmente en cada campo del saber? Resulta practicamente imposible para los investigadores. Pero no para un robot y lo demostró un supercomputador de San José (California) llamado KnIT, que "leyó" 100.000 papers en 2 horas. En realidad, buscó en esta cantidad de textos cualquier referencia a una proteina llamada p53 (que suprime tumores) y verificó cada vez si se hacía referencia a alguna enzima activadora (kinase) de p53 aún desconocida. Así, descubrió 2 en estas 2 horas mientras las búsquedas "humanas" solo descubrían 2 al año. Se demostró así el poder del análisis automático, si bien no es generalizable para todas las áreas del saber (En física, por ejemplo, se trabaja más con ecuaciones y gráficos por lo que es mucho más difícil analizar los artículos publicados). (NewScientist, 27/08/14).
Las opciones de Microsoft
Satya Nadella, el sustituto de Ballmer al timón de Microsoft, está dando un importante giro al rumbo de la compañía: la está orientando hacia los productos y servicios online, priorizando Azure, Xbox Live, Office 365, Skype y otros, es decir a poner "todo en la nube". Nadella declaró que "Vivimos en un mundo de movilidad y computación en la nube" y que "Microsoft es una compañía de plataforma y productividad". Y aquí "plataforma" sería todo lo necesario para asegurar los servicios orientados a un mundo de movilidad y computación en la nube. Uno de los objetivos a mediano plazo sería un sistema operativo único capaz de operar en cualquier equipo, tanto PC como smartphone o tableta, y podría ser justamente un sistema "en la nube", a la manera del Chrome OS de los Chromebooks. (Xataka, 19/08/2014).
La apuesta es significativa pero también arriesgada como lo muestra el hecho de que, hace unos días, la plataforma de cloud computing Azure de Microsoft ha experimentando caídas con el consiguiente impacto en múltiples productos de la compañía en diversos países y en la imagen de Microsoft como proveedor de servicios en la nube. El temor a perder el control del servicio, la inseguridad y la falta de confianza que derivan de las fallas son la mayor barrera para el eventual éxito de la política de "migración a la nube", donde Microsoft se encuentra con potentes competidores como IBM, Goohle y Amazon. (TICbeat, 19/08/2014).
¿Espionaje global contra el malware?
Wired dió a conocer una nueva revelación hecha por Edward Snowden: un proyecto de la NSA llamado MonsterMind que tendría como objetivo eliminar todo el malware que se detecte en las redes de datos mundiales. ¿Parece una excelente idea? Salvo que significaría escanear constantemente las redes de datos para detectar lo que definiría como malware, eliminarlo e incluso -eventualmente- contraatacar. ¡Sería más que espiar las comunicaciones privadas (y sin orden judicial)! No se sabe si si este proyecto (y otro similar de DARPA) realmente está efectivamente en marcha. (Xataka, 15/08/2014).
¡Que escogen los inversionistas de riesgo?
El 2014 Global Venture Capital Confidence Survey, un estudio elaborado por Deloitte y la National Venture Capital Association (NVCA) refleja que los inversionistas ponen su dinero con más confianza actualmente en las empresas dedicadas a la nube, en la tecnología móvil y el software empresarial. (TICbeat, 14/08/2014).
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.