7 de octubre de 2016

La dinámica de las redes distribuidas

En el post pasado recordé que la creación de las primeras redes fue una empresa colectiva, abierta para facilitar el desarrollo cooperativo de mejores tecnologías. En un primer momento, se trató de diferentes "terminales" (teclados y pantallas) conectados a un mismo computador central ("servidor"), lo que facilitaba enviar mensajes de un usuario a otro en forma instantánea. Con los PC, se mantuvo el concepto y aparecieron diferentes métodos de comunicación (e-mails, grupos de interés, chats, etc.) pero debían pasar por un servidor que reenviaba los mensajes de un PC a otro. 

Paralelamente, sin embargo, se mantuvo la idea de conectar un PC a otro sin pasar por un servidor. Pero, más que para enviarse mensajes, se utilizó para intercambiar archivos: era el P2P (peer to peer) y fue la base del éxito de Napster (1999), que permitía el intercambio de música desde el disco duro de un usuario al disco duro de otro (aunque Napster mantenía una base de datos del contenido disponible). La industria discográfico determinó el cierre de Napster porque el sistema infringía sus derechos. 

Hubo otros desarrollos que evitaban el uso de un mecanismo central de establecimiento de enlaces y aún hoy opera el P2P, sobre todo para intercambio de archivos pirateados. Pero es un modelo potente, que no podría estar sujeto al control por gobiernos o empresas, y el que proponen Tim Berners-Lee, el inventor de la World Wide Web, y Brewster Kahle, responsable del Internet Archive (Xataka, 8/06/2016).

¿Cómo puede operar sin servicio central que "sepa" donde se encuentran los contenidos que pueden ser transmitidos? Cuando uno pregunta, por ejemplo, en este tipo de red 
«Hola, busca recetas de pastel de fresa y ruibarbo", lo que dice en realidad es: «Hola, queridos amigos, ¿podríais decirme si habéis visto alguna receta del pastel de fresa y ruibarbo? Y ya puestos, preguntad a vuestros amigos también y que pregunten ellos también a sus amigos». Es evidente que al cabo de unas cuantas rondas de este tipo, se consigue que un montón de amigos emprenda la búsqueda de la receta. Y es casi imposible que cada cual sepa quién fue el primero en plantear la pregunta.
Así que supongamos que un chico del que te separan 6 grados (el amigo de tu amigo de tu amigo de tu amigo de tu amigo de tu amigo) tiene la mejor receta de pastel de fresa y ruibarbo del mundo. Y se lo dice al chico que se lo preguntó, quien, a su vez, se lo dice al que se lo preguntó a él, y así sucesivamente. Al final te llega la respuesta. Pero sólo hay una persona en el mundo que sabe que tú eres quien formuló la pregunta inicial." (GnutellaNet, citado por Rheingold p.100)
Incluso es posible esconder la identidad de esta primera persona.

Se forma entonces una red de nodos que se comunican de uno en uno aunque cada uno puede tener múltiples conexiones. Un nodo, en consecuencia, es una especie de mini-servidor. Ésto es un retorno a uno de los principios originarios de la web, como recalca Rheingold.

Todo, por cierto, depende de la buena voluntad de los participantes y, aquí, entran a jugar las leyes de la cooperación (establecidas en la teoría de juegos). En el caso de la desaparecida red Gnutella, por ejemplo, el 70% de los usuarios de no compartía sus archivos (son los llamados "francotiradores", que quieren recibir pero sin aportar nada), y casi el 50% de los recursos del sistema los aportaban sólo un 1% de los usuarios. Los francotiradores son los peores enemigos de los sistemas cooperativos, lo que ha sido llamado por expertos "la tragedia de los [bienes] comunes". Una solución fue imaginada por la red Mojo Nation [cerrada en 2002]: exigía que cada usuario aportase, al menos, tanto como recibía, asegurando además que nadie supiera dónde estaban almacenados los archivos buscados (Rheingold, p.101).

¿Es realmente potente este tipo de red?
Bob Metcalfe, que dirigió el equipo que inventó Ethernet (conexión por cable) en los tiempos de ARPAnet, calculó que el número potencial de conexiones entre nodos crece más rápidamente que el número de nodos. El valor total de una red en la que cada nodo puede conectarse con todos los demás equivale al cuadrado del número de nodos: con dos nodos, el valor de la unión de ambos es de cuatro unidades; con 4 nodos interconectados, el valor es de 16, y con 100 nodos llega a 10.000. (ibidem, p.86)

Pero Metcalfe se quedó corto, como demostró David Reed, de Lotus Corp.. El valor de una red de formación de grupos (RFG) crece aún más rápidamente: la fórmula es dos elevado a la potencia del número de nodos, en lugar de elevar este número al cuadrado. Así, mientras el valor de 10 nodos es 100 (10 elevado al cuadrado) en la ley de Metcalfe, es de 1.024 (2 elevado a 10) en la ley de Reed.
"Esto explica que las redes sociales, creadas por correo electrónico u otras comunicaciones sociales, hayan expandido el crecimiento de la red más allá de las comunidades de ingenieros, hasta el punto de incluir toda clase de grupos de interés. La ley de Reed es el enlace entre las redes informáticas y las redes sociales. [...]
Cuando una red pretende aportar algo de valor a los individuos, como una red de televisión, el valor de los servicios es lineal. Cuando la red permite transacciones entre los nodos individuales, el valor se eleva al cuadrado. Cuando la misma red incluye procedimientos para que los individuos constituyan grupos, el valor es exponencial." (p.87)
Y el aumento de escala fomenta el desarrollo de nuevas aplicaciones que pueden ser "rompedoras" ("killer apps") y encontrar eventualmente un éxito fulgurante, capaz de transformar las relaciones en red.

Así, no es iluso pensar en una nueva internet basada en la fórmula P2P y liberada de la tutela de plataformas comerciales. Alguna coordinación puede ser necesaria, pero lo ha logrado ICANN con el sistema de nombres de dominio, y BitTorrent, quizás la aplicación más extendida para intercambios de archivos y que incluso compañías como Warner Bros o la BBC, empezaron a utilizar como una alternativa a la distribución convencional de películas y programas de televisión. (Ilustración: Enjambre de transmisiones en torrent; Fuente Wikipedia).

Para que este tipo de red funcione bien, se necesitan computadores con buenos discos duros (hoy 500GB o más) y que estén encendidos ojalá todo el día. No todos estarán dispuestos a mantenerlos encendidos y para que los móviles se conviertan en nodos útiles les falta tanto más memoria como planes de datos más económicos. La gran pregunta es si las telecoms lo permitirán y lo facilitarán o tratarán de enriquecerse cobrando por este tipo de intercambio.
Mientras estén encendidos y conectados, los PC tienen un gran potencial (ciclos de procesador) desaprovechado ("tiempo libre") y si nuestro disco duro contiene cosas que nos interesan ¿por que no facilitarlas a otros interesados? No se trata de dar acceso a todo: podemos reservar una carpeta para los intercambios. Y no faltan los mecanismos para evitar el acceso de indeseables.

Numerosas compañías están visualizando desde hace varios años las potencialidades de este tipo de red y hacen experimentos con redes distribuidas internas (como es el caso de Pfizer, Ericsson, Hitachi y BMW, por ejemplo).

Referencia:
H.Rheingold: "Multitudes inteligentes", Barcelona, Gedisa, 2004.

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.