El Internet es la red de redes donde los usuarios nos conectamos a través de los cables y medios inalámbricos de los proveedores de telecomunicaciones, y donde estos a su vez se interconectan entre sí usando todos un mismo protocolo conocido como IP. Desde su concepción el Internet fue proyectado como una red distribuida donde los nodos eran sus mismos usuarios. Sin embargo, la creación del protocolo HTTP que dio origen a la Web con sus páginas y sitios, fomentó la proliferación de aplicaciones tipo cliente-servidor, más jerárquicas y centralizadas. Servicios como Salesforce, Gmail, Facebook, etc. impulsaron la construcción de salones de equipos data center, cada vez más grandes, para la implementación de múltiples servidores a los que se conectan sus clientes. Lea también: Cine Colombia aplicó plan de retiro voluntario por crisis del sector Aunque pensamos en la nube como todo lo hay al otro lado del modem de nuestras casas, el término realmente se refiere a los data centers que centralizan todo el procesamiento y almacenamiento de datos que no ocurre en nuestros computadores personales. La nube ha suministrado grandes beneficios, sigue creciendo y sus proveedores se han consolidado rompiendo récords en las bolsas de valores. Sin embargo, algunos hablan de la amenaza de una potencial burbuja tecnológica. La velocidad de la información está limitada por las leyes de la física y la velocidad de la luz. Los retardos son inevitables y la única manera de minimizarlos es reduciendo las distancias y optimizando los medios de transmisión.  Fortnite, el juego online gratuito, puede tener más de 8 millones de jugadores accediendo en un mismo instante los servidores de Epic Games en la nube de Amazon. Un sólo sitio principal no es suficiente. Decenas de data centers han tenido que ser replicados en múltiples zonas geográficas, más cercanas a los jugadores, para evitar las latencias que afectarían la experiencia del juego. La nube está experimentando un proceso acelerado de desagregación, donde se ha tenido que multiplicar la inversión requerida renunciando a ventajas de economías de escala. Algunos proveedores como Microsoft están comenzando a instalar data centers en el fondo de los océanos para reducir estas distancias y costos. Los desarrollos de procesadores de función específica harán más poderosos a dispositivos como teléfonos, drones, carros, edificios, etc. que pueden convertirse en puntos neurálgicos de la red, con un procesamiento en su mayoría local, donde la data es realmente originada. Un vehículo autónomo no puede esperar a que la información viaje a la nube para ser analizada y le diga qué acción tomar. El “Internet de los carros” proliferará en la medida en que existan redes tipo mesh, inalámbricas, automóvil-a-automóvil o con elementos en el camino usados como hubs, que permitan acciones en tiempo real. La empresa Napster desarrolló en 1999 un algoritmo para compartir canciones directamente entre los computadores conectados a internet en un modelo usuario-a-usuario, peer-to-peer. Dos años después, a pesar de sus 80 millones de usuarios registrados, su algoritmo fue prohibido por no pagar a los artistas derechos de autor. Lea también: Filial de ISA garantizará obligaciones de compañía chilena por US$4,3 millones Hoy en día, las plataformas de distribución de música, como Spotify, usan un modelo cliente-servidor, aunque la situación no cambió mucho. A los artistas se les ofrecen milésimas de centavos de dólar por cada streaming de sus canciones y bajo ciertas condiciones definidas por las mismas plataformas. Skype en su algoritmo inicial también usaba un modelo descentralizado peer-to-peer donde sus usuarios eran promovidos y convertidos en “supernodos”. Este modelo se cambió a un sistema centralizado para tener mayor control de la operación y los datos. Los avances tecnológicos actuales podrían haber solucionado debilidades iniciales como las mencionadas de Napster y Skype, y al mismo tiempo mantener la eficiencia de su arquitectura esencial. Tecnologías emergentes como Blockchain, por ejemplo, proponen soluciones de bases de datos con encriptamiento y backup en estas arquitecturas. La vulnerabilidad intrínseca de los sistemas centralizados hace que sea mucho más factible una catástrofe en la nube a que ocurran daños en estructuras fragmentadas como las que ofrece Blockchain. Los avances en Federated Computing ofrecen algoritmos de machine learning que son entrenados pasando por múltiples nodos, analizando nuestra información pero sin enviarla a la nube a una base de datos centralizada. Estas soluciones serán principalmente atractivas en aplicaciones que exijan altos niveles de privacidad como en el caso de los hospitales y bancos. La nueva versión 6 del protocolo IP, IPv6, usa 128 bits de direccionamiento, comparados a los 32 del IPv4, lo que le provee prácticamente direcciones IP suficientes a cada habitante del planeta. Esto permite una comunicación más directa y simplificada, sin necesidad de servicios centralizados de direccionamiento como NAT o DHCP. Los operadores celulares de quinta generación, 5G, también están impulsando redes de procesamiento distribuido Multi-Access Edge Computing, MEC. Muchos de los recursos de procesamiento serán trasladados a nodos Edge más cercanos a los usuarios, como por ejemplo a las torres celulares. Será un proceso de optimización continua en el que parte de la nube migra a los nodos y adopta el nuevo concepto conocido como “niebla”, Fog.