Cuando Tim Berners-Lee y su equipo diseñaron el protocolo de aplicación HTTP1 en el mes de marzo de 1989 2, no pensaron que las páginas que habría de transportar llegasen a ser tan complicadas como las actuales. Dicha invención fue acompañada de la definición de información “hipermedia”3 y esa es la base sobre la que se asienta lo que conocemos como World Wide Web. Por debajo de HTTP está el protocolo de conexión y transferencia ordenada de datos conocido como TCP 4, y debajo de él está el protocolo IP5, que se encarga de la comunicación mediante el uso de paquetes de información.
HTTP funciona como un protocolo de solicitud-respuesta dentro del modelo computacional de cliente-servidor. El cliente envía un mensaje HTTP de solicitud al servidor y este, que dispone de la información solicitada (fichero HTML o de otro tipo) o hace las funciones pedidas por el cliente, le devuelve un mensaje de respuesta.
Cuando nació Internet no se podía imaginar que la guerra de los terminales fuese a terminar siendo ganada por los terminales móviles que llamamos smartphones6, y que estos iban a introducir los límites que lo marcarían todo: el ancho de banda disponible, la capacidad electroquímica de las baterías de más alta tecnología y, por último, el peso de todo ese artefacto. En realidad, el factor limitante no está en el hardware. Para navegar no sirve de mucho utilizar procesadores más potentes, que calentarían el terminal y consumirían más potencia. El límite actual realmente está en la red inalámbrica (3G, LTE, 4G, etc.) de la que todos terminamos colgados.
La comunidad internacional está dispuesta a corregir aquellos enfoques simplistas de entonces. La idea es acelerar el tiempo de descarga de las páginas web en dispositivos móviles. Para ello, lo primero que se hace es reunir en una misma conexión la descarga de todos los elementos que componen dicha página web. Actualmente, en el protocolo HTTP, se hace una conexión TCP distinta para descargar cada elemento, incluso para traer el más humilde GIF que represente un botón o una leve sombra en esas sofisticadas páginas que algunas estéticas dictan.
Además de reunir en una todas las conexiones relacionadas entre sí, también se utiliza una posibilidad que siempre ha estado ahí pero que, con el crecimiento de la velocidad de las redes de comunicación siguiendo la Ley de Moore y la obsesión por ahorrarse ciclos de computación en los servidores, nunca fue vista como una necesidad y no se utiliza. Nos referimos a la posibilidad de que el servidor comprima los datos antes de enviarlos y que el cliente proceda a descomprimirlos cuando los reciba.
SPDY8 es un protocolo abierto de red desarrollado principalmente por Google para el transporte de contenidos web. Esta nueva versión manipula el tráfico HTTP para reducir la latencia de carga de las páginas web utilizando la compresión, el multiplexado y la priorización de paquetes. Además de eso, el nuevo protocolo incluye una significativa mejora en la seguridad de esa comunicación. En julio de 2012, los desarrolladores de SPDY manifestaron que estaban trabajando en su estandarización, de modo que el primer borrador del futuro protocolo HTTP 2.0 utilizaría SPDY como base para las comunicaciones en red. Actualmente, las implementaciones de SPDY en los navegadores son mucho más comunes de lo que cabría pensar; de hecho, las encontramos en las últimas versiones de los navegadores Chromium9, Firefox, Opera, Amazon Silk e Internet Explorer.
En SPDY el uso del protocolo de cifrado TLS10 es obligatorio, y las cabeceras de transmisión son comprimidas, por diseño, con el algoritmo DEFLATE11, mientras que en la versión actual de HTTP, esas cabeceras van en claro y son humanamente legibles. En este nuevo protocolo, los mensajes intercambiados son pre-procesados, asociados con tokens, simplificados y comprimidos. Por ejemplo, en cada nodo SPDY se guarda una lista con referencias a las cabeceras de los objetos que ya se han enviado dentro de esa sesión, lo que permite evitar el re-envío de algo que ya se tiene y no ha cambiado.
Otra característica interesante es que, en este nuevo protocolo, el servidor no tiene por qué esperar a que el cliente le solicite las cosas, él puede entregar (push) contenido no solicitado al cliente, lo cual puede terminar siendo, entre otras cosas, un desperdicio de ancho de banda. SPDY requiere el uso de SSL/TLS con la extensión NPN12, y no acepta trabajar con el HTTP que hoy conocemos.
SPDY no reemplaza a HTTP, sino que modifica esencialmente el modo en el que se envían las peticiones y respuestas a través de la línea de comunicación. Por ello, todas las aplicaciones actuales de servidor sólo pueden utilizarse sin modificación alguna si delante de ellas se coloca un traductor, una pasarela SPDY-HTTP.
Un cambio tan importante no puede hacerse de la noche a la mañana por lo que es razonable pensar en un largo periodo de transición en el que sólo una pequeña cantidad de los servidores que componen Internet trabajen con el nuevo protocolo. En el mes de abril de 2013, aproximadamente un 1% de todos los servidores web hablaban SPDY. Desde entonces, ha habido un descenso de esa población hasta el 0,6%. Sin embargo, desde enero de este año13 algunos servicios de Google (Google search, Gmail y otros que utilizan SSL) utilizan SPDY, siempre que esté disponible en el navegador del usuario. Otros sitios web que también utilizan el protocolo son: Google [.com.co.in.de.fr. co.uk], Facebook, Youtube, Twitter, Wordpress y Tumblr.
Para favorecer la adopción de ese nuevo paradigma, o para satisfacer otros intereses menos altruistas, Google puso en funcionamiento “gateways” que se encargan de traducir ambos protocolos e invitó a usuarios de terminales móviles a probarlos. Con el uso de esas pasarelas de Google, las comunicaciones entre ellas y el terminal móvil del usuario son (1) más eficientes (descarga más rápida), en ellas (2) Google lo sabrá todo sobre nuestros hábitos de navegación, lo cual se suma al conocimiento de nuestras inquietudes a través de las preguntas que le hacemos, y (3) la comunicación estará completamente cifrada, de modo que todo el que no sea el terminal móvil o la pasarela de Google, estará ciego respecto a lo que se está comunicando.
Que Google haya sido el primero en montar una infraestructura para poner a prueba el nuevo protocolo, no significa que no puedan ser otros, otras iniciativas, otros intereses, los que monten constelaciones de esas pasarelas y se conviertan, probablemente sin saberlo el usuario, en su “ciberconfesor” para el que ningún detalle de su navegación le será ajeno.
Una pregunta difícil de contestar es la de cuánto duraría esa transición. Si nos fijamos en otros cambios de estándar y la querencia comercial que hay a la compatibilidad hacia atrás, muy probablemente estemos hablando de más de una década. Durante ese tiempo, las pasarelas serán las que controlen y conozcan realmente a sus usuarios, y los que no gestionen esas pasarelas tan sólo verán secuencias binarias sin sentido.
En el futuro, cuando se dé por terminada la transición HTTP 1.1 → 2.0, cada navegador se conectará con cualquier servidor utilizando el protocolo SPDY, que para entonces habrá evolucionado, y las comunicaciones, además de ser más eficientes, también serán privadas y lo que se comunique será asunto de los interlocutores y, en principio, de nadie más. Según esto, el riesgo para la intimidad de los usuarios está en el periodo de transición y no en el destino final.
Por otra parte y de forma independiente a la iniciativa SPDY, todavía sigue abierto el frente de una “Internet de dos velocidades”14 en las que los operadores de redes sueñan con encontrar los réditos que no consiguen por ser meros transportadores de señal y no generadores de valor. El flamante éxito comercial de negocios como Google o Facebook despierta la envidia de los propietarios de las redes que los hacen posibles. Para corregir esa subjetiva “injusticia”, algunos poderes proponen o reclaman vehementemente que el medio cibernético no sea igual para todos.
Esa Internet de dos velocidades consiste sencillamente en la segregación entre los que pueden pagar y pagan, y todos los demás. Para los primeros podrá haber redes telemáticas veloces, llenas de valor añadido, eficientes e incluso discretas; sin embargo, para los demás, la calidad será sustancialmente inferior.
Aunque oficialmente nada de eso ocurre todavía, hay quejas de instituciones como la BBC, respecto a que hay ISPs que, de forma reiterada y deliberada, disminuyen selectivamente las velocidades de transmisión muy por debajo de los valores publicados y que transportan ciertos contenidos más deprisa que otros15.
Una de las ventajas de cualesquiera soluciones que como SPDY popularicen el cifrado extremo-a-extremo es que el papel de las operadoras volverá a limitarse y centrarse en mantener la calidad de servicio independientemente del contenido o naturaleza de éste.
Con la adopción y universalización de las comunicaciones cifradas, no solo las empresas operadoras de las redes de telecomunicación se quedarán ciegas, también sufrirán ese mal las universidades, la administración pública, las empresas, los hogares, todo el mundo. Si los navegadores utilizados y los servidores de Internet hablan SPDY, el contenido de sus conexiones quedará fuera del alcance de firewalls, detectores de intrusión, analizadores de malware, “Deep Packet Inspectors”16, etc. Gracias al cifrado, el destino de las grandes operadoras de telecomunicaciones será también el de cada uno de los CPDs que cooperativamente componen Internet: la oscuridad.
La adopción generalizada de cualquier protocolo con cifrado robusto no sólo supone cegar a los operadores de red, sino también a las fuerzas de seguridad del estado y a las agencias de inteligencia, que entrarán en el reino de la oscuridad telemática, lo cual es una amenaza clara para sus funciones y habrán de encontrar el modo de responder a ello.
En un ciberespacio en el que todas las comunicaciones estén cifradas, desaparecen las muchas facilidades que la actual tecnología Internet ha proporcionado durante décadas a jueces, policías y responsables de la seguridad nacional para el conocimiento de las actividades de ciudadanos, grupos organizados de todo tipo y empresas. En principio, el uso del cifrado confinará la comunicación a los terminales de los contertulios y aportará una intimidad que actualmente no existe en Internet.
Un sistema de comunicaciones a prueba de intercepciones dificultaría mucho la acción de la ley sobre los que utilizan el ciberespacio. Las investigaciones policiales, las pruebas judiciales o incluso el propio espionaje, tendrán que volver a tecnologías, usos y costumbres propios de la era pre-Internet; más aún, el regreso sería a los tiempos en los que no había comunicaciones a distancia, ya que todas las comunicaciones se harán a través de esa red opaca y no habrá teléfonos que pinchar o sobres que cuidadosamente abrir.
En principio, en una sociedad que utilice una Internet opaca (cifrada) todos los agentes son igualmente ciegos. Sin embargo, las operadoras y con ellas otros, podrán seguir haciendo Análisis de Tráfico17 en vista a deducir informaciones parciales de los comunicantes a través de los patrones de comunicación que puedan ser identificados. De hecho, eso es lo que ya se consigue con los denominados “metadatos” de la recientemente anulada18 Directiva Europea de Conservación de Datos19.
Independientemente de estas restricciones técnicas, hay que tener en cuenta que lo que hace más inseguro a un ciudadano, a una empresa, o a una administración es estar convencido de que no necesita protegerse. Aunque Internet fuese opaca en lo que a las comunicaciones se refiere, el mero hecho de que existan las redes sociales en las que algunos lo cuentan todo, da un respiro y oportunidad a los que quieran o necesiten “investigar” y desvelar secretos personales, comerciales o nacionales. El cifrado de las comunicaciones (si se hace bien) sólo anula un medio, un canal de acceso, un lugar donde se puede escuchar sin ser detectado, pero no es el único escenario20 en el que se pueden desarrollar las actividades habituales para la obtención de “inteligencia”.
Si el problema es no poder descifrar lo que se transmite, el atacante siempre puede coger la información justo antes de que sea cifrada, o cuando acabe de ser descifrada por los que sí pueden hacerlo. En este nuevo escenario las ventanas de ataque se desplazan a los terminales, a los equipos, y eso no es nada nuevo, ya lo hacen desde hace tiempo los caballos de Troya, familiarmente conocidos como “troyanos”21.
Lo que quizás sea más peligroso para el ciudadano y para la sociedad en la que vive es el periodo de transición en el que Internet pueda ser opaca para las fuerzas de seguridad de la inmensa mayoría de los estados soberanos y que, sin embargo, el ciudadano este sometido al más exhaustivo escrutinio por parte del que le presta la constelación de “pasarelas” que conectan los universos HTTP 1.1 y SPDY. En ese escenario, la soberanía real de esos estados quedaría mermada en la misma medida en que sus capacidades de investigación disminuyen y, sin embargo, las empresas de esas pasarelas lo podrían investigar todo para luego “paquetizar” esa información y entregársela al mejor postor, o al más fuerte.
Huelga decir que a ese postor, a esa entidad no la habrá elegido ningún censo amplio de ciudadanos libres e informados siguiendo procedimientos democráticos, ni perseguirá el bien común y universal.