Combatir la desinformación desde la ciberseguridad

Durante las últimas semanas, no pocos profesionales de la ciberseguridad han verificado cómo la manipulación de la información se consolidaba como una nueva superficie de ciberataque, surgida al amparo de la avalancha de datos utilizados en la toma de decisiones.

La Unión Europea1 no ha sido ajena a esta situación. De facto, ENISA2 ha puesto en marcha nuevas capacidades para la monitorización y seguimiento de los procesos de desinformación, apoyándose en conceptos que están íntimamente relacionados con la ciberseguridad y que se sustentan en sus cuatro grandes pilares -las cuatro “T”, por sus siglas en inglés: el terreno, las tácticas, los objetivos (targets) y las tentaciones3–.

Tecnología al servicio de la desinformación

Partiendo de estas premisas, el uso dual que tiene actualmente la tecnología impacta a las amenazas que genera la desinformación. Podríamos decir que hace más difícil su identificación y seguimiento. No en vano, los agentes de la desinformación han aprendido a utilizar la tecnología con contenidos reales y convertirlos en datos manipulados4 que llevan el sello de “verdades a medias” –o, como diría Antonio Machado, “dobles mentiras”–.

En este contexto, las técnicas de ciberseguridad tradicionales de detección y prevención parecen haberse quedado cortas y quizá ha llegado el momento de tratar la desinformación como una amenaza más –del mismo modo que, hace tiempo, ya empleamos, por ejemplo, con las inyecciones SQL o los XSS– y aplicar, por tanto, todo el conocimiento adquirido para protegernos de su impacto.

Defensa Activa contra la desinformación

La desinformación ha abierto un nuevo debate; un debate en torno a la posibilidad de escalar en la defensa activa, en ejecutar acciones que permitan compensar el efecto multiplicador que tiene una secuencia encadenada de datos intencionadamente manipulados.

El sector la ciberseguridad lleva tiempo trabajando en cómo definir y legalizar este tipo de acciones, apoyándose fundamentalmente en técnicas como la Inteligencia Artificial. En la actualidad, ya existen soluciones que catalogan la veracidad de una información; el empleo de información de contexto veraz con la que contrastar los datos manipulados; la lucha contra el atractivo económico—por ejemplo, clic-baits— que supone el consumo de este tipo de información; los filtros tecnológicos que impiden su propagación telemática (p.ej. la restricciones en dominios de Internet); la identificación visual de la manipulación de la información frente las nuevas deep fakes; o el desarrollo de herramientas de verificación o portales fact-checks5.

Una estrategia contra la desinformación podría desarrollarse, por ejemplo, tomando medidas que mantengan analogías con las tradicionales técnicas de ciberdefensa y que incluirían, entre otros, los siguientes pasos:

  • Un control muy riguroso de los registros de nombres en Internet. De hecho, la Comisión Europea ha publicado una propuesta de Directiva NIS 2, que considera a los registros de dominios de primer nivel (TLD) como “entidades esenciales”, junto a otros actores que son “críticos para la integridad de internet”. Ligado al control de registros de dominios estaría el bloqueo en los sistemas de seguridad basados en el filtrado DNS de cualquier dominio no confiable.
  • La reputación o el rating de los proveedores de información o de una información concreta. Hace más de 20 años que desde el sector se empezó a implantar la reputación de los remitentes de correo para controlar el spam y hoy en día, sigue siendo el mecanismo con el que más correo electrónico se bloquea. Sería preciso por tanto incorporar un esquema de reputación para la difusión de noticias que pudiera estar ligado al propio emisor o al contenido concreto (algo que sería más eficaz, si bien más costoso de mantener en el tiempo).
  • La supervisión y control de perfiles en las redes sociales. Las grandes tecnológicas, Facebook6, Twitter7 o Google8, ya han desarrollado herramientas para verificar la veracidad de los datos divulgados. Por tanto, aplicar algoritmos de IA para identificar y bloquear perfiles dedicados a su difusión no debería de ser una tarea demasiado complicada.
  • Identificación de patrones. La experiencia de tantos años en el análisis heurístico para la detección de malware y spam podría y debería ser aplicada a la identificación de campañas de desinformación.
  • La colaboración entre entidades, y el intercambio de información de dominios divulgadores, remitentes de noticias falsas, servidores utilizados, usuarios en RRSS, etc. sería vital para poder implantar mecanismos de bloqueo eficaces y con la agilidad necesaria para que fueran realmente efectivos. Podríamos pensar en un modelo similar al que ya se realiza con LUCIA (CCNCERT), o al intercambio de información entre la red de SOC Nacionales.
  • El uso de noticias certificadas (como ya se planteó en su día con el código fuente certificado para el desarrollo de aplicaciones seguras) sería sin duda alguna un gran avance en este sentido, siempre ligado, una vez más, a la integración de estos certificados, tal y como se emplea en herramientas de seguridad en el correo y la navegación por Internet. Sin embargo, esta aproximación aún presenta algunas dudas ya que podría convertirse en un arma de doble filo que tocaría de lleno el derecho a la libertad de expresión. El problema en este caso no sería técnico, sino político y habría que determinar quién le pone el cascabel al gato, o lo que es lo mismo, quién certifica (con una firma digital, por ejemplo) que una noticia es verdadera o no.

Como puede observarse, al final, es posible que a partir de ahora tengamos que empezar a pensar y a hablar de Sistemas de Defensa Activa contra la desinformación, clasificando las estrategias y tácticas de estos agentes de modo análogo a cómo se definen en la Cyber Kill Chain, pero aplicadas, esta vez, a los procesos de desinformación (p.ej. Disinformation Kill Chain9).

1 https://digital-strategy.ec.europa.eu/en/policies/online-disinformation
2 https://www.enisa.europa.eu/topics/threat-risk-management/threats-and-trends
3 https://www.disinfo.eu/advocacy/why-disinformation-is-a-cybersecurity-threat/
4 https://firstdraftnews.org/wp-content/uploads/2019/10/Information_Disorder_Digital_AW.pdf?x76701
5 https://euvsdisinfo.eu/
6 https://about.fb.com/news/tag/misinformation/
7 https://blog.twitter.com/en_us/topics/product/2020/updating-our-approach-to-misleading-information
8 https://toolbox.google.com/factcheck/explorer
9 https://www.dhs.gov/sites/default/files/publications/ia/ia_combatting-targeted-disinformation-campaigns.pdf

Your browser is out-of-date!

Update your browser to view this website correctly.Update my browser now

×