Combatir la desinformación desde la ciberseguridad

Durante las últimas semanas, no pocos profesionales de la ciberseguridad han verificado cómo la manipulación de la información se consolidaba como una nueva superficie de ciberataque, surgida al amparo de la avalancha de datos utilizados en la toma de decisiones.

La Unión Europea1 no ha sido ajena a esta situación. De facto, ENISA2 ha puesto en marcha nuevas capacidades para la monitorización y seguimiento de los procesos de desinformación, apoyĆ”ndose en conceptos que estĆ”n Ć­ntimamente relacionados con la ciberseguridad y que se sustentan en sus cuatro grandes pilares -las cuatro ā€œTā€, por sus siglas en inglĆ©s: el terreno, las tĆ”cticas, los objetivos (targets) y las tentaciones3–.

Tecnología al servicio de la desinformación

Partiendo de estas premisas, el uso dual que tiene actualmente la tecnologĆ­a impacta a las amenazas que genera la desinformación. PodrĆ­amos decir que hace mĆ”s difĆ­cil su identificación y seguimiento. No en vano, los agentes de la desinformación han aprendido a utilizar la tecnologĆ­a con contenidos reales y convertirlos en datos manipulados4 que llevan el sello de ā€œverdades a mediasā€ –o, como dirĆ­a Antonio Machado, ā€œdobles mentirasā€ā€“.

En este contexto, las tĆ©cnicas de ciberseguridad tradicionales de detección y prevención parecen haberse quedado cortas y quizĆ” ha llegado el momento de tratar la desinformación como una amenaza mĆ”s –del mismo modo que, hace tiempo, ya empleamos, por ejemplo, con las inyecciones SQL o los XSS– y aplicar, por tanto, todo el conocimiento adquirido para protegernos de su impacto.

Defensa Activa contra la desinformación

La desinformación ha abierto un nuevo debate; un debate en torno a la posibilidad de escalar en la defensa activa, en ejecutar acciones que permitan compensar el efecto multiplicador que tiene una secuencia encadenada de datos intencionadamente manipulados.

El sector la ciberseguridad lleva tiempo trabajando en cómo definir y legalizar este tipo de acciones, apoyĆ”ndose fundamentalmente en tĆ©cnicas como la Inteligencia Artificial. En la actualidad, ya existen soluciones que catalogan la veracidad de una información; el empleo de información de contexto veraz con la que contrastar los datos manipulados; la lucha contra el atractivo económico—por ejemplo, clic-baits— que supone el consumo de este tipo de información; los filtros tecnológicos que impiden su propagación telemĆ”tica (p.ej. la restricciones en dominios de Internet); la identificación visual de la manipulación de la información frente las nuevas deep fakes; o el desarrollo de herramientas de verificación o portales fact-checks5.

Una estrategia contra la desinformación podría desarrollarse, por ejemplo, tomando medidas que mantengan analogías con las tradicionales técnicas de ciberdefensa y que incluirían, entre otros, los siguientes pasos:

  • Un control muy riguroso de los registros de nombres en Internet. De hecho, la Comisión Europea ha publicado una propuesta de Directiva NIS 2, que considera a los registros de dominios de primer nivel (TLD) como ā€œentidades esencialesā€, junto a otros actores que son ā€œcrĆ­ticos para la integridad de internetā€. Ligado al control de registros de dominios estarĆ­a el bloqueo en los sistemas de seguridad basados en el filtrado DNS de cualquier dominio no confiable.
  • La reputación o el rating de los proveedores de información o de una información concreta. Hace mĆ”s de 20 aƱos que desde el sector se empezó a implantar la reputación de los remitentes de correo para controlar el spam y hoy en dĆ­a, sigue siendo el mecanismo con el que mĆ”s correo electrónico se bloquea. SerĆ­a preciso por tanto incorporar un esquema de reputación para la difusión de noticias que pudiera estar ligado al propio emisor o al contenido concreto (algo que serĆ­a mĆ”s eficaz, si bien mĆ”s costoso de mantener en el tiempo).
  • La supervisión y control de perfiles en las redes sociales. Las grandes tecnológicas, Facebook6, Twitter7 o Google8, ya han desarrollado herramientas para verificar la veracidad de los datos divulgados. Por tanto, aplicar algoritmos de IA para identificar y bloquear perfiles dedicados a su difusión no deberĆ­a de ser una tarea demasiado complicada.
  • Identificación de patrones. La experiencia de tantos aƱos en el anĆ”lisis heurĆ­stico para la detección de malware y spam podrĆ­a y deberĆ­a ser aplicada a la identificación de campaƱas de desinformación.
  • La colaboración entre entidades, y el intercambio de información de dominios divulgadores, remitentes de noticias falsas, servidores utilizados, usuarios en RRSS, etc. serĆ­a vital para poder implantar mecanismos de bloqueo eficaces y con la agilidad necesaria para que fueran realmente efectivos. PodrĆ­amos pensar en un modelo similar al que ya se realiza con LUCIA (CCNCERT), o al intercambio de información entre la red de SOC Nacionales.
  • El uso de noticias certificadas (como ya se planteó en su dĆ­a con el código fuente certificado para el desarrollo de aplicaciones seguras) serĆ­a sin duda alguna un gran avance en este sentido, siempre ligado, una vez mĆ”s, a la integración de estos certificados, tal y como se emplea en herramientas de seguridad en el correo y la navegación por Internet. Sin embargo, esta aproximación aĆŗn presenta algunas dudas ya que podrĆ­a convertirse en un arma de doble filo que tocarĆ­a de lleno el derecho a la libertad de expresión. El problema en este caso no serĆ­a tĆ©cnico, sino polĆ­tico y habrĆ­a que determinar quiĆ©n le pone el cascabel al gato, o lo que es lo mismo, quiĆ©n certifica (con una firma digital, por ejemplo) que una noticia es verdadera o no.

Como puede observarse, al final, es posible que a partir de ahora tengamos que empezar a pensar y a hablar de Sistemas de Defensa Activa contra la desinformación, clasificando las estrategias y tÔcticas de estos agentes de modo anÔlogo a cómo se definen en la Cyber Kill Chain, pero aplicadas, esta vez, a los procesos de desinformación (p.ej. Disinformation Kill Chain9).

1 https://digital-strategy.ec.europa.eu/en/policies/online-disinformation
2 https://www.enisa.europa.eu/topics/threat-risk-management/threats-and-trends
3 https://www.disinfo.eu/advocacy/why-disinformation-is-a-cybersecurity-threat/
4 https://firstdraftnews.org/wp-content/uploads/2019/10/Information_Disorder_Digital_AW.pdf?x76701
5 https://euvsdisinfo.eu/
6 https://about.fb.com/news/tag/misinformation/
7 https://blog.twitter.com/en_us/topics/product/2020/updating-our-approach-to-misleading-information
8 https://toolbox.google.com/factcheck/explorer
9 https://www.dhs.gov/sites/default/files/publications/ia/ia_combatting-targeted-disinformation-campaigns.pdf

Your browser is out-of-date!

Update your browser to view this website correctly.Update my browser now

×