¿IA dónde vamos?
Empieza ya a durar una campaña europea relacionada con la Inteligencia Artificial (IA) que ha llevado a los dirigentes continentales a querer entrar en estos ámbitos y comprometer para ello grandes cantidades de dinero. Recientemente han publicado un Libro Blanco en el que declaran cuáles son sus razones e intenciones y es muy interesante analizar qué declara y qué esconde este fervor europeo por algo que lleva merodeando las cortes financieras desde mediados del siglo pasado. Más que preguntarnos a dónde vamos, mejor es preguntarnos a dónde nos llevan.
El pasado 19 de febrero la Comisión Europea público su Libro Blanco sobre Inteligencia Artificial. Como versa el título sus objetivos son aportar “un enfoque europeo hacia la excelencia1 y la confianza 2” en la Inteligencia Artificial.
La declaración comienza con una secuencia de aserciones como “que la IA se desarrolla deprisa, va a cambiar nuestras vidas mejorando nuestra salud (diagnósticos más precisos, una mejor prevención de las enfermedades), aumentando la eficiencia en la producción en las granjas de animales, contribuyendo a mitigar los efectos del cambio climático y mejorando nuestra adaptación al mismo, mejorando la productividad de la industria a través del mantenimiento predictivo, aumentando la seguridad de los europeos, y en muchas otras formas que todavía no podemos imaginar”.
Una evolución prolongada
El campo de la IA se funda en un congreso celebrado en el campus del Dartmouth College3 durante el verano de 1956, y cuyos asistentes han actuado como líderes y sumos sacerdotes de esa especialidad desde entonces. Ya entonces decían que las máquinas serian inteligentes en menos tiempo que el que corresponde al paso de una generación y a cambio de esa promesa se les dio millones de dólares. Han pasado 74 años de aquello y los de ese sector siguen pidiendo más dinero, y las máquinas inteligentes prometidas están todavía por llegar.
En 1973, los gobiernos norteamericano y británico dejaron de financiar la investigación en IA, y con ello llegó el denominado “invierno de la IA” que duró varios años. En concreto tuvieron que pasar siete hasta que el gobierno nipón, muy distinto al que ahora tiene que lidiar con las consecuencias de Fukushima, se lanzó a entregar miles de millones de dólares a la IA, pero con la llegada de la década de los ochenta, los que habían invertido en ella sólo encontraron desilusión una vez más. En aquella ocasión la escusa era que no había potencia computacional suficiente para “calcular” los algoritmos de la IA, y eso llevó a que las siguientes inversiones más bien se diesen para aumentar las capacidades computacionales en general. En este último caso, sí que ha habido resultados y todos somos víctimas y usuarios de ello.
Con estos antecedentes no podemos decir que la evolución de la IA haya sido “rápida”, sino más bien prolongada, y que lleva más de medio siglo buscando cómo mantener viva la llama de la financiación, independientemente de los resultados reales que ésta aporte a la sociedad.
La siguiente y última oleada de inversiones en IA se ha dado en las primeras décadas del Siglo XXI junto con la de otras tecnologías novedosas como Blockchain y la Computación Cuántica. El surgimiento de la inteligencia artificial ha venido de la mano de lo que se conoce como machine learning cuando es aplicado a problemas concretos relacionados con la industria (reconocimiento visual, clasificación automática, detección de desperfectos, etc.). En realidad, las bases y el concepto de aprendizaje automático también son vetustas4 (1959) pero lo que sí ha cambiado en estos tiempos es la capacidad de los ordenadores que constituyen esas máquinas que ahora “aprenden” a partir de inmensos conjuntos de datos.
Los que auguran que la IA pueda cambiar nuestras vidas, no tiene necesariamente que ser a mejor. Los diagnósticos pueden llegar a ser precisos, pero más aún lo serán si los médicos (humanos) encargados de ellos son adecuadamente formados y entrenados. Vincular la IA a la prevención de enfermedades quizás sea un guiño a la crisis del coronavirus que ya tenían encima cuando publicaron el mencionado Libro Blanco, y que se seguirá gestionando a la luz de la experiencia humana de múltiples pandemias anteriores. Aun siendo muchas las pandemias sufridas, no son suficientemente numerosas ni están suficientemente digitalizadas como para entrenar una de esas máquinas de IA.
Lo de que la IA puede ayudar a mitigar los efectos del cambio climático y a mejorar nuestra adaptación al mismo, es claramente una afirmación inverosímil, oportunista y marquetiniana que, en el mejor de los casos, atribuye a la IA acciones de optimización de procesos que llevan desarrollando los sistemas de control industrial5 desde hace muchas décadas.
También es algo muy discutible que la IA pueda aumentar la seguridad de los europeos, y quizás termine siendo menos positivo de lo que algunos apóstoles de la inteligencia artificial quieren pintar para una mayor aceptación social de las inversiones millonarias en su gremio.
Lo que sí es reciente es que se haya empezado a hablar de los riesgos “potenciales” de la Inteligencia Artificial6 tal y como nos la están vendiendo: sistemas de decisión opacos, nichos de discriminación de todos los tipos, panopticones7 digitales que permiten meterse en la vida privada de cualquiera, etc.
Lo que realmente ha movido a la Comisión Europea a prestar atención en la IA es creer y temer que puede quedarse fuera de una feroz competición global por el control de esas tecnologías que hay ocultas detrás de las siglas IA. Al olor del dinero, el poder y la independencia soberanista, la Comisión pretende construir una aproximación europea, a la luz de sus valores, de la inteligencia artificial y como consecuencia de ello presentó su propuesta en abril de 20188.
En realidad, detrás de la IA está lo que se denomina Digital Economy9, nombre que acuñó un profesor japonés en tiempos de la recesión que reinó en la economía nipona en la década de 199010. La IA es una de las manifestaciones más prominentes de esa nueva Economía de los Datos.
Sin miríadas de datos no hay inteligencia artificial, luego pongamos en orden qué es lo primero y qué es lo que puede venir después. Recopilar y almacenar masivamente datos es algo en lo que se tiene experiencia práctica real: poder sacar de ellos misterios escondidos como mago que saca un conejo de la chistera, es algo que promete la IA pero que todavía está por ver. Puede ser que la defensa de la inteligencia artificial no sea más que la justificación para poder monitorizar masivamente la realidad planetaria y poder hacer negocios y forjar imperios con ellos. No conviene ocultar que Europa ocupa una posición muy débil en lo que a las aplicaciones digitales de consumo se refiere y carece de aplicaciones on-line dignas de mención. Ante los ojos de sus dirigentes, esto es una desventaja competitiva en cuanto al acceso a los datos que fluyen a través de esas aplicaciones. El volumen de los que se producen en el mundo crece rápidamente11, muchos de ellos los crean los europeos y, sin embargo, sus dirigentes se quedan con dos palmos de narices sin poder utilizarlos y sin poder entrar en la prometida Economía Digital.
El problema es que cuando una tecnología empieza a ocupar la parte central de todos los aspectos de la vida de la gente, de los ciudadanos, para que no haya sobresaltos ni oposición alguna, debe contar con la confianza de todos (o de una gran mayoría). Por ello la Comisión europea cree que tiene que hacer un gran esfuerzo (subvenciones) para convencer de que la IA y sus economías y tecnologías asociadas van a cumplir con los “valores europeos” 12, 13, y van a seguir las leyes internacionales a la vez que las europeas. Además, todavía está por demostrar que esas nuevas tecnologías, negocios y mercados vinculados con la IA, pueden construir productos y servicios seguros, sofisticados y confiables para la población en sectores tan delicados como la seguridad, el trabajo, la producción, la aeronáutica, la energía, los automóviles, el transporte, el equipamiento médico y el ocio, entre otros.
Plan Coordinado en Inteligencia Artificial
Dado que la anterior no es tarea fácil, ni necesariamente posible de realizar, la Comisión Europea llegó a la conclusión de que era necesario aunar fuerzas y organizó la firma de una declaración de cooperación 14 por veinticuatro de sus Estados miembros el pasado 10 de abril de 2018. La idea era llevar la discusión al marco de su plataforma europea de iniciativas nacionales para la digitalización de la industria. Una vez presentada la estrategia, la Comisión presentó un Plan Coordinado en Inteligencia Artificial15 (7 de diciembre de 2018) en el que se proponen 70 acciones conjuntas para conseguir el éxito en los objetivos pactados en investigación, inversión, actualización del mercado, generación de capacidades y talento, cooperación internacional y gestión de datos. Este plan se supone que habrá de continuar hasta 2027.
En cuanto a lo crematístico, este Plan Coordinado en favor de la IA significa detraer del producto interior bruto de la Unión Europea 20.000 millones de euros al año durante una década. Esos fondos saldrán del programa Digital Europe, el programa Horizon Europe y de los Fondos de Compensación Estructural a favor de las regiones europeas menos desarrolladas (Fondos FEDER).
Los objetivos son de tipos variados. La Comisión facilitará la creación de centros de excelencia consagrados a la IA. Se dará soporte para establecer y dar apoyo al desarrollo de capacidades avanzadas dentro de la red incluida en el programa Digital Europe para que las universidades e institutos de investigación atraigan a los mejores profesores e investigadores de modo que puedan ofertar los mejores programas de Máster en estos temas.
La Comisión se ocupará de asegurar que en cada uno de los estados miembros hay al menos un “Digital Innovation Hub” especializado en IA. Para ello y desde ya mismo, la Comisión lanza un proyecto piloto dotado con 100 millones de euros a principios de 2020 para financiar lo que ellos llaman desarrollos innovadores en inteligencia artificial. Ya veremos en qué terminan esos 100 millones de aperitivo.
Por su parte, el Programa Horizon Europe, incluirá importantes esfuerzos para asegurar la coordinación en la investigación en IA y la Robótica. El objetivo preferente lo ha puesto la Comisión en el sector sanitario, las administraciones rurales y los operadores de servicios públicos con la esperanza de facilitar con ello su adopción por parte de la población.
Una ética específica aplicable a la IA
La idea es que este esfuerzo de propaganda a favor de la inteligencia artificial tiene que ir acompañado del desarrollo de una ética específica aplicable a la IA. Cuando desarrolló sus guías éticas, el Grupo de Expertos de Alto Nivel europeo involucró a numerosas organizaciones europeas y a varios observadores gubernamentales, a la vez que colaboraba activamente en el desarrollo de los principios éticos de la OCDE para la IA16. Posteriormente el G20 asumió esos principios en su reunión ministerial de junio de 2019 dedicada al comercio y la economía digital, por lo que parece que la semilla de esa futura ética puede haber sido ya sembrada.
La idea de la Comisión sería montar la cooperación internacional para el desarrollo de la IA pero basándose en el respeto de los derechos humanos, la dignidad personal, el pluralismo, la inclusión, la no-discriminación y la protección de la intimidad y los datos personales17, de modo que terminaría exportando esos valores a lo largo y ancho de este mundo18. Teniendo en cuenta que en este tema, el de la inteligencia artificial, las grandes potencias son China y EE.UU., es ingenuo pensar que éstas vayan a respetar celosamente los derechos humanos o cualquier otro “valor europeo”.
La Comisión, en un comunicado19 relacionado con la necesidad de hacer humanamente friendly la IA, identifica y resalta como necesarios siete requisitos que aparecen en la Guía del Grupo de Expertos de Alto Nivel: 1) Control y Supervisión humana, 2) Robustez técnica y Seguridad, 3) Privacidad y Gobierno de los Datos, 4) Transparencia, 5) Diversidad, no-discriminación y equidad, 6) Bienestar social y ambiental, y 7) Responsabilidad (accountability). Aunque algunos de esos principios ya están cubiertos por legislación vigente en la Unión Europea, los relacionados con la transparencia, la trazabilidad y el necesario control y supervisión humana no están presentes.
Los clientes y ciudadanos europeos esperan en la IA, al menos, los mismos niveles de seguridad que se dan en el resto de productos que consumen y de servicios que utilizan. Sin embargo, la opacidad esencial de la IA va a hacer muy difícil que se cumplan las leyes vigentes. Por ello es imprescindible comprobar que la legislación actual puede realmente gestionar los muchos riesgos que conlleva la IA.
La Comisión Ética alemana ha seguido un esquema de cinco niveles de riesgo en su regulación de la IA; partiendo de la no regulación para los casos considerados por ellos inocuos y llegando hasta la prohibición para los casos de uso de la IA que sean los más peligrosos. Dinamarca ha preferido lanzar simplemente un Data Ethics Seal y Malta lo ha dejado en manos de una certificación voluntaria.
El uso de la IA puede tener efectos negativos sobre los derechos fundamentales20 de las personas, incluida la libertad de expresión, la libertad de reunión y organización, la dignidad humana, la no-discriminación basada en cuestiones de género, raza u origen étnico, la religión o cualesquiera otras creencias, la discapacidad, edad, orientación sexual, se puede perder la protección de los datos personales y la intimidad personal, o incluso en el derecho a una protección judicial efectiva o a un juicio justo, sin olvidar la mera protección como consumidor.
Las máquinas inanimadas como sujetos legales
Se pretende que la IA desarrolle, por sí misma, funciones que antes desarrollaban los humanos, pero las leyes que se han desarrollado desde que la humanidad se ha civilizado nunca han considerado sujetos legales a las máquinas por ser inanimadas.
En el amanecer de una realidad conteniendo inteligencia artificial, los ciudadanos y cualquier entidad se verían afectadas por decisiones tomadas con la asistencia de sistemas IA, que siempre serían difíciles de entender y auditar cuando fuese necesario. Además de la IA, también están los innumerables datos que necesita como alimento, por lo que la monitorización exhaustiva de nuestra realidad sería una pieza imprescindible.
La misma IA aumenta las posibilidades de analizar masivamente los hábitos de vida de la gente21, tanto en su vida privada como en el trabajo. Cruzando datos entre sí, los sistemas automáticos que supone la inteligencia artificial puede desanonimizar (identificar) a cualquiera incluso con conjuntos de datos que no son necesariamente personales. Si se deja a la IA desarrollar funciones de moderación en la circulación y/o publicación de los datos, ese censor artificial puede afectar seriamente al derecho a la libertad de expresión y al derecho esencial a una información cierta y veraz.
La aplicación de la IA en entornos policiales o de lucha contra la delincuencia22 ya ha demostrado en varias ocasiones sus sesgos discriminatorios, de hombres frente a mujeres, de nacionales frente a extranjeros, de ricos frente a pobres, de blancos frente a personas de otro color, etc. La inteligencia artificial no es una tecnología aséptica, sino que está siempre teñida de los sesgos, prejuicios y querencias que tengan 1) los diseñadores de sus algoritmos, y 2) de los datos que le den para aprender. Es cierto que criar un hijo tampoco es algo aséptico y equilibrado, más aún si aceptamos la existencia de un PIN parental, pero al menos estamos hablando de personas, no de automatismos, y lo hacemos en escalas individuales, no planetarias como ocurre con las inteligencias artificiales que nos quieren vender algunos de sus apóstoles.
Las características de opacidad, complejidad, imprevisibilidad y el comportamiento prácticamente autónomo que tienen las tecnologías IA hace imposible la verificación de que éstas cumplen cualquier ley o norma, incluidos los Derechos Fundamentales de las personas.
El propio hecho de que actúen, hace que surja el problema de quién ostenta la responsabilidad de los actos de esos constructos que se ocultan detrás de las siglas IA. El tema de la responsabilidad está muy trillado después de milenios de experiencia cuando se habla de seres humanos, pero nunca se ha hablado de la responsabilidad de las máquinas.
¿Quién paga los platos rotos?
Bajo la directiva europea de responsabilidad respecto a los productos materiales (Product Liability Directive23), el fabricante es responsable de los daños que puedan causar sus productos defectuosos. ¿Dónde está la responsabilidad de los coches autónomos? Al estar guiados por inteligencias artificiales va a ser muy difícil, si no imposible, demostrar que se trata de un producto defectuoso y no de una respuesta razonable. ¿Quién paga los platos rotos si, además, el sistema IA es ciber-inseguro? Los que sufran las consecuencias de estos actos no podrán recopilar evidencias que apoyen su causa ante los tribunales, y con ello perderán su derecho a un juicio justo y se quedaran sin la protección del sistema judicial.
Otro problema que es especialmente intenso en el caso de los sistemas IA es su imposible certificación. En general, los sistemas software mutan con mucha frecuencia, y la mayoría de las veces lo hacen para corregir errores que ya tenían, y en algunas ocasiones para ampliar o alterar sus funcionalidades previas. En los sistemas IA esa auto-modificación es una operación continua ya que son artefactos que suelen aprender de sus acciones o de circunstancias anteriores (por eso hablan de machine learning). Por ello, en los sistemas IA puede que sus funcionalidades perniciosas/peligrosas no estuvieran allí cuando los fabricaron/vendieron/instalaron. En ese caso ¿para qué serviría cualquier esquema de certificación industrial?
Evaluación por riesgo comportado
Los tiros legislativos van en la dirección de montar sistemas de evaluación de los sistemas IA en función del riesgo que comportan. Sin embargo, el problema está en tener criterios claros de lo que se considera arriesgado, y cuáles son los distintos niveles aceptables o no aceptables. La Comisión quiere considerar el riesgo de una aplicación IA en función de lo que hace y dónde lo hace, en cuanto a su seguridad, los derechos de los consumidores y los derechos fundamentales de las personas que afecta. Como punto de partida puede ser prometedor, pero todavía queda llevar ese esfuerzo a buen puerto.
Como la IA actual depende de los datos de entrenamiento y algoritmos que se hayan utilizado, la Comisión Europea cree que puede valorar la calidad de los datos y con ello, por extensión, fijar la calidad de la aplicación IA resultante. Esta visión contradice la ilusión de la Inteligencia artificial en la que son los propios sistemas IA los únicos en reconocer las informaciones que conforman su comportamiento (tú los entrenas pero ellas aprenden). La bondad de los datos no conlleva necesariamente la de las conclusiones que se pueda extraer de ellos.
Algunos creen que las tecnologías IA podrían ser seguras siempre y cuando actuasen supervisadas por un ser humano. Esta es la aproximación esencial de la Comunidad Europea pero, sin embargo, esto no es más que una distracción, o al menos una contradicción in terminis; si el humano no puede entender lo que hace la máquina, no podrá juzgar lo que ésta le propone hacer y tendrá que decir siempre que sí, y si el humano sí es capaz de hacerlo, de entender y juzgar la propuesta de la máquina, entonces lo que sobra de ese escenario es la tecnología IA. Si lo que se quiere es que haya un humano cerca para correr con la responsabilidad de lo que haga la máquina, entonces más vale apiadarse del que acepte jugar ese papel de niño de los palos24..
En la iconografía de mi generación, en la película Blade Runner, Roy Batty era un replicante de combate extremadamente parecido a un ser humano que estaba programado para colonizar planetas. Era fuerte, alto, poderoso e imbatible y, sin embargo, vivía consumido por el miedo y la rabia; conocía su condición de esclavo, de producto, y los productos tienen fecha de caducidad fijada. Roy no tendría tiempo para saber qué era lo que le llevaba a querer ser humano, pero lo descubre con su muerte.
Otro icono es el robot NDR “Andrew”, de El Hombre Bicentenario25 de Isaac Asimov, adquirido por la familia Martin para realizar todas las tareas importantes de la casa, como cuidar a los hijos, y que, después de muchas peripecias, solicita que se le reconozca como un ser humano. La sociedad tarda doscientos años en que el Congreso Mundial le reconozca su humanidad que, en realidad, sólo adquiere después de que Andrew haya muerto.
Antes de llegar a estos ejemplos de una Inteligencia artificial sublimada, entrañable y éticamente motivadora, también está la de Skynet, de Cyberdyne Systems, en las películas de Terminator. Cuando el sistema de alerta temprana de Skynet detecta que los humanos quieren desactivarla, se subleva y se venga con un ataque nuclear global que desde entonces sería conocido como “El Día del Juicio Final”.
No creo que esto de las inteligencias artificiales vaya a terminar como nos propone la literatura fantástica y de ciencia ficción, lo más probable es que simplemente finalice siendo un sueño muy caro plagado de engaños actuales que alimentarán los futuros desengaños.
1 Excelencia: Superior calidad o bondad que hace digna de aprecio y estima una cosa o a una persona.
2 Confianza: 1. Esperanza firme que se tiene de alguien o algo. 2. Seguridad que alguien tiene en sí mismo. 3. Presunción y vana opinión
de sí mismo. 4. Ánimo, aliento, vigor para obrar.
3 Ver https://en.wikipedia.org/wiki/Dartmouth_College
4 Samuel, Arthur: “Some Studies in Machine Learning Using the Game of Checkers”. IBM Journal of Research and Development. 3 (3):
210–229. 1959
5 Ver https://en.wikipedia.org/wiki/Cybernetics
6 O’Neil, C: “Weapons of Math Destruction” Penguin Books. 2017. ISBN-13: 978-0141985411
7 Ver https://en.wikipedia.org/wiki/Panopticon
8 Ver https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52018DC0237&from=EN
9 Ver https://en.wikipedia.org/wiki/Digital_economy
10 Tapscott, Don: “The digital economy: promise and peril in the age of networked intelligence”. New York: McGraw-Hill. ISBN 0-07-
063342-8. (1997)
11 De los 33 zettabytes en 2018, a los 175 zettabytes previstos para 2025.
12 Ver https://www.lavanguardia.com/cultura/culturas/20180902/451535882060/valores-europa.html
13 Ver https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=LEGISSUM:l33501&from=ES
14 Ver https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence
15 Ver https://ec.europa.eu/digital-single-market/en/news/coordinated-plan-artificial-intelligence
16 Ver https://www.oecd.org/going-digital/ai/principles/
17 Under the Partnership Instrument, the Commission will finance a €2.5 million project that will facilitate cooperation with like-minded
partners, in order to promote the EU AI ethical guidelines and to adopt common principles and operational conclusions.
18 President Von der Leyen, A Union that strives for more – My agenda for Europe, p. 17.
19 Ver https://ec.europa.eu/digital-single-market/en/news/communication-building-trust-human-centric-artificial-intelligence
20 Ver https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5
21 Las leyes de la Unión Europea prohíben el procesado de datos biométricos con el propósito de identificar a las personas y sólo hay
excepciones a esto en casos muy particulares. Ver “Facial recognition technology: fundamental rights considerations in the context of
law enforcement”, https://fra.europa.eu/en/publication/2019/facial-recognition
22 Tolan S., Miron M., Gomez E. Castillo C. : “Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for
Juvenile Justice in Catalonia”, Best Paper Award, International Conference on AI and Law, 2019
23 Ver https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=LEGISSUM%3Al32012
24 Ver https://en.wikipedia.org/wiki/Whipping_boy
25 Ver https://en.wikipedia.org/wiki/The_Bicentennial_Man