La IA sapiens y el antropoide con carné
Cuando la evolución del clima fue cambiando el bosque y mutándolo en sabana, los homínidos tuvimos que desplazarnos por tierra para alcanzar el siguiente árbol. Y eso marcó nuestro destino. De ahí a pensar y a servirnos de herramientas para hacer cosas todo fue uno.
Queda claro que, desde entonces, la especie humana ha llevado impreso en sus genes el ánimo de explorar, de descubrir, de conquistar, de someter… Comemos de todo, vivimos en donde toque, adaptamos el medio a nuestras querencias y hemos ido criando un acervo lleno de luces y sombras, ciencias y creencias, que justifican una cosa y la contraria.

José de la Peña Muñoz
Director
jpm@codasic.com
Es curioso que en pleno proceso de transformación descontrolada, motivada por el uso intensivo de unas TIC con las que se aspira a automatizar todo lo que se menea, cuando la sociedad y millones de sus individuos, presas de un ánimo inagotable por hacer y deshacer, andan aplicando las matemáticas para ser como los dioses, crear algoritmos inteligentes y manipular la vida… nos encontremos en España con uno de esos deliciosos peteretes que nos regalan de vez en cuando nuestros congéneres Homo gubernamentales y parlamentarios. ¿A qué me refiero? Pues a la Ley 7/2023, de 28 de marzo, de protección de los derechos y el bienestar de los animales, en cuya Disposición adicional cuarta podemos leer lo siguiente: “En el plazo de tres meses a contar desde la entrada en vigor de la presente ley, el Gobierno deberá presentar un proyecto de ley de grandes simios”.
Lo paradójico de todo esto es que, en España, el sapiens sapiens ha llegado casi a la vez a desarrollar su Estrategia Nacional de Inteligencia Artificial y los derechos de los antropoides. Lo primero se lleva en la SEDIA, y lo segundo, no. Y es muy posible que el reconocimiento de derechos a los póngidos (estoy de acuerdo) nos vaya a traer menos quebraderos de cabeza que hacer y usar una IA que merezca tener derechos.
Para empezar en el seno del Consejo Asesor de IA hay revuelo. Resulta que el Gobierno de España y un Laboratorio de Emiratos Árabes habían acordado que el segundo pusiera su sede europea en Granada. Y ante esto, varios miembros han dimitido por no considerar que en el proyecto se vayan a respetar principios éticos y de seguridad en el desarrollo de nuevas tecnologías.
Y en otro orden de cosas, aunque con cierta relación, Microsoft ha dado noticia de su Security Copilot, una IA “moldeada por la IA generativa GPT-4 de OpenAI”, que ayudará a las empresas a minimizar los riesgos de ciberseguridad. Tiene pinta de que será más barata que los servicios de un buen analista.
Todo esto demuestra que nuestra especie sigue siendo curiosa, viajera, descubridora, arriesgada. Y que, ya de forma consciente ya inconsciente, lleva gestionando riesgos desde hace miles de años.
Estos tiempos que nos está tocando vivir nos están enseñando cosas nuevas; por ejemplo, que sin los servicios en la nube de grandes hiperescalares privados, Ucrania no se hubiera mantenido como Estado tras el inicio de la “operación especial” de Putin; o que el ransomware, si las cosas siguen así, será considerado globalmente (y no solo por EE.UU.) como una amenaza a las seguridades nacionales; o que los estados democráticos en los que el entramado público-privado alcance cotas significativas van a tener que revisar la idea de que los únicos que pueden en derecho usar armas (incluidas las cibernéticas) en guerra sean los militares.
Una cosa más: los delitos con sabor cibernético se están disparando. Y el sistema judicial y policial que tenemos no va a poder dar curso a tanto suceso y tanta denuncia. Menos todavía a su feliz resolución. Este es un buen territorio para cambiar, descubrir, arriesgarse... y aplicar IA e ingeniería de automatización. De las buenas.