Sobre las cartas perdidas1 y el gobernar sobre papel mojado

En estos últimos años la Inteligencia Artificial aparece hasta en las sopas de fideos y estamos siendo continuamente bombardeados con la necesidad de tener IAs en cualquier caso y cosa. Los dirigentes sociales/ políticos se han lanzado a decir que van a ponerle normas y leyes a este nuevo fenómeno o amenaza que lo mantengan dentro de un redil aceptado por todos y en el que los derechos fundamentales estén salvaguardados. Sin embargo, no parece que las soluciones que se han publicado, con la de la UE por delante, sean algo más que botes de humo para distraernos e impedir ver lo que realmente está en juego.

Los que saben de esto me han dicho que últimamente hay una verdadera pandemia normativa alrededor de la denominada Inteligencia Artificial. Por una parte está el NIST norteamericano que, desde enero de 2023, tiene un marco de gestión de riesgos2 que incluye a la Inteligencia Artificial. Como no podía ser menos, Google tiene definido su autodenominado Marco Seguro de IA3, la corporación MITRE tiene una propuesta de marco regulatorio para la seguridad de la Inteligencia Artificial4. El instituto europeo ENISA tiene desarrollado un marco multicapa5 con buenas prácticas de seguridad en la IA. Al tiempo, el Comité Asesor Nacional de Inteligencia Artificial de EE.UU., el NAIAC, emitió un informe6 sobre ese mismo asunto y, el Reino Unido, a través del Instituto Ada Lovelace7 propone su visión particular sobre la Regulación de la Inteligencia Artificial8.

El 30 de octubre se adelantó a todos el denominado “Proceso de IA de Hiroshima”9 en la que el G710 publica unos principios rectores generalistas y poco concretos para el desarrollo de los sistemas de Inteligencia Artificial. Y por último, como detalle de color, el 1 y 2 de noviembre de este año se celebró en Blechtley Park11 (Milton Keynes, Buckinghamshire, Reino Unido), a iniciativa del gobierno británico, una cumbre internacional12 sobre IA y Seguridad, a la que incluso estuvo invitada China, a la que dio lugar a la ‘Declaración de Blechtley’.

Dentro de esta carrera por ser el primero que produzca algún tipo de normativa específica para la IA, tenemos la propuesta conocida como “Laying down Harmonised rules on Artificial Intelligence (Artificial Intelligence Act)”13 de la Unión Europea. Sin entrar todavía en detalles, conviene observar y analizar el fenómeno desde fuera y a mucha altura para no percibir, ni con ello perderse, en los detalles. Esta pandemia normativa no sabemos si conducirá a algún resultado efectivo en lo que a la protección de los ciudadanos/ personas se refiere, pero lo que sí está consiguiendo es darle carta de naturaleza14 de existencia a la denominada Inteligencia Artificial.

En nuestra cultura occidental es muy importante darle un nombre a las cosas. Ya lo insinuó el científico Lord Kelvin afirmando15 que no se suele medir o detectar lo que no se sabe que existe, como ocurrió, en su momento, con los Neutrinos16, 17 y otras partículas subatómicas. Los Golem18 hebreos adquirían su vitalidad con el nombre de Yaveh19 escrito en un papel y puesto dentro de sus bocas. Las distintas versiones de la Biblia exigen que “no tomarás del nombre de Dios en vano” (Ex 20:7). O cuando Umberto Eco decide terminar su obra más conocida con la idea aristotélica de que las cosas adquieren su entidad a través de su nombre, y al final sólo queda el nombre; “Stat rosa pristina nomine, nomina nuda tenemus”. Las tradiciones vampíricas20 de centro Europa recuerdan que los malignos no pueden entrar en una casa a menos que se les invite21 a hacerlo, a menos que se pronuncie su nombre. Por si fuera poco todo lo anterior, en EE.UU. pasó algo parecido y H.P. Lovecraft22 centró todos sus miedos menos concretos y más desconocidos en el arcano al que él llamó “el innombrable”23.

Con tanta normativa quizás estemos dando nombre a “algo” que realmente no existe, e invocándolo lo hacemos existir. En primer lugar, habría que debatir seriamente si sería posible desarrollar un “instrumento/documento holístico” que (1) describa correctamente los sistemas de Inteligencia Artificial y (2) que permita su control efectivo. A lo que estamos acostumbrados en occidente es a desarrollar documentos, manuales, declaraciones y métodos de gobernanza para sectores esencialmente distintos al de la Inteligencia Artificial, como son los entornos y las relaciones laborales, el necesario y esencial ámbito sanitario o el arcano quehacer militar, el transporte de todo tipo, entre otros. En estos últimos casos encontramos con naturalidad los códigos de conducta, los principios éticos y las normas técnicas de todo tipo, así como leyes de mando y control que, en muchos casos, se han mostrado útiles por lo que son el camino correcto a seguir. Si tal cosa fuese posible para la Inteligencia Artificial y todo lo que la rodea, aún no estaría claro, entre otras cosas, cuál debe ser su alcance, dada la mala definición actual de lo que ahora se engloba dentro del término “Inteligencia Artificial”.

En segundo lugar, no hay que olvidar que existen debates similares a los que copan la atención de la mayoría y que son aún más fundamentales que éstos, y en ellos se plantea si la Inteligencia Artificial realmente existe o es simplemente un término de moda que describe al software avanzado y/o a la ingeniería de datos puestos a imaginar lo que no está claro que algún día lleguen a conseguir. Y si existiese la Inteligencia Artificial como tal, ¿cuál es su alcance real y su utilidad? Sin una precisa descripción de la esencia, limitaciones y cualidades de una actividad cualquiera es difícil pensar que se pueda hacer algo serio con ella.

Hay que tener muy presente que la Inteligencia Artificial no es un producto (tangible), ni un servicio del tipo de los que estamos acostumbrados (Internet, Google, la Nube, plataformas de streaming, etc.). Por el contrario, las tecnologías digitales en general y la IA en particular, son sistemas que se entregan y crean dinámicamente y pasan a través de numerosas manos en diferentes contextos y tienen diferentes impactos sobre diferentes individuos y/o grupos. En este escenario, ¿sobre quién en concreto y de qué manera se pueden repartir las responsabilidades que tienen todos ellos? Todavía hoy no lo hemos sabido hacer precisamente eso con el software y los distintos servicios de Internet, ¿por qué esta vez podríamos estar más atinados y tener más éxito con la AI?

Aquellos sobre los que afecta la denominada Inteligencia Artificial –que alguno podrían ver como si fuesen los usuarios finales, las fuentes de datos o simplemente como los clientes de la misma–, no tienen derechos efectivos y, prácticamente, no tienen papel activo (y consciente) que jugar dentro de la propuesta hecha por la Unión Europea (The AI Act). El que no se mencione profusamente al ciudadano en ese documento hace incapaz de poder ser un instrumento normativo de la Unión Europea para proteger los derechos fundamentales de los ciudadanos (ausentes en su redacción).

La naturaleza declarada de que el documento The AI Act europeo está “basado en los riesgos” es algo ilusorio y arbitrario. Toda evaluación de riesgos que se precie, incluye una declaración previa y completa de los criterios sobre los que se basa tal evaluación y que éstos sean tales que cualquiera pueda revisarlos. La propuesta de la UE carece de una evaluación suficientemente precisa y extensa (en el tiempo y en el espacio) del riesgo real que supone la IA, y todo lo que lleva asociada, para los derechos fundamentales de los ciudadanos europeos y de los seres humanos en general. Y, en cualquier caso, ésa evaluación debe extenderse a todos los niveles de la Inteligencia Artificial, y no sólo limitarse a la Inteligencia Artificial por ellos denominada “de alto riesgo”.

Si no recuerdo mal, esto empezó en el limbo de las interfaces de usuario. Al principio se perseguían sistemas automáticos capaces de leer/escribir un texto hablado por humanos independientemente del idioma que hablasen y, puestos a pedir, las condiciones del entorno en las que se realizase la captura de la locución.

Luego le siguió el querer entender textos transcritos de fuentes humanas (lenguajes naturales) con el ánimo de establecer un nivel mínimo de comprensión conductista (voice control). El objetivo era poder dar órdenes sencillas a dispositivos y sistemas como se les dan órdenes a perros y mascotas.

Aderezados con un exacerbado optimismo debido a la carrera en la escala de integración de dispositivos lógicos en silicio24, y con los resultados marginales de las redes neuronales25 o sistemas conexionistas y las lógicas umbral26, ello unido a que al final de la década 1940 D.O. Hebb27 lanzó la hipótesis de un posible aprendizaje basado en la plasticidad de las neuronas, que se conoce como Hebbian learning28; algunos visionarios empezaron a imaginar “inteligencias” superiores a la de nuestras mascotas. La literatura de Ciencia Ficción29 estaba llena de ejemplos de ello y que nunca pretendieron (afortunadamente) ser más que preciados productos literarios.

Entre 1974 y 1980 se produjo lo que se ha dado en llamar el Primer Invierno de la IA durante el cual la Inteligencia Artificial fue objeto de serias críticas e importantes reveses financieros. Consciente o inconscientemente, los investigadores en IA no habían apreciado la magnitud y esencia de los problemas a que enfrentaban. Su excesivo optimismo (interesado y narcisista) había elevado las expectativas de sus consecuciones o avances (verificables) a niveles imposiblemente altos, y cuando llegaron los resultados reales, las panaceas prometidas no se materializaron y brillaron intensamente por su ausencia, con lo que la financiación de la que habían gozado hasta entonces desapareció.

Al mismo tiempo, se cerró casi por completo durante una década la exploración de redes neuronales artificiales simples de una sola capa, debido al libro de Marvin Minsky30 que establece los límites de lo que pueden hacer los perceptrones31. Sin embargo, y a pesar de las dificultades con la opinión pública de la autodenominada “Inteligencia Artificial”, se siguieron explorando nuevas ideas en la programación lógica, el razonamiento de sentido común y muchas otras áreas semejantes, dentro de la comodidad, tranquilidad y estabilidad que dan los centros académicos (universidades).

Por su parte, algunos filósofos presentaron objeciones muy serias a los objetivos que se marcaban los investigadores en Inteligencia Artificial. Uno de los primeros y más serios es el de John Lucas32, que argumenta que el Teorema de Incompletitud de Gödel33 muestra que cualquier sistema formal, como lo es cualquier programa de ordenador, nunca podrá ver la verdad o mentira de una afirmación mientras que un humano (cultivado) si podría hacerlo34.

Hubert Dreyfus35 ridiculizó las promesas incumplidas de la década de 1960 y criticó los supuestos básicos de la IA36, argumentando que el razonamiento humano en realidad tiene muy poco de “procesamiento de símbolos” y si una gran cantidad de “know-how” (experiencia) encarnada, instintiva e inconsciente.

El argumento de la habitación china de John Searle37 intentó demostrar38 que no se podía decir que un programa “entendiera” los símbolos que utiliza (una cualidad llamada “intencionalidad”39). Si los símbolos no tienen ningún significado para la máquina, entonces la máquina no puede ser descrita como “pensante”.

El argumento de John Searle lo presentó en su artículo “Minds, Brains, and Programs”, publicado en la revista “Behavioral and Brain Sciences” en el año 1980, pero argumentos similares a los suyos los presentaron gentes como Gottfried Leibniz40 (1714), Anatoly Dneprov41 (1961), Lawrence Davis (1974) y Ned Block42 (1978). La versión de Searle ha sido muy discutida desde entonces y su piedra angular es un experimento conocido como “The Chinese Room”43.

A pesar de tan serias críticas los defensores de la quimera IA siguieron indiferentes y laboriosos y, con algo de ruido, consiguieron cambiar las tornas y llegar a lo que se conoce como “La Primavera de la IA”44. Con este nombre nos referimos al periodo de resurgimiento público y tecnológico que se ha dado en el desarrollo de la Inteligencia Artificial, en concreto con la carrera de las IAs Generativas45 como principal beneficiado y autor de este segundo resurgir público de la Inteligencia Artificial.

La galerna temática actual comenzó con la fundación de la empresa OpenAI46 en 2016 o 2017. Sus diversos modelos GPT (a partir de 2018) y DALL-E (2021), han desempeñado un papel importante en el impulso de este desarrollo. Aquí también contribuyen varios “chatbots” basados en modelos del lenguaje humano tales como ChatGPT47, Bing Chat48, Bard49, y LLaMA50, así como sistemas de inteligencia artificial de transformación de texto-a-imagen51 como Stable Diffusion52, Midjourney53, y DALL-E54.

Entre 2022 y 2023, el gran público conoció asombrado lo afable de los robots “sabelotodo” basados en grandes modelos de lenguaje humano, y la posibilidad de verlo todo si se lo pedías a nuevos modelos generativos que traducen textos (deseos55) en imágenes o videos, cuyos resultados son humanamente indiscernibles de la realidad percibida, así como el software de síntesis de discursos que es capaz de suplantar eficientemente a cualquiera diciendo cualquier cosa. Con esta evolución ha muerto la posibilidad humana de volver a “confiar” en los medios digitales; lo que oigamos y veamos no necesariamente tienen que haber sido realidad nunca (aviso a legisladores y jurisprudentes).

Al mismo tiempo se ha producido una fiebre en los mercados capitalistas y en la geopolítica de altos vuelos para ganar cuotas de ese potencial mercado de la información y del control social y ello ha llevado muchas veces a un ridículo aumento de la presencia en todas partes de la manida Inteligencia Artificial y sus herramientas56.

Este renacer de la Inteligencia Artificial viene de la mano de nuevas promesas, de nuevas posibilidades que crea la IA57, sus potenciales (pero no demostrados) beneficios para la Humanidad, y la sofisticación en general que aportan (¿beneficio de ello?), mientras que hay detractores que plantean el peligro que la IA supone para (1) los empleos y el mercado laboral, y (2) para la formación e información de los ciudadanos, así como para (3) la necesaria confianza sobre la que se erige cualquier sistema social no coercitivo.

Deberíamos habernos planteado desde el mismo primer invierno de la IA, su pertinencia en las sociedades que han resultado después de miles de años de “cocción” netamente humana y debida a la mucha o poca inteligencia natural que nos asiste a cada uno de nosotros. Probablemente el que no se estuviese digitalizando la sociedad hizo pensar que los experimentos académicos de entonces no podían hacer daño a nadie. Sin embargo, el escenario ha cambiado y ahora la propaganda de la IA cae sobre una sociedad capitalista de sesgo neoliberal que está parcialmente digitalizada y con un montón de problemas sociales y económicos que todavía están pendientes de ser resueltos. La pregunta que nos debemos hacer no está en si la Inteligencia Artificial es buena o mala, sino en (1) las aplicaciones que queremos hacer de ella, y (2) sobre qué escenario queremos dejarla campar.

Los robots son absolutamente necesarios cuando las operaciones son físicas, repetitivas, precisas y, con ello, esencialmente alienantes para el ser humano. Otra cosa es que defendamos la aparición y el uso de chatbots o cualquier otra IA para (1) enseñar a nuestros hijos, (2) acompañar a nuestros ancianos y enfermos, (3) atendernos servilmente con la mera audición de nuestras preguntas/ órdenes, (4) informarnos de lo que ocurre a nuestro alrededor y que casi seguro requiere de nuestro posicionamiento social, o bien sean los que tienen que (5) decidir si nos operan o no, qué tratamiento médico vamos a sufrir o en qué posición estamos en la lista de trasplantes de órganos. Esta no es una lista pretendidamente exhaustiva, pues son muchas más las curiosas aplicaciones58 que sin una evaluación seria y previa de riesgos, se lanzan a bendecir las campañas publicitarias de los lobbies de la IA que sólo esperan hacer con todo esto un gran pelotazo económico o un nuevo orden de monitorización, orden y control.

Todas las Inteligencias Artificiales son sociópatas59 y psicopáticas60 por definición y carecen de la más mínima empatía61. Como sociedad avanzada que somos, ¿por qué queremos entonces rodearnos de seres tan incompletos y potencialmente peligrosos como los de la IA, cuando entre los humanos ese riesgo solo se da entre un 1 y 4% de casos? ¿Por qué cambiar personas responsables por robots inimputables?

El desplazamiento que supone el sustituir personas por chatbots o IAs indistinguibles de un/una humano/a educado/a, medianamente culto/a y algunas veces acertado/a, disgrega la convivencia entre humanos y eso tiene un precio. Miles de años han demostrado que los individuos somos fruto de mucha genética y bastante fenotipo62, pero lo que sí está muy claro es que somos humanos en tanto y cuanto las relaciones/interacciones sociales que mantenemos durante toda nuestra vida. Cualquier corriente tecnológica que favorezca el aislacionismo individual nos lleva más y más a la Isla de Robinson Crusoe63, al cual no le faltaba nada esencial, excepto alguien realmente humano con quien hablar y convivir.

De nada sirve venir ahora con normativas y supuestas leyes que son esencialmente simbólicas e imposibles de monitorizar y de hacer cumplir. Ya las Leyes de Protección de Datos Personales son una declaración universal de un bien que debería protegerse (la intimidad personal de todos y cada uno de los seres humanos), pero las iniciativas que se han propuesto para meter en cintura a la Inteligencia Artificial y los múltiples negocios que acuna (muchos de ellos inconfesables), son todavía más virtuales, gaseosas, inmateriales y de dudoso cumplimiento que el Reglamento de Protección de Datos Personales.

Una ley que no se cumple, también conocidas como Leyes Simbólicas o Testimoniales (symbolic law64 o dead letter law65 en el mundo sajón), son leyes que formalmente están vigentes (de jure) pero que, usualmente (de facto), no son puestas en práctica por ninguna jurisdicción. Tales leyes usualmente son ignoradas por las fuerzas de seguridad del estado, por lo que tiene poca o ninguna consecuencia práctica transgredirlas. La existencia de este tipo de leyes mina la solidez de todo el sistema legal en general, en tanto y cuando el obligar a su cumplimiento puede ser discrecional y, consecuentemente, arbitrario.

La Inteligencia Artificial puede terminar siendo un importante retroceso (incluso necesario) en el proceso de hominización, y eso no es necesariamente malo (pero sí algo bastante triste), pero lo que está claro que con la actual falta de seriedad en el tratamiento y la superficialidad con la que se investigan las implicaciones negativas y estructurales que tiene la tecnología que denominamos Inteligencia Artificial, bien podría terminar inaugurando una nueva “Edad Media”66 de localismos, desconfianzas, desinformación y nuevas religiosidades fanáticas67.

1 Dead Letter: (1) Artículo de correo postal que no puede ser entregado a su destinatario previsto; después de un tiempo, se devuelve al remitente o se destruye. (2) Una ley u otra medida que ya no se aplica ni se hace cumplir. (3) (por extensión) Cualquier cosa que haya perdido su autoridad o influencia a pesar de seguir existiendo o formalmente estar en vigor.
2 Ver https://www.nist.gov/itl/ai-risk-management-framework
3 Ver https://blog.google/technology/safety-security/introducing-googles-secure-aiframework/
4 Ver https://www.mitre.org/focus-areas/artificial-intelligence
5 Ver https://www.enisa.europa.eu/topics/iot-and-smart-infrastructures/artificial_intelligence
6 Ver https://www.nist.gov/news-events/news/2023/06/national-artificial-intelligenceadvisory-committee-releases-first-report
7 Ver https://www.adalovelaceinstitute.org/
8 Ver https://www.adalovelaceinstitute.org/report/regulating-ai-in-europe/
9 Ver https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-internationalguiding-principles-advanced-ai-system y https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/g7-leaders-statement-on-the-hiroshima-ai-process/
10 Ver https://en.wikipedia.org/wiki/G7
11 Ver https://en.wikipedia.org/wiki/Bletchley_Park
12 Ver https://www.gov.uk/government/news/iconic-bletchley-park-to-host-uk-ai-safetysummit-in-early-november.es-419
13 Ver https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
14 Ver https://dpej.rae.es/lema/carta-de-naturaleza
15 Ver Thomson, W: “Popular Lectures and Addresses, Vol. I” London MacMillan. p. 80. (1891).
16 Ver https://www.cosascuriosas.es/la-historia-del-descubrimiento-de-los-neutrinos-ysu-papel-en-la-fisica-de-particulas/
17 Ver https://en.wikipedia.org/wiki/Neutrino
18 Ver https://historia.nationalgeographic.com.es/a/golem-hombre-barro-para-salvar-ajudios_14269 y https://es.wikipedia.org/wiki/Gólem y https://www.jewishencyclopedia.com/articles/6777-golem
19 Ver https://en.wikipedia.org/wiki/Yahweh
20 Ver https://es.wikipedia.org/wiki/Vampiro
21 Ver https://archive.org/details/AnEncyclopaediaOfOccultism
22 Ver https://en.wikipedia.org/wiki/H._P._Lovecraft
23 H.P. Lovecraft: “The Unnamable” (1890-1937) Ver https://elespejogotico.blogspot.com/2010/07/lo-innombrable-hp-lovecraft.html
24 Ver https://en.wikipedia.org/wiki/Moore’s_law
25 Ver https://en.wikipedia.org/wiki/Artificial_neural_network
26 Ver el modelo neuronal de McCulloch y Pitts de 1943, https://es.wikipedia.org/wiki/Neurona_de_McCulloch-Pitts#Historia
27 Ver https://en.wikipedia.org/wiki/Donald_O._Hebb, Hebb, Donald (1949):” The Organization of Behavior”. New York: Wiley. ISBN 978-1-135-63190-1.
28 Ver https://en.wikipedia.org/wiki/Hebbian_theory
29 Ver https://en.wikipedia.org/wiki/Perceptron
30 Ver https://en.wikipedia.org/wiki/Perceptrons_(book)
31 Ver https://en.wikipedia.org/wiki/Perceptron
32 Ver https://en.wikipedia.org/wiki/John_Lucas_(philosopher)
33 Ver https://en.wikipedia.org/wiki/Gödel’s_incompleteness_theorems, y Lucas, John: “Minds, Machines and Gödel”, Philosophy, Nº 36 (XXXVI): p. 112–127 (1961).
34 Ver Lucas and Penrose’ critique of AI: Crevier 1993, p. 22, Russell & Norvig 2003, pp. 949–950, Hofstadter 1999, pp. 471–477
35 Ver https://en.wikipedia.org/wiki/Hubert_Dreyfus
36 Ver https://en.wikipedia.org/wiki/Hubert_Dreyfus’s_views_on_artificial_intelligence
37 Ver https://en.wikipedia.org/wiki/John_Searle
38 Ver https://en.wikipedia.org/wiki/Chinese_room
39 Ver https://en.wikipedia.org/wiki/Intentionality
40 Ver https://en.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz
41 Ver https://en.wikipedia.org/wiki/Anatoly_Dneprov_(writer)
42 Ver https://en.wikipedia.org/wiki/Ned_Block
43 Ver Roberts, J.: “Thinking Machines: The Search for Artificial Intelligence”. Distillations 2(2) p14–23 2016. https://web.archive.org/web/20180819152455/, https://www.sciencehistory.org/distillations/magazine/thinking-machines-the-search-forartificial-intelligence
44 Ver https://en.wikipedia.org/wiki/AI_boom
45 Ver https://en.wikipedia.org/wiki/Generative_ar tificial_intelligence, y https://en.wikipedia.org/wiki/Generative_model
46 Ver https://en.wikipedia.org/wiki/OpenAI
47 Ver https://en.wikipedia.org/wiki/ChatGPT
48 Ver https://en.wikipedia.org/wiki/Bing_Chat
49 Ver https://en.wikipedia.org/wiki/Bard_(chatbot)
50 Ver https://en.wikipedia.org/wiki/LLaMA
51 Ver https://en.wikipedia.org/wiki/Text-to-image_model
52 Ver https://en.wikipedia.org/wiki/Stable_Diffusion
53 Ver https://en.wikipedia.org/wiki/Midjourney
54 Ver https://en.wikipedia.org/wiki/DALL-E
55 Ver https://cadenaser.com/nacional/2023/09/19/angeles-caballero-el-infierno-deuna-veintena-de-menores-cadena-ser/
56 Ver Firth-Butterfield, K.: “2022 was a big year for AI development. In 2023, we mustdecide how best to use it”. Asia News Network (January 18, 2023). https://asianews.network/2022-was-a-big-year-for-ai-development-in-2023-we-must-decide-howbest-to-use-it/
57 Ver Eapen, T.T.; Finkenstadt, D,J.; Folk, J.; Venkataswamy, L.: “How Generative AI Can Augment Human Creativity”. Harvard Business Review. ISSN 0017-8012. June 16, 2023. https://hbr.org/2023/07/how-generative-ai-can-augment-human-creativity
58 Ver https://en.wikipedia.org/wiki/Applications_of_artificial_intelligence
59 Ver https://en.wikipedia.org/wiki/Antisocial_personality_disorder
60 Los psicópatas son depredadores sociales que encantan, manipulan y se abren camino despiadadamente por la vida. Ver https://en.wikipedia.org/wiki/Psychopathy
61 Ver https://en.wikipedia.org/wiki/Empathy
62 Ver https://en.wikipedia.org/wiki/Phenotype
63 Ver https://en.wikipedia.org/wiki/Robinson_Crusoe
64 Ver https://www.lawinsider.com/dictionary/symbolic-law, y https://www.prospectmagazine.co.uk/opinions/57176/symbolic-laws
65 Ver https://definitions.uslegal.com/d/dead-letter/
66 Ver https://en.wikipedia.org/wiki/Middle_Ages
67 Apasionamiento y tenacidad desmedida en la defensa de creencias u opiniones, especialmente religiosas o políticas.

Your browser is out-of-date!

Update your browser to view this website correctly.Update my browser now

×