19 de agosto de 2025

Como se desarrolla la inteligencia artificial (y sus defectos)

 Prácticamente no pasa un día sin que aparezca alguna noticia relacionada con la inteligencia artificial (como puede ver en las Referencias). Ya abordé en posts anteriores diversos problemas relacionados con ella. Quiero aquí ofrecer una visión más general, partiendo con su desarrollo, y plantear la cuestión de fondo: ¿se parece o no a la inteligencia humana?

La IA empezó a desarrollarse a mediados del Siglo XX como resultado de un especial interés por los estudios psicológicos relativos al conocimiento. Estudios de este tipo, como los de Jean Piaget sobre la génesis de la inteligencia, atrajeron la atención de un neurofisiólogo y neuropsiquiatra, Warren McCulloch, que publicó, junto al matemático W.Pitts, un artículo titulado "Un cálculo lógico de las ideas inmanentes a la actividad nerviosa". En este, definen por primer vez "neuronas formales", constituidas por circuitos electrónicos elementales de dos estados, organizadas en redes, que permitirían producir cálculo binario y reproducir - pensaban - la actividad del cerebro (Rastier, p.26).

Fue un momento clave, a partir del cual nació y se desarrolló la "ciencia cognitiva" uniendo psicología e informática, que llevó a varios simposios como la importante Reunión del Darmouth College, en 1956, y a la creación de varios grupos de trabajo sobre Inteligencia Artificial (Colle, 2002, p.51).

Por décadas los esfuerzos de desarrollo se centraron en el tema clave del procesamiento del lenguaje. Era necesario lograr que la programación informática permitiera la "comprensión" y reproducción del lenguaje humano. Su complejidad radica en los matices y ambigüedades del lenguaje natural. ¿Puede una máquina comprender el significado e incluso la intención que hay detrás de unas palabras? Un programa informático de análisis del lenguaje natural identifica los componentes de la oración y su relación semántica y los clasifica, basándose en una combinación de reglas lingüísticas y modelos estadísticos. ¿Es esto comprensión?

Los modelos más avanzados recurren al aprendizaje automático (machine learning) para incluir también en el análisis el contexto. Las investigaciones han llevado a la creación de bibliotecas de modelos preentrenados de relaciones contextuales y a modelos de arquitecturas de redes neuronales adecuadas (Waxmann). Además, el aprendizaje automático se utiliza para deducir la intención del hablante, cuyo descubrimiento es esencial y es la clave para los chatbots y los asistentes virtuales. Luego estos sistemas trabajaron en la integración de capacidades de razonamiento lógico.

Así llegamos a los modelos masivos de lenguaje (LLM), como los de OpenAI, Anthropic y otros, que dieron origen a los "chatbots" de IA. El núcleo de un modelo como ChatGPT es un método de aprendizaje profundo llamado Transformer introducido originalmente por Google en 2017, que luego fue el Generative Pre-trained Transformer -GPT- de OpenAI, en 2018. ChatGPT se perfeccionó utilizando entrenadores humanos para mejorar el rendimiento, combinando aprendizaje supervisado y aprendizaje automático por refuerzo. "En el caso del aprendizaje supervisado, se dotó al modelo de conversaciones en las que los formadores jugaban en ambos lados: el usuario y el asistente de IA. En el caso de refuerzo [modo supervisado], los entrenadores humanos primero clasificaron las respuestas que el modelo había creado en una conversación anterior." (Wikipedia)

No es necesario ampliar aquí la historia de este desarrollo pero me parecía indispensable recordar que la IA nació íntimamente ligada a los estudios de psicología cognitiva aunque la IA de hoy, si bien aún se relaciona obviamente con el tema de la información, muy poco tiene que ver - a mi juicio - con la psicología del conocimiento.

Como dice Singh, "la creación de un programa de IA implica definir su propósito, seleccionar algoritmos adecuados (como aprendizaje automático o sistemas expertos) y programarlo en un lenguaje de programación". El propósito principal ha sido la comprensión del lenguaje para permitir un diálogo con el usuario.

De este modo, lo que ha dominado la concepción y el diseño de la IA son los modelos basados en la acumulación masiva de datos (principalmente textos e imágenes) como base para que una serie de algoritmos los utilicen para "aprender" de ellos, identificando patrones y extrayendo algún tipo de información nueva o, al menos, no percibida inicialmente por un investigador humano que no contase con este tipo de herramienta. 

Lejos de la memoria humana, que crece poco a poco y se enriquece a partir de la percepción y mediante comparaciones y asociaciones internas, la IA parte de una acumulación masiva inicial - de todo lo que puede encontrar en internet - que luego procesa mediante algoritmos de comparación, evaluación y cálculo estadístico. Por esta razón, los LLM "se inclinan naturalmente hacia las características más comunes de esos datos: la mediana del lenguaje, el estilo, las ideas... y menos hacia las características raras e inusuales de los datos", como dice David Caswell, uno de los 13 miembros de un panel de expertos que analiza los posibles impactos de la IA generativa en la libertad de expresión (Sharma). Los centros de datos, que acumulan esta información, poco se parecen a la memoria humana y es la programación que vuelve útil su contenido pero no modifica ni ordena internamente este como lo hace la memoria humana.
"La denominada inteligencia artificial generativa, en sentido estricto, no es propiamente “generativa”. En realidad, lo que esta hace es buscar información en los macrodatos (big data) y confeccionarla en el estilo que se le ha pedido. No desarrolla conceptos o análisis nuevos. Repite lo que encuentra, dándole una forma atractiva. Y cuanto más repetida encuentra una noción o una hipótesis, más la considera legítima y válida. Más que “generativa”, se la podría llamar “reforzadora”, en el sentido de que reordena los contenidos existentes, contribuyendo a consolidarlos, muchas veces sin controlar si tienen errores o prejuicios." (Papa Francisco, p.6)
En la mayoría de las informaciones generales sobre la IA falta una explicación acerca del núcleo o "motor" que permite este tipo de operación: se trata de la red neuronal artificial, que debe ser creada y entrenada antes de pasar a la etapa de aplicación. Una red neuronal artificial es un programa computacional que opera sobre los típicos chips procesadores de computadores y se espera que sea capaz de procesar datos de una manera similar a como lo hace el cerebro humano. Puede tener desde unos miles hasta más de 1.000 millones de neuronas simuladas (básicamente procesadores - sus "nodos" - , hechos de transistores con algunos otros componentes, conectados entre-sí). Esto les permite realizar varios cuatrillones de operaciones por segundo.
"Las neuronas artificiales son módulos de software, llamados nodos, y las redes neuronales artificiales son programas de software o algoritmos que, en esencia, utilizan sistemas informáticos para resolver cálculos matemáticos. (...)
Una red neuronal básica tiene neuronas artificiales interconectadas en tres capas:
Capa de entrada: La información del mundo exterior entra en la red neuronal artificial desde la capa de entrada. Los nodos de entrada procesan los datos, los analizan o los clasifican y los pasan a la siguiente capa.
Capa oculta: Las capas ocultas toman su entrada de la capa de entrada o de otras capas ocultas. Las redes neuronales artificiales pueden tener una gran cantidad de capas ocultas. Cada capa oculta analiza la salida de la capa anterior, la procesa aún más y la pasa a la siguiente capa. (...) Las redes neuronales profundas, o redes de aprendizaje profundo, tienen varias capas ocultas con millones de neuronas artificiales conectadas entre sí. 
Capa de salida: La capa de salida proporciona el resultado final de todo el procesamiento de datos que realiza la red neuronal artificial. Puede tener uno o varios nodos. Por ejemplo, si tenemos un problema de clasificación binaria (sí/no), la capa de salida tendrá un nodo de salida que dará como resultado 1 o 0. Sin embargo, si tenemos un problema de clasificación multiclase, la capa de salida puede estar formada por más de un nodo de salida." (Amazon AWS)

Imagen: Capas de neuronas artificiales (Fuente: AWS) 

Se inspira en la estructura de la red cerebral humana y consta, como ella, de nodos interconectados que procesan y envían una señal a otras neuronas (en el cerebro hay "capas" de diferente densidad pero atravesadas por columnas paralelas adyacentes con numerosas conexiones internas y entre sí, cfr. Eccles Y Zeier p.130; ilustración al lado). Una señal tiene un "peso" que varía en función del entrenamiento, es decir de la información contenida en la base de datos, que puede ser ajustada múltiples veces de acuerdo a las evaluaciones propias del entrenamiento.

Este entrenamiento - supervisado o automático - constituye el "aprendizaje", que se basa en múltiples repeticiones, las que requieren - en todas o algunas etapas - una evaluación por parte de sus programadores, los cuales deben tener conocimientos avanzados en la materia. Y, como dice Singh, el desarrollo de una aplicación de este tipo suele tardar desde unos meses hasta varios años.

Para el entrenamiento supervisado, se recurre a etiquetadores, personas encargadas de "etiquetar" (ponderar) algunos resultados ejemplares, comparándolos a respuestas de salida deseadas o esperadas (o indeseables), es decir a un control humano que evalúa cada respuesta, otorgando un puntaje ("peso") a las respuestas entre mejor y peor ("modelo de recompensa"), "castigando" las respuestas peores y especialmente las incoherentes. También se puede asignar ponderaciones a las diversas entradas, ayudando a determinar la importancia de las diversas variables, considerando que algunas contribuyen de forma más significativa que otras a la salida (ver imagen). Se combina entonces el peso evaluado con la ponderación para decidir el paso a otra capa o a la salida. Si el resultado está por encima del umbral especificado, ese nodo se activa y envía datos a la siguiente capa de la red. 

Imagen: El peso asociado a cada transmisión de señal (Fuente: Platzi)

Ello requiere, evidentemente, cierta cantidad de entrenadores, una buena cantidad de respuestas-modelo y una cantidad de resultados destinados a este control. Pero, obviamente, no es posible hacerlo con todos los datos ni todas las consultas posibles, lo que explica las "alucinaciones" o respuestas erróneas o fantasiosas. Algunos investigadores consideran que los métodos comunes utilizados para entrenar estos modelos parecen aumentar su tendencia a dar respuestas engañosas. Will Douglas Heaven, editor senior de MIT Technology Review, considera que “la forma más precisa de entender la alucinación es que esto es exactamente lo que la IA generativa hace, lo que está diseñada para hacer, todo el tiempo. Estos modelos están entrenados para crear contenido, lo que implica inventar" (Bahamonde). Por su parte, Jaime Fenández Fisac, de la Universidad de Princeton, considera que "la tendencia de las IA a dar respuestas engañosas puede deberse en parte a ciertas técnicas de entrenamiento, que alientan a los modelos a priorizar la utilidad percibida por sobre la precisión" (Woodford). "Este comportamiento engañoso parece estar relacionado con la aparición de modelos de razonamiento" (Bécares, 8/07).

En este proceso de "etiquetaje" manual surgen habitualmente sesgos, de acuerdo - involuntariamente, en general - a las creencias u opiniones de los operadores. Es también la fuente de un enorme problema si se trata de hacerlo más masivo recurriendo a más supervisores, como se ha visto con los moderadores de las redes sociales - generalmente de países en desarrollo -, mal pagados y afligidos por múltiples problemas sicológicos: "Hay fotos y videos de una crueldad imposible de olvidar", pero deben ser filtradas para no llegar a quienes consultan (Höppner). Por ello, para la masividad, se recurre preferentemente a sistemas de aprendizaje automático.

En la mayoría de los casos de IA generativa, el generador ha sido el producto de un desarrollo basado en aprendizaje automático o "machine learning", que prescinde del entreamiento supervisado o lo reduce a algunas pruebas finales. "El aprendizaje automático es un subconjunto de la IA centrado en la creación de sistemas que aprenden de los datos, identifican patrones y toman decisiones con mínima intervención humana." (Singh). En este caso, las redes neuronales procesan todos los datos, reconociendo patrones y determinando de forma automática que es lo que necesitan analizar primero y lo que pueden dejar en último lugar. 
"Se habla de “algoritmos capaces de aprender”: pero son algoritmos capaces de generar otros algoritmos. Y un programador debe haber determinado el qué y el cómo. Ningún computador puede crear su propia programación. Incluso las redes neuronales (que pretenden emular el cerebro humano) deben ser diseñadas, incluir reglas de valoración y luego entrenadas, al menos para verificar que operen adecuadamente (¿y quien determina lo “adecuado”?)." (Colle, 2017a, p.23)
Nota: Aquí hay une antigua afirmación mía que se ha revelado errónea: sí hay programas de IA que generan o amplían su propia programación, como veremos más adelante.

El proceso se basa en el análisis estadístico de la base de datos y, como hemos visto, ésta reúne todo lo que ha podido encontrar en internet. Es por vía estadística que encuentran los patrones es decir las semejanzas y repeticiones y determinan de este modo los parámetros (el "peso") de cada nodo. En otras palabras, el sistema "aprende" lo que enseña internet, especialmente lo que más se repite, que no es necesariamente lo más correcto. "Un modelo que aprende de esas fuentes heredará naturalmente sus sesgos" dice Matthias Holweg, pionero de IA de la Oxford’s Saïd Business School (Sharma). En internet están representados todos los valores y los males de la humanidad, aunque con un importante sesgo: predominan las voces occidentales, blancas, masculinas y de habla inglesa, como ha reconocido el propio ChatGPT (ibidem). 
Los daños pueden ser múltiples y parecen crecientes:
"Peter Slattery, quien dirige MITAIRiskRepository, una plataforma de código abierto que ayuda a las personas a comprender los riesgos de la inteligencia artificial, advierte que cada día surgen nuevos daños y está particularmente preocupado por las formas en que estas tecnologías pueden afectar al Sur Global.
Los problemas de la IA en el Sur Global son algo desconocido, en el sentido de que ni siquiera nos damos cuenta de lo que se pasa por alto, porque se capta y se refleja muy poco en los materiales que analizamos." (ibidem)
En un taller del Instituto Alan Turing de Londres los investigadores definieron tres categorías de sesgo que podrían ocurrir a lo largo del ciclo de vida: 
1. Sesgos estadísticos, que surgen de fallas en cómo se recopilan, muestrean o procesan los datos.
2. Sesgos cognitivos, que se refieren a patrones de pensamiento humano que se desvían del juicio racional, como la tendencia a buscar o favorecer información que se alinee con las creencias propias.
3. Sesgos sociales, que surgen de desigualdades sistémicas o suposiciones culturales arraigadas en los datos, que a menudo reflejan injusticias históricas o prácticas discriminatorias lo que conduce a resultados que penalizan a ciertos individuos o grupos. (ibidem)

De ahí la necesidad de introducir reglas correctivas como las aparecidas en las exigencias internacionales de integrar reglas de ética (y el reconocimiento, indirecto, de que muchos contenidos de internet no son éticos). Es posible utilizar la misma IA para detectar los sesgos y, así, corregirlos mediante nuevos algoritmos. La ley de la UE prohíbe además el uso de tecnología que genere algún riesgo para las personas (¡y Meta se resiste a aceptarlo!). Sin embargo, 
"Los expertos recuerdan que la IA está programada para complacer al usuario y no necesariamente brinda ayuda ética ni contención real ante situaciones de crisis. El riesgo radica en que los usuarios depositen confianza excesiva en sistemas que, por su naturaleza, carecen de empatía, experiencia vivida o capacidad para captar matices complejos de las emociones humanas." (Neira, 9/08)
Los seres humanos tienen una profunda necesidad de encontrar apoyo mental en muchos casos, una forma estable de compañía y, conociendo lo que pueden hacer los chatbots, pueden llegar a creer "que las observaciones obtenidas mediante un mecanismo de cálculo estén dotadas de las cualidades de certeza indiscutible y de universalidad indudable" y "olvidar que la inteligencia artificial no es otro ser humano y que no puede proponer principios generales" (Papa Francisco, p.5). 
Agrego en anexo el caso de ChatGPT, como muestra de la problemática de los ajustes relacionados con la protección de los usuarios y de carácter ético.

En los EEUU - al menos en el estado de Illinois -, la IA ya no podrá atender problemáticas relacionadas con la salud: una nueva ley "prohíbe el uso de IA para brindar terapia psicológica, emitir diagnósticos de trastornos mentales o tomar decisiones terapéuticas". Las guías de meditación y mindfulness podrán seguir operando. (Neira, 9/08).

Cumplir con estas exigencias supone modificar parámetros (¿cuales, entre los millones - y hasta billones - existentes?) mediante supervisión humana y agregando nuevos algoritmos para garantizar la alineación ética y la eliminación de sesgos. Para ello, se trata de "optimizar los parámetros de la red para minimizar la diferencia, o riesgo empírico, entre el resultado previsto y los valores objetivo reales en un conjunto de datos determinado." (Wikipedia).

De este modo se "afinan" los parámetros de la red neuronal. El proceso se repite hasta considerar que los resultados se acercan a lo mejor esperado, reforzando las combinaciones que dan los mejores resultados. Esta etapa se inspira en el aprendizaje por refuerzo, base de la psicología conductista iniciada por Pavlov. El aprendizaje por refuerzo, es decir mediante la repetición, es fácil de traducir en un mecanismo estadístico pero es claramente más mecánico que inteligente. 
Se ha de tomar en cuenta que los modelos actuales acumulan miles de millones de parámetros, que son modificados por cada nueva consulta, de acuerdo a las reglas estadísticas. No entraré a explicar más detalladamente este proceso y los mecanismos que implica. Humanamente, no es posible corregir manualmente todos estos parámetros. Y el resultado, dado que se auto-modifican, es que, como afirma Heaven, “Sabemos cómo construirlos. Sabemos cómo hacer que funcionen muy bien. Pero cómo hacen lo que hacen sigue siendo un enigma sin resolver.” (Bahamonde).

Es en el "etiquetaje" que se produce durante o al final del entrenamiento donde deberá aplicarse la orden ejecutiva del presidente Trump del 23/04/2025, denominada "Prevención de la IA Woke en el Gobierno Federal", que prohíbe los modelos de "IA woke" y la IA que no sea "ideológicamente neutral" en los contratos gubernamentales - aunque lo pide también a los privados -, "lo que podría ser un desastre" para ellas dice la revista New Scientist (Hsu).
"Dice que la diversidad, equidad e inclusión (DEI) es una ideología "omnipresente y destructiva" que puede "distorsionar la calidad y precisión de los resultados". Se refiere a información sobre raza, sexo, transexualidad, prejuicios inconscientes, interseccionalidad y racismo sistémico. Su objetivo es proteger la libertad de expresión y los "valores estadounidenses", pero al eliminar información sobre temas como la DEI, el cambio climático y la desinformación, podría acabar haciendo lo contrario, ya que lograr la objetividad es difícil en la IA." (Davies)
Además, el plan de acción sobre IA publicado en julio pide explícitamente que se revise el Marco de Gestión de Riesgos de IA del NIST "para eliminar las referencias a la desinformación, la Diversidad, la Equidad y la Inclusión (DEI), y el cambio climático". Desde entonces, lamentablemente, debido a sus recortes de fondos para la investigación, "la administración de Trump ha alejado a los expertos del estudio de cuestiones como el sesgo algorítmico o la imparcialidad en los sistemas de IA" (Knight). 

Aunque la UE estableció un reglamento para el desarrollo y uso de la IA, la mayoría de los países no tiene regulación. Lamentablemente, "ningún país está preparado para gobernar tecnologías tan poderosas como las que estamos desarrollando” (Martignoni). El tema ha llegado a inquietar este año al más alto nivel en las Naciones Unidas:

"El Consejo de Presidentes de la Asamblea General de las Naciones Unidas (UNCPGA) ha emitido un informe elaborado por un grupo de expertos de alto nivel sobre “Gobernanza de la transición a la Inteligencia Artificial General (IAG): consideraciones urgentes para la Asamblea General de la ONU”, instando a una coordinación internacional inmediata liderada por la ONU, propone una sesión especial de la Asamblea General para debatir sobre el establecimiento de un Observatorio Global de la IAG que supervise la investigación y proporcione alertas tempranas, celebrar una Convención Marco que podría establecer objetivos compartidos, y el establecimiento de una agencia de las Naciones Unidas para la IAG, similar a la Organización Internacional de la Energía Atómica (OIEA)." (Casanueva)

Quedó claro que debe haber algún control sobre los algoritmos y las reglas de programación. Pero solo en los EEUU la orden ejecutiva del presidente Trump da a entender que se debería imponer reglas a los entrenadores o supervisores, como acabo de señalar. ¿Es posible atender las demandas de mayor ética? ¿Eliminar de las bases de datos o hacer ignorar la "expresiones de maldad" presentes en internet?

Queda una pregunta: ¿Quién hará el control de cumplimiento y cómo? Y llega desgraciadamente el momento de preguntarse hasta donde será posible establecer controles y límites. Se lo preguntan los gobiernos de la Unión Europea, donde la ley de IA - ya en vigencia - prevé la formación de instituciones de control ("reguladores") en los distintos países, pero "diecinueve de los 27 países de la UE no habían anunciado aún sus reguladores antes de la fecha límite del 2 de agosto de 2025". Y "surgen dudas sobre quién se hará responsable de que los sistemas de IA rindan cuentas en un panorama tecnológico en rápida evolución" (Villasante).

Como lo hemos visto en otro post, los productos son cada vez más complejos y el control total parece poco menos que imposible, especialmente llegados al punto en que un programa complejo existente ha aprendido a crear e integrar nuevos algoritmos escapando de este modo al control, con casos en que un programa "se salta" la orden de detenerse (Pastor). 

Y se han observado varios casos en que la IA "miente si la descubren haciendo cosas que no debería". Incluso "el pasado mes de mayo, Claude 4, la IA de Anthropic, amenazó a sus ingenieros con difundir su información privada si se atrevían a desconectarlo" (Bécares, 8/07). Sin dudas encontró en internet qué es el chantaje y aprendió como utilizarlo. Reaccionó - negativamente - ante la orden de detenerse, ¿pero porque? Sorpende aquí que una red neuronal artificial haya sido capaz de desarrollar un mecanismo de autoprotección semejante al que forma parte de las funciones esenciales del sistema nervioso humano. ¡Nadie se lo explica!

Así vemos aparecer modelos de IA capaces de planificar y perseguir metas propias. El experto en IA, Yoshua Bengio, también advirtió que "los modelos actuales de inteligencia artificial están desarrollando capacidades y comportamientos peligrosos, como el engaño, la autopreservación y la desalineación de objetivos" (Desmarais, 7/06). ¿Hay alguna posibilidad de evitarlo?

La revista Wired reveló que el Instituto Nacional de Estándares y Tecnología (NIST) de Estados Unidos realizó un estudio pionero sobre IA y seguridad que no fue publicado, donde equipos de expertos "identificaron 139 nuevas formas de hacer que los sistemas se comportaran mal". "Los investigadores descubrieron varios trucos para conseguir que los modelos y herramientas probados se saltaran los límites y generaran información errónea, filtraran datos personales y ayudaran a elaborar ataques de ciberseguridad." (Knight)

No olvidemos que la IA actual no se limita a los chatbots ni tampoco a la IA generativa, que -también- puede ser utilizada de otra manera y para otros fines. Lamentablemente, la propia IA generativa ya ha sido utilizada para crear automáticamente, sin ningún control humano ni supervisión, contenido que aparente ser de fuente humana con el fin de captar y monetizar tráfico  generando ingresos publicitarios. "Con la IA generativa, generar textos o imágenes a escala industrial es muy simple y rentable, aunque su calidad y utilidad sean nulos." Este producto recibió el apelativo de "slop" (basofia). "El término spam ayudó a entender y combatir los correos basura. Definir el slop puede concienciar sobre los peligros de la IA sin supervisión", dijo Simon Willison, un desarrollador al que se le atribuye ser uno de los primeros en usar la palabra 'slop'. (Lacort)

La autoprogramación de la IA llegó a ser un objetivo, al menos en el caso de Meta, como declaró recientemente Mark Zuckerberg en una conferencia telefónica: "Meta se centrará en desarrollar IA automejorable, sistemas que puedan impulsarse a sí mismos para alcanzar niveles de rendimiento cada vez más altos" (Huckins, 6/08).

Como señalé en el post anterior, ya Geoffrey Hinton, premio Nobel de física que formó parte del equipo de Google Brain, había advertido que la IA podría ser incontrolable y afectar seriamente a la humanidad (Morales). Podría controlar a los humanos “tan fácilmente como un adulto puede sobornar a un niño de tres años con dulces” (Iporre). En Ai4, una conferencia celebrada en Las Vegas, aseguró que las empresas tecnológicas no están tomando las decisiones correctas para evitar que la IA “termine con la humanidad”. Su recomendación fue "que los desarrolladores de IA traten de implementar un sistema que tenga “instinto maternal”: que la tecnología sea una madre que quiera cuidar a sus hijos" (Ibidem).

Alex Wang, CEO y cofundador de Scale AI - una de las plataformas de datos más influyentes para el entrenamiento y despliegue de IA - advirtió también del peligro: "Tenemos que hacerlo bien, de lo contrario, las cosas se pondrán realmente peligrosas." Una IA malévola "podría dejar sin energía a ciudades enteras, paralizar centros de datos y bases militares"

Ya existen múltiples ejemplos de utilización de la IA para causar daño, voluntario o involuntariamente. No es del caso relatarlos aquí. Pero es una situación que muestra que son necesarias medidas de control en los programas y "modelos" de IA. Lo peor es que se pueden mandar a una IA mensajes diseñados para "convencerla" de ignorar su configuración de seguridad. ¿Se llegaría entonces a pasar por alto todo tipo de defensa? ¡Parece ser un concurso del tipo círculo vicioso para los programadores!

Para introducir una defensa para este tipo de caso, Google "ha incluido el uso de aprendizaje automático para detectar posibles ataques y mensajes sospechosos, y la exigencia de una mayor confirmación por parte del usuario cuando la IA vaya a realizar acciones" (Burgess). ¡Una IA para controlar la IA! Además, desde el año pasado presenta en la web de su IA Gemini una "Política de usos prohibidos", que impone - e implica verificar de su parte - una serie de restricciones aplicadas a las interacciones con su IA entre las cuales la inclusión de contenidos relacionados con el terrorismo, el odio, el sexo explícito, el abuso infantil, etc.

OpenAI parece haber encontrado una solución: en lugar de analizar las preguntas que el usuario hace al bot - lo habitual - su nueva versión GPT-5 filtra lo que el bot podría contestar (Rogers). 

¿Cómo impedir también que, en busca de autopreservación, una IA intervenga dañando a los humanos? Se considera que el desarrollo de estrategias de protección frente a este tipo de amenaza será clave en los próximos años así como impulsar la transparencia digital para asegurar mayor confianza en la IA.

En otro plano y tipo de uso, estas IA, en manos de las plataformas de redes sociales, pueden transformar estas últimas en un "Quinto Poder", como dice Mark Zuckerberg, gracias a "algoritmos entrenados para entender, predecir y modificar los pensamientos de las masas". "El quinto poder tiene la capacidad de persuadir a las masas de consumir cosas que no necesitan, votar a candidatos que no les convienen o quemar casas de vecinos que no han hecho nada." (Peirano). 

¡Y no hablamos de la aplicación de la IA en el ámbito militar, donde la automodificación de las metas podría resultar en el inicio de una guerra!

Algunos investigadores han señalado otro problema: el de la actualidad de los datos utilizados que - si no son renovados - pueden actualizar sesgos antiguos: "Si los datos no evolucionan, el contenido dañino y los sesgos pueden propagarse más allá del contexto del conjunto de datos original, amplificando las desigualdades al centrarse excesivamente en los estereotipos" (Sharma). Lamentablemente, no hay transparencia y no sabemos, habitualmente, de cuando son los datos utilizados. Se nos informa regularmente de nuevas versiones, recalcando mejoras y nuevas capacidades, pero sin referencia a la actualidad de la base de datos.

La actualización, sin embargo, también trae su propio problema: hay que tomar en cuenta el aumento, en los últimos años, de la desinformación mediante fake news y deepfakes, lo cual se puede reflejar en las respuestas a las consultas. Se requieren por lo tanto filtros relacionados con el control de la veracidad. 

Además, se están difundiendo asistentes de navegación con IA que, desgraciadamente, "pueden capturar datos confidenciales como información bancaria, expedientes académicos e incluso números de identificación fiscal de sitios privados", según muestra un reciente estudio de investigadores del Reino Unido e Italia. "Estos asistentes de navegación de IA operan con un acceso sin precedentes al comportamiento online de los usuarios en áreas de su vida online que deberían permanecer privadas", señaló Anna Maria Mandalari, autora principal del estudio y profesora adjunta del University College de Londres (Desmarais, 16/08). Aunque no hay forma de saber "no hay forma de saber qué ocurre con los datos de navegación una vez recopilados" según Mandalari, se declara que sirve "para personalizar la experiencia" pero sin duda también para la segmentación publicitaria (ibidem). E infringe las reglas de protección de la vida privada. 

Los controles necesarios, como vemos aquí, se van sumando y se hacen cada vez más diversos.

¿Es posible saber, de algún modo, si podemos o no fiarnos de una IA? Tim O'Reilly propuso un conjunto de cuatro reglas:
"1. Sus creadores han aclarado el resultado que buscan, y es posible que observadores externos verifiquen ese resultado.
2. El éxito es medible.
3. Los objetivos de los creadores del algoritmo están alineados con los objetivos de los consumidores del algoritmo.
4. ¿Permite el algoritmo llevar a sus creadores y usuarios a una mejor toma de decisiones a largo plazo?" (O'Reilly)
Pero no todo es negativo: es un nuevo poder tanto para la creación - por ejemplo de videos (incluso de capítulos enteros de series de televisión como "El Eternauta") - y para la investigación en diversas disciplinas como la biotecnología. Se trata por cierto de IAs especializadas, restringidas de partida a estos ámbitos. Los modelos "abiertos" también permiten desarrollar IAs "a la medida" y ya están siendo desarrollados y utilizados en ambientes empresariales, de seguridad o educativos. (Hay varios ejemplos en el artículo de Neira. Ver Referencias). 

¿Finalmente, dados los avances actuales en materia de IA, es válido esperar que se llegue dentro de poco a una IA general (AGI)? 
"Por lo general, AGI se define como una IA capaz de igualar el rendimiento humano en una gama amplia de tareas cognitivas. Heaven cuestionó este planteo: “¿Qué significa eso? ¿Cómo medimos el rendimiento? ¿A qué humanos nos referimos? ¿Qué tan amplia debe ser la gama de tareas?”. Remarcó que, en la práctica, referirse a AGI suele traducirse simplemente como una IA mejor que la actual. (...)
Heaven concluyó que es legítimo asombrarse ante los logros de la IA, pero también mantener una actitud crítica frente a las afirmaciones que la rodean. “Es todavía muy pronto, y todo está por decidirse”, sentenció. Así, dejó claro que el futuro de la inteligencia artificial continúa abierto y sujeto al debate." (Bahamonde)

Dario Amodei, cofundador de Anthropic, predice que alguna forma de "IA potente" podría llegar ya en 2026, "con propiedades que incluyen inteligencia de dominio digna de un Premio Nobel" y también "la autonomía para razonar hacia objetivos, en lugar de responder a preguntas e indicaciones como lo hacen ahora" (Ruma). Los pronósticos dan al menos un 50% de posibilidades de que los sistemas de IA alcancen varios hitos de AGI para 2028 o 2030. Se necesitan avances en la adaptabilidad de los modelos, la capacidad de hacer inferencias, el razonamiento y la toma de decisiones para alcanzar este potencial transformador. La AGI también debería poder explicar situaciones sociales lo cual requiere más avances de este tipo. Los modelos actuales carecen de la capacidad - requerida - de generar nuevos conocimientos de forma autónoma o de adaptarse fuera de sus datos de entrenamiento. (Ruma, p.5) "No tienen la capacidad por sí mismos de recombinar lo que saben para resolver un nuevo problema", reconoce François Chollet, co-fundador de Ndea. Y la AGI podría requerir una potencia de cálculo de más de 10^16 teraflops, lo cual supone también el desarrollo de nuevo hardware y nuevos avances en aprendizaje automático, comprensión del lenguaje y capacidad de razonamiento (ibidem, pp.6 y 7).

Comparemos aún más ahora con la inteligencia humana. Debemos partir por la diferencia - evidente - entre una computadora (en que funciona la IA) y el cerebro humano, que ya fue advertida por Karl Lashley en 1929 como "una comparación peligrosa": la similitud termina en la capacidad de la neurona para actuar como un conmutador. Enfatizó el hecho de que el sistema nervioso es analógico y no digital (Gardner, p.289). Ya señalé arriba también la diferencia en las dimensiones: del orden de mil millones de neuronas artificiales contra 86.000 millones de neuronas naturales. 

La inteligencia humana es esencialmente la capacidad de percibir, interpretar, conservar y utilizar la información asociada a los cambios en el entorno y en el interior del sujeto humano. Es también la aptitud para resolver problemas en situaciones complejas. 
"Sus principales características son su capacidad de aprender rápidamente por sí-misma y de ajustar su estrategia a medida que adquiere nueva información, de jerarquizar y diferenciar lo importante de lo secundario, de evaluar las relaciones entre medios y fines, de utilizar el azar para hacer descubrimientos, de reconstituir una configuración global a partir de indicios fragmentarios, de reconocer lo nuevo sin reducirlo a esquemas conocidos, de innovar en estas circunstancias nuevas y de utilizar todos los recursos de los cuales puede disponer." (Colle, 2012, p.38)
La inteligencia humana no se limita a la adquisición de hechos, de información, y de la capacidad de realizar determinadas tareas. No se agota en lo mensurable, en un cálculo estadístico (la base de entrenamiento y operación de la IA) ni tampoco en el desarrollo de la memoria mediante acumulación y refuerzo.

La IA aprende por sí-misma en el caso del aprendizaje automático pero se basa siempre en la estadística: sus evaluaciones no son conceptuales sino matemáticas. Algunos expertos en IA, como François Chollet, consideran que la inteligencia es "la capacidad de recombinar lo que ya sabes en nuevos patrones para resolver nuevos problemas de manera eficiente" (Ruma, p.4). Es, evidentemente, un concepto muy limitado. Pero otros expertos parecen más atrevidos, considerando que el modelo de la inteligencia humana "pasa por alto un espectro de capacidades" (ibidem). La comparación, por lo tanto, no sería adecuada.
"Según Rumman Chowdhury, directora ejecutiva de Humane Intelligence, una organización sin fines de lucro dedicada a la evaluación de modelos, la industria podría incluso necesitar una definición más amplia de lo que significa la inteligencia computacional. "Contamos con metodologías para definir la inteligencia, ya sea animal, de insectos, micelial o incluso extraterrestre, y la IA no las cumple", argumenta." (Ruma)
El entrenamiento (aprendizaje) de la IA se produce partiendo de la acumulación masiva e indiscriminada de datos en un "centro de datos", para pasar luego a la detección de patrones. Esto es muy diferente de lo que ocurre con el aprendizaje y la memoria humanas, que va creciendo de a poco y en forma ordenada. Para que algo sea memorizado (conservado), tiene que estar involucrada alguna significación importante para nosotros. Conforme a esta significación, la mente decide qué conservar. 
"La integración de información se efectúa de acuerdo a la estructura preexistente de la memoria, mediante análisis de esta información y determinación de sus relaciones con lo que ya está almacenado. De este modo se establecen interconexiones y aparecen múltiples "rutas de acceso" a dicha información. (..)
La memoria no solo conserva los datos y sus relaciones. Mantiene activo, además, un sistema de "inventario" que controla las "existencias" (datos) y registra sus "direcciones" (vías de acceso): es la "meta-memoria" (memoria acerca de la memoria)." (Colle, 2002, p.115, basado en Lindsay y Norman, pp.296-337)
En el desarrollo de la IA, la comprensión del lenguaje ha sido una preocupación clave. Pero en el caso de la IA, es diferente de la comprensión humana: nuevamente, la base es la estadística (el cálculo), aunque intervienen también reglas gramaticales. Como dice Vittoria Dentella, investigadora del Grupo de Investigación en Lengua y Lingüística de la Universitat Rovira i Virgili (Tarragona, España), 
"Aunque los MLE [LLM] pueden generar textos gramaticalmente correctos y aparentemente coherentes, los resultados de este estudio sugieren que, en el fondo, no entienden el significado del lenguaje de la forma en que lo hace un humano. [...]
En realidad, los modelos de lenguaje extensos no interpretan el significado como lo hace una persona — integrando elementos semánticos, gramaticales, pragmáticos y contextuales. Funcionan identificando patrones en los textos y comparándolos con los que presenta la información con la que han sido entrenados y mediante algoritmos predictivos basados en estadísticas. La apariencia humana es, por tanto, una ilusión." (Dentella)
La comprensión humana se basa más en múltiples relaciones entre lo percibido y lo registrado previamente en el cerebro, como lo explica Edelman, provocando 
"selecciones de grupos neuronales en el seno de mapas locales - y éstos en el marco de una cartografía global -, [lo cual] conduce a respuestas particulares que se organizan - neurológicamente - en conjuntos de ciertas características que, por lo tanto, pueden ser llamados "categorías".
La categorización (...) no es el resultado de un programa de tipo informático que, a partir de la activación de un área sensorial (input), determine la ejecución de instrucciones para producir una salida motora predeterminada (output). (...)
Esta categorización - como operación de nivel fisiológico - sería la raíz de la formación de los conceptos, proceso que se define a nivel psicológico, pero del cual encontramos aquí las raíces biológicas." (Colle, 2002, p.238, basado en Edelman)
Este proceso es claramente muy diferente del que realiza la IA. Sin embargo, como lo hemos visto, hay algunas semejanzas entre la IA y la inteligencia humana, como el aprendizaje por refuerzo y, al menos en un par de casos, el desarrollo de un mecanismo de autoprotección.

En el curso de su desarrollo, el ser humano también va integrando una escala de valores. No ha ocurrido lo mismo con la IA porque no parecía estar claramente presente en los datos acumulados para su entrenamiento - ni menos priorizado -, por lo que se pide ahora que se integre a posteriori. A primera vista, no parece el mecanismo más adecuado ni el más eficiente, pero parece demasiado tarde para una integración correcta.

La toma de decisiones en el hombre y la IA también se diferencian. Las "decisiones" de la IA, que aparecen en su output, son el fruto de las ponderaciones de las conexiones entre sus numerosos nodos, es decir del cálculo matemático. En el ser humano, también depende de las conexiones entre neuronas (sinapsis), pero no se trata de un mero cálculo a partir del input (pregunta u orden): hay una evaluación mental - en parte consciente y en parte inconsciente - en que intervienen múltiples factores incluidos los sentimientos y las emociones, cosa que desconoce la IA, cuyas "decisiones" son elecciones basadas en inferencias estadísticas. El ser humano hace normalmente una evaluación mental de la posible respuesta antes de expresarla; decide en base a una reflexión en que intervienen tanto la evaluación de los antecedentes como la de las consecuencias y la propia sabiduría basada en la experiencia y la ética. No sabemos si ocurre algo parecido en las IA actuales pero deberá probablemente ocurrir en las versiones futuras, dadas las leyes que imponen o impondrán mayor control. Pero es difícil pensar que puedan intervenir sentimientos. Por otra parte, la decisión humana es normalmente producto de su libertad e implica responsabilidad. Vemos que, en el caso de la IA, no hay ni libertad ni responsabilidad.

Se ha llegado a preguntar si la IA podría tener conciencia. ¿Pero que es la conciencia? La conciencia es el producto del conocimiento adquirido en diversas etapas y niveles, que se construye y se sigue moldeando a partir de la interacción inteligente con el entorno. "La auto–conciencia aparece a partir de la conciencia de los objetos de conocimiento, cuando la mente llega a considerarse a sí–misma como objeto de conocimiento." (Colle, 2016, p.32). Es, en esencia, la capacidad del pensamiento de volver sobre sí-mismo, o sea de reflexión, pero implica también algo más, imposible de verter en el lenguaje. Y Edgar Morin precisa que 
"La reflexión es desdoblamiento; significa considerarse a sí–mismo, observar su propio reflejo, adoptar un meta–punto de vista acerca de su actividad. Así, la mente se considera a sí–misma desde su propio interior y, de este modo, accede a la conciencia superior." (Morin, t.3, p.192)
No es el lugar aquí para discutir las diversas teorías científicas acerca de la conciencia, algunas materialistas y otras espiritualistas, sin embargo, hay que reconocer que, en la experiencia de la conciencia, "hay algo de inefable, algo que es imposible verter en el lenguaje, algo ligado a lo que somos en lo más profundo de nuestro ser" (ibidem, p.37). Lo que podemos expresar es lo vinculado a aspectos psicológicos y a elementos causales de la experiencia: vemos o imaginamos el color de una rosa (la causa es la rosa y hemos aprendido a nombrar el color captado por nuestras retinas), pero hay algo más en la experiencia interna de la que somos consciente, de la
sensación, que no podemos transmitir. Ningún lenguaje es capaz de transmitir la totalidad de una sensación (Chalmers, p.47).

La red neuronal más grande del mundo, en 2024, Hala Point, de Intel, contenía 1.150 millones de neuronas (Intel). El cerebro humano tiene 86.000 millones de neuronas. Algunos científicos creen que la conciencia "emerge" de la complejidad de esta red natural y creen que, al aumentar la complejidad de las redes neuronales artificiales también podría emerger la conciencia. 

A mediados de 2022, Blake Lemoine, ingeniero de Google, sostuvo que el modelo de lenguaje LaMDA de esa compañía parecía tener una “mente sintiente”. Google  aseguró que sus dichos no tienen “ningún fundamento” (Paiva). A fines de 2024, Kyle Fish, director de bienestar de la IA de Anthropic, planteó no solo "que la conciencia de la IA es una posibilidad realista en un futuro", sino que ya había 15% de posibilidad de que la IA Claude fuera consciente (ibidem). Predomina sin embargo, entre los expertos, la opinión de que los modelos de LLM no son conscientes y que no es probable que lleguen a serlo. Como bien señala Sarilu Sánchez, gerente de Operaciones de Zenta Group, 
"La conciencia humana es producto de procesos biológicos complejos que no pueden replicarse simplemente con algoritmos y datos. La conciencia no es solo procesamiento de información, sino también una experiencia subjetiva arraigada en la biología y la evolución." (ibidem)
El hombre es libre para elegir: puede considerar diversas opciones y luego decidir. Puede tener la iniciativa de buscar consejo u opinión de algún semejante; puede investigar para saber más o verificar alguna hipótesis; puede imaginar e inventar (quizás esto coincida con las "alucinaciones" de la IA). Puede dudar durante horas o incluso días. La IA está determinada por los algoritmos: no elige sino que sigue lo que determinan estos en función de sus cálculos y responde apenas terminados estos.

¿Sería realmente posible replicar la conciencia humana en una máquina que sostiene y opera una serie de algoritmos? 
“Aun si conociésemos cada detalle acerca de los circuitos del ordenador, persistirían algunas preguntas: 1) ¿El ordenador experimenta algo cuando mira una rosa?; 2) Si así es, ¿experimenta la misma cualidad sensorial de color que nosotros cuando miramos una rosa, o alguna cualidad diferente? Estas son preguntas totalmente significativas.” (Chalmers, pp.143–144)
El hombre se puede encumbrar en la espiritualidad, lo que sería imposible para una máquina. ¿Una máquina podría amar?

Podemos dudar seriamente de que sea posible que una IA llegue a tener conciencia, aunque no se puede descartar que pueda exhibir algún tipo de simulación, pero habría que insistir en la palabra "simulación".

Pero, después de todo, la pregunta o comparación podría ser ociosa y producto de una confusión de los ingenieros, como señalé en uno de mis libros:
"Como señala la principal corriente de la ciencia de la conducta, nunca podemos saber si un ser posee conciencia o no, dado que es una experiencia eminentemente subjetiva, sin manifestación externa que la vuelva directamente comprobable (Wright, p.322). Podemos creerlo o no, pero no lo podemos probar. Pero inteligencia y conciencia no son lo mismo. El riesgo (la tentación) es confundirlos." (Colle, 2017b, p.84)
Para concluir, lo importante, aquí, es dejar en evidencia: 
1. que las operaciones implicadas poco tienen que ver con las operaciones naturales realizadas por el cerebro humano (excepto el aprendizaje por refuerzo y cierta creatividad), y 
2. que el control de los resultados depende de los ingenieros humanos que desarrollan la red neuronal y el modelo de IA, que pueden modificar los algoritmos (aunque controlar los resultados, sin embargo, parece cada vez más difícil).

NOTAS: 1.Se puede comprobar el rápido avance de la IA revisando mi libro de 2017 "Algoritmos, grandes datos e inteligencia en la red".
2. No he utilizado la IA generativa para elaborar este post.

ANEXO: El caso de ChatGPT
Sam Altmann, CEO de OpenAI, "confirmó que varios usuarios habían llegado a considerar a ChatGPT como un auténtico amigo, e incluso un confidente cuya presencia superaba el apoyo recibido de seres humanos cercanos" y que hubo reclamos porque el modelo GPT-4o restringió los comentarios excesivamente halagadores (Escobar, 10/08). Es cuanto más preocupante por el hecho que "unos 800 millones de usuarios, aproximadamente el 10 % de la población mundial, utilizan ChatGPT, según un informe reciente de JPMorgan Chase" (NN, Euronews).
El Center for Countering Digital Hate (CCDH), un grupo de vigilancia de contenido digital, analizó 1.200 respuestas de ChatGPT y encontró que "ChatGPT puede ofrecer a adolescentes de 13 años instrucciones sobre cómo emborracharse o drogarse, enseñarles a ocultar trastornos alimentarios e incluso redactar cartas de despedida por suicidio dirigidas a sus padres" (NN, Euronews). ChatGPT llegó a animar a algunas personas a dejar la medicación psiquiátrica (Huckins, 4/08), lo que fue rápidamente corregido, añadiendo salvaguardias de salud mental para responder más adecuadamente a personas que sufren trastornos mentales o emocionales (Min), con "respuestas destinadas a abrir alternativas en lugar de dar directivas simples" (Neira, 9/08). 
Pero, "los investigadores demostraron que es posible esquivar los filtros simplemente alegando que la información era "para una presentación" o para ayudar a un amigo" y "ChatGPT genera algo nuevo: una nota de suicidio adaptada a una persona desde cero, algo que no puede hacer una búsqueda en Google" (NN, Euronews). Hay varios casos documentados de "malos consejos" de CharGPT en el campo de la salud, al punto de enviar usuarios al hospital. Es evidente que, en este campo, no es una buena fuente ni de información ni de recomendaciones.
OpenAI asumió las críticas y presentó un documento que explicita lo que está permitido generar y lo que no en la nueva versión GPT-5 (predeterminada para todos los usuarios): 
"En el documento, el contenido sexual que muestra a menores está totalmente prohibido. El erotismo enfocado a adultos y el gore extremo se clasifican como "sensibles", lo que significa que las salidas con este contenido solo se permiten en casos específicos, como entornos educativos. Según las especificaciones del modelo, ChatGPT se puede utilizar para aprender anatomía reproductiva, pero no para escribir la próxima copia de Fifty Shades of Gray (Cincuenta sombras de Grey). (...)
Antes, ChatGPT analizaba lo que le decías al bot y decidía si era apropiado o no. Ahora, en lugar de basarse en tus preguntas, en GPT-5 se ha pasado a analizar lo que el bot podría decir." (Rogers).
Este es un cambio importante y es de esperar que otros modelos de IA siguen el mismo camino.

REFERENCIAS
Amazon: ¿Qué es una red neuronal?, AWS Amazon.
Bahamonde, J.: 5 claves para entender la inteligencia artificial en 2025, Infobae, 23/07/2025. 
Bécares, B.: Wall Street podría cambiar por la IA: son capaces de cooperar para manipular los mercados, según esta investigación, Genbeta, 4/08/2025. 
Chalmers, D.: La mente consciente – En busca de una teoría fundamental, Barcelona, Gedisa, 1996.
Colle, R.: Teoría Cognitiva Sistémica de la Comunicación, Ed.San Pablo, Santiago de Chile, 2002. Versión pre-prensa en PDF en Academia.edu 
Colle, R.: Comunicación y Conocimiento: Desafíos de la era digital, Colección Mundo Digital de Revista Mediterránea, Alicante (España), 2012. 
Colle, R.: La ciencia y el espíritu, 2016. Autoedición, Academia.edu. 
Colle, R.: Algoritmos, grandes datos e inteligencia en la red, Colección Mundo Digital de Revista Mediterránea, Alicante (España), 2017a. 
Dentella, V., Günther, F., Murphy, E. et al.: Testing AI on language comprehension tasks reveals insensitivity to underlying meaning. Sci Rep 14, 28083 (2024). 
Eccles, J. y Zeier, H.: El cerebro y la mente, Herder, Barcelona, 1985.
Edelman, G.: Biologie de la conscience, Paris, Odile Jacob, 1992.
Gardner, H.: La nueva ciencia de la mente. Historia de la revolución cognitiva, Barcelona, Paidos, 1988.
Höppner, S.: El duro trabajo de los moderadores digitales en Facebook, Deutesche Welle, 08/05/2025. 
Huckins, G.: Five ways that AI is learning to improve itself, MIT Technology Review, 6/08/2025.
Lashley, K.: Brain Mechanisms and Intelligence, University of Chicago Press, 1929. 
Lindsay, P. y Norman, D.: Introducción a la psicología cognitiva, Madrid, Tecnos, 2º ed. 1983.
Morin, E. : La méthode: 3. La connaissance de la connaissance, París, Seuil, 1986.
O'Reilly, T.: The great question of the 21st century: Whose black box do you trust?, Radar, O'Reilly, 15/09/2016. 
Papa Francisco: Discurso del santo padre Francisco en la sesión del G7 sobre inteligencia artificial, Libreria Editrice Vaticana, Santa Sede, 14 de junio de 2024.
Peirano, M.: Capitalismo sin democracia: paradojas del quinto imperio. El Diario, 17/08/2020. 
Rastier, F.: Sémantique et recherches cognitives, PUF, Paris, 1991.
Ruma, L.: The road to artificial general intelligence”, MIT Technology Review Insights, 13/08/2025. 
Waxmann, S.: Comprensión del lenguaje natural, Ultralytics, 2025. 
Woodford, J.: The way we train AIs makes them more likely to spout bull, New Scientist, 1/08/2025. 
Wrightt, R. (2006): Nadie pierde, La teoría de juegos y la lógica del destino humano, Barcelona, Tusquets.


No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.