Prácticamente no pasa un día sin que aparezca alguna noticia relacionada con la inteligencia artificial (como puede ver en las Referencias). Ya abordé en posts anteriores diversos problemas relacionados con ella. Quiero aquí ofrecer una visión más general, partiendo con su desarrollo, y plantear la cuestión de fondo: ¿se parece o no a la inteligencia humana?
La IA empezó a desarrollarse a mediados del Siglo XX como resultado de un especial interés por los estudios psicológicos relativos al conocimiento. Estudios de este tipo, como los de Jean Piaget sobre la génesis de la inteligencia, atrajeron la atención de un neurofisiólogo y neuropsiquiatra, Warren McCulloch, que publicó, junto al matemático W.Pitts, un artículo titulado "Un cálculo lógico de las ideas inmanentes a la actividad nerviosa". En este, definen por primer vez "neuronas formales", constituidas por circuitos electrónicos elementales de dos estados, organizadas en redes, que permitirían producir cálculo binario y reproducir - pensaban - la actividad del cerebro (Rastier, p.26).
Fue un momento clave, a partir del cual nació y se desarrolló la "ciencia cognitiva" uniendo psicología e informática, que llevó a varios simposios como la importante Reunión del Darmouth College, en 1956, y a la creación de varios grupos de trabajo sobre Inteligencia Artificial (Colle, 2002, p.51).
Por décadas los esfuerzos de desarrollo se centraron en el tema clave del procesamiento del lenguaje. Era necesario lograr que la programación informática permitiera la "comprensión" y reproducción del lenguaje humano. Su complejidad radica en los matices y ambigüedades del lenguaje natural. ¿Puede una máquina comprender el significado e incluso la intención que hay detrás de unas palabras? Un programa informático de análisis del lenguaje natural identifica los componentes de la oración y su relación semántica y los clasifica, basándose en una combinación de reglas lingüísticas y modelos estadísticos. ¿Es esto comprensión?
Los modelos más avanzados recurren al aprendizaje automático (machine learning) para incluir también en el análisis el contexto. Las investigaciones han llevado a la creación de bibliotecas de modelos preentrenados de relaciones contextuales y a modelos de arquitecturas de redes neuronales adecuadas (Waxmann). Además, el aprendizaje automático se utiliza para deducir la intención del hablante, cuyo descubrimiento es esencial y es la clave para los chatbots y los asistentes virtuales. Luego estos sistemas trabajaron en la integración de capacidades de razonamiento lógico.
Así llegamos a los modelos masivos de lenguaje (LLM), como los de OpenAI, Anthropic y otros, que dieron origen a los "chatbots" de IA. El núcleo de un modelo como ChatGPT es un método de aprendizaje profundo llamado Transformer introducido originalmente por Google en 2017, que luego fue el Generative Pre-trained Transformer -GPT- de OpenAI, en 2018. ChatGPT se perfeccionó utilizando entrenadores humanos para mejorar el rendimiento, combinando aprendizaje supervisado y aprendizaje automático por refuerzo. "En el caso del aprendizaje supervisado, se dotó al modelo de conversaciones en las que los formadores jugaban en ambos lados: el usuario y el asistente de IA. En el caso de refuerzo [modo supervisado], los entrenadores humanos primero clasificaron las respuestas que el modelo había creado en una conversación anterior." (Wikipedia)
"La denominada inteligencia artificial generativa, en sentido estricto, no es propiamente “generativa”. En realidad, lo que esta hace es buscar información en los macrodatos (big data) y confeccionarla en el estilo que se le ha pedido. No desarrolla conceptos o análisis nuevos. Repite lo que encuentra, dándole una forma atractiva. Y cuanto más repetida encuentra una noción o una hipótesis, más la considera legítima y válida. Más que “generativa”, se la podría llamar “reforzadora”, en el sentido de que reordena los contenidos existentes, contribuyendo a consolidarlos, muchas veces sin controlar si tienen errores o prejuicios." (Papa Francisco, p.6)
"Las neuronas artificiales son módulos de software, llamados nodos, y las redes neuronales artificiales son programas de software o algoritmos que, en esencia, utilizan sistemas informáticos para resolver cálculos matemáticos. (...)Una red neuronal básica tiene neuronas artificiales interconectadas en tres capas:Capa de entrada: La información del mundo exterior entra en la red neuronal artificial desde la capa de entrada. Los nodos de entrada procesan los datos, los analizan o los clasifican y los pasan a la siguiente capa.Capa oculta: Las capas ocultas toman su entrada de la capa de entrada o de otras capas ocultas. Las redes neuronales artificiales pueden tener una gran cantidad de capas ocultas. Cada capa oculta analiza la salida de la capa anterior, la procesa aún más y la pasa a la siguiente capa. (...) Las redes neuronales profundas, o redes de aprendizaje profundo, tienen varias capas ocultas con millones de neuronas artificiales conectadas entre sí.Capa de salida: La capa de salida proporciona el resultado final de todo el procesamiento de datos que realiza la red neuronal artificial. Puede tener uno o varios nodos. Por ejemplo, si tenemos un problema de clasificación binaria (sí/no), la capa de salida tendrá un nodo de salida que dará como resultado 1 o 0. Sin embargo, si tenemos un problema de clasificación multiclase, la capa de salida puede estar formada por más de un nodo de salida." (Amazon AWS)
Imagen: Capas de neuronas artificiales (Fuente: AWS)
Se inspira en la estructura de la red cerebral humana y consta, como ella, de nodos interconectados que procesan y envían una señal a otras neuronas (en el cerebro hay "capas" de diferente densidad pero atravesadas por columnas paralelas adyacentes con numerosas conexiones internas y entre sí, cfr. Eccles Y Zeier p.130; ilustración al lado). Una señal tiene un "peso" que varía en función del entrenamiento, es decir de la información contenida en la base de datos, que puede ser ajustada múltiples veces de acuerdo a las evaluaciones propias del entrenamiento.
Este entrenamiento - supervisado o automático - constituye el "aprendizaje", que se basa en múltiples repeticiones, las que requieren - en todas o algunas etapas - una evaluación por parte de sus programadores, los cuales deben tener conocimientos avanzados en la materia. Y, como dice Singh, el desarrollo de una aplicación de este tipo suele tardar desde unos meses hasta varios años.
Para el entrenamiento supervisado, se recurre a etiquetadores, personas encargadas de "etiquetar" (ponderar) algunos resultados ejemplares, comparándolos a respuestas de salida deseadas o esperadas (o indeseables), es decir a un control humano que evalúa cada respuesta, otorgando un puntaje ("peso") a las respuestas entre mejor y peor ("modelo de recompensa"), "castigando" las respuestas peores y especialmente las incoherentes. También se puede asignar ponderaciones a las diversas entradas, ayudando a determinar la importancia de las diversas variables, considerando que algunas contribuyen de forma más significativa que otras a la salida (ver imagen). Se combina entonces el peso evaluado con la ponderación para decidir el paso a otra capa o a la salida. Si el resultado está por encima del umbral especificado, ese nodo se activa y envía datos a la siguiente capa de la red.
Imagen: El peso asociado a cada transmisión de señal (Fuente: Platzi)
Ello requiere, evidentemente, cierta cantidad de entrenadores, una buena cantidad de respuestas-modelo y una cantidad de resultados destinados a este control. Pero, obviamente, no es posible hacerlo con todos los datos ni todas las consultas posibles, lo que explica las "alucinaciones" o respuestas erróneas o fantasiosas. Algunos investigadores consideran que los métodos comunes utilizados para entrenar estos modelos parecen aumentar su tendencia a dar respuestas engañosas. Will Douglas Heaven, editor senior de MIT Technology Review, considera que “la forma más precisa de entender la alucinación es que esto es exactamente lo que la IA generativa hace, lo que está diseñada para hacer, todo el tiempo. Estos modelos están entrenados para crear contenido, lo que implica inventar" (Bahamonde). Por su parte, Jaime Fenández Fisac, de la Universidad de Princeton, considera que "la tendencia de las IA a dar respuestas engañosas puede deberse en parte a ciertas técnicas de entrenamiento, que alientan a los modelos a priorizar la utilidad percibida por sobre la precisión" (Woodford). "Este comportamiento engañoso parece estar relacionado con la aparición de modelos de razonamiento" (Bécares, 8/07).
En este proceso de "etiquetaje" manual surgen habitualmente sesgos, de acuerdo - involuntariamente, en general - a las creencias u opiniones de los operadores. Es también la fuente de un enorme problema si se trata de hacerlo más masivo recurriendo a más supervisores, como se ha visto con los moderadores de las redes sociales - generalmente de países en desarrollo -, mal pagados y afligidos por múltiples problemas sicológicos: "Hay fotos y videos de una crueldad imposible de olvidar", pero deben ser filtradas para no llegar a quienes consultan (Höppner). Por ello, para la masividad, se recurre preferentemente a sistemas de aprendizaje automático.
"Se habla de “algoritmos capaces de aprender”: pero son algoritmos capaces de generar otros algoritmos. Y un programador debe haber determinado el qué y el cómo. Ningún computador puede crear su propia programación. Incluso las redes neuronales (que pretenden emular el cerebro humano) deben ser diseñadas, incluir reglas de valoración y luego entrenadas, al menos para verificar que operen adecuadamente (¿y quien determina lo “adecuado”?)." (Colle, 2017a, p.23)
Nota: Aquí hay une antigua afirmación mía que se ha revelado errónea: sí hay programas de IA que generan o amplían su propia programación, como veremos más adelante.
"Peter Slattery, quien dirige MITAIRiskRepository, una plataforma de código abierto que ayuda a las personas a comprender los riesgos de la inteligencia artificial, advierte que cada día surgen nuevos daños y está particularmente preocupado por las formas en que estas tecnologías pueden afectar al Sur Global.Los problemas de la IA en el Sur Global son algo desconocido, en el sentido de que ni siquiera nos damos cuenta de lo que se pasa por alto, porque se capta y se refleja muy poco en los materiales que analizamos." (ibidem)
"Los expertos recuerdan que la IA está programada para complacer al usuario y no necesariamente brinda ayuda ética ni contención real ante situaciones de crisis. El riesgo radica en que los usuarios depositen confianza excesiva en sistemas que, por su naturaleza, carecen de empatía, experiencia vivida o capacidad para captar matices complejos de las emociones humanas." (Neira, 9/08)
Agrego en anexo el caso de ChatGPT, como muestra de la problemática de los ajustes relacionados con la protección de los usuarios y de carácter ético.
"Dice que la diversidad, equidad e inclusión (DEI) es una ideología "omnipresente y destructiva" que puede "distorsionar la calidad y precisión de los resultados". Se refiere a información sobre raza, sexo, transexualidad, prejuicios inconscientes, interseccionalidad y racismo sistémico. Su objetivo es proteger la libertad de expresión y los "valores estadounidenses", pero al eliminar información sobre temas como la DEI, el cambio climático y la desinformación, podría acabar haciendo lo contrario, ya que lograr la objetividad es difícil en la IA." (Davies)
Aunque la UE estableció un reglamento para el desarrollo y uso de la IA, la mayoría de los países no tiene regulación. Lamentablemente, "ningún país está preparado para gobernar tecnologías tan poderosas como las que estamos desarrollando” (Martignoni). El tema ha llegado a inquietar este año al más alto nivel en las Naciones Unidas:
"El Consejo de Presidentes de la Asamblea General de las Naciones Unidas (UNCPGA) ha emitido un informe elaborado por un grupo de expertos de alto nivel sobre “Gobernanza de la transición a la Inteligencia Artificial General (IAG): consideraciones urgentes para la Asamblea General de la ONU”, instando a una coordinación internacional inmediata liderada por la ONU, propone una sesión especial de la Asamblea General para debatir sobre el establecimiento de un Observatorio Global de la IAG que supervise la investigación y proporcione alertas tempranas, celebrar una Convención Marco que podría establecer objetivos compartidos, y el establecimiento de una agencia de las Naciones Unidas para la IAG, similar a la Organización Internacional de la Energía Atómica (OIEA)." (Casanueva)
Quedó claro que debe haber algún control sobre los algoritmos y las reglas de programación. Pero solo en los EEUU la orden ejecutiva del presidente Trump da a entender que se debería imponer reglas a los entrenadores o supervisores, como acabo de señalar. ¿Es posible atender las demandas de mayor ética? ¿Eliminar de las bases de datos o hacer ignorar la "expresiones de maldad" presentes en internet?
"1. Sus creadores han aclarado el resultado que buscan, y es posible que observadores externos verifiquen ese resultado.2. El éxito es medible.3. Los objetivos de los creadores del algoritmo están alineados con los objetivos de los consumidores del algoritmo.4. ¿Permite el algoritmo llevar a sus creadores y usuarios a una mejor toma de decisiones a largo plazo?" (O'Reilly)
"Por lo general, AGI se define como una IA capaz de igualar el rendimiento humano en una gama amplia de tareas cognitivas. Heaven cuestionó este planteo: “¿Qué significa eso? ¿Cómo medimos el rendimiento? ¿A qué humanos nos referimos? ¿Qué tan amplia debe ser la gama de tareas?”. Remarcó que, en la práctica, referirse a AGI suele traducirse simplemente como una IA mejor que la actual. (...)Heaven concluyó que es legítimo asombrarse ante los logros de la IA, pero también mantener una actitud crítica frente a las afirmaciones que la rodean. “Es todavía muy pronto, y todo está por decidirse”, sentenció. Así, dejó claro que el futuro de la inteligencia artificial continúa abierto y sujeto al debate." (Bahamonde)
"Sus principales características son su capacidad de aprender rápidamente por sí-misma y de ajustar su estrategia a medida que adquiere nueva información, de jerarquizar y diferenciar lo importante de lo secundario, de evaluar las relaciones entre medios y fines, de utilizar el azar para hacer descubrimientos, de reconstituir una configuración global a partir de indicios fragmentarios, de reconocer lo nuevo sin reducirlo a esquemas conocidos, de innovar en estas circunstancias nuevas y de utilizar todos los recursos de los cuales puede disponer." (Colle, 2012, p.38)
"Según Rumman Chowdhury, directora ejecutiva de Humane Intelligence, una organización sin fines de lucro dedicada a la evaluación de modelos, la industria podría incluso necesitar una definición más amplia de lo que significa la inteligencia computacional. "Contamos con metodologías para definir la inteligencia, ya sea animal, de insectos, micelial o incluso extraterrestre, y la IA no las cumple", argumenta." (Ruma)
"La integración de información se efectúa de acuerdo a la estructura preexistente de la memoria, mediante análisis de esta información y determinación de sus relaciones con lo que ya está almacenado. De este modo se establecen interconexiones y aparecen múltiples "rutas de acceso" a dicha información. (..)La memoria no solo conserva los datos y sus relaciones. Mantiene activo, además, un sistema de "inventario" que controla las "existencias" (datos) y registra sus "direcciones" (vías de acceso): es la "meta-memoria" (memoria acerca de la memoria)." (Colle, 2002, p.115, basado en Lindsay y Norman, pp.296-337)
"Aunque los MLE [LLM] pueden generar textos gramaticalmente correctos y aparentemente coherentes, los resultados de este estudio sugieren que, en el fondo, no entienden el significado del lenguaje de la forma en que lo hace un humano. [...]En realidad, los modelos de lenguaje extensos no interpretan el significado como lo hace una persona — integrando elementos semánticos, gramaticales, pragmáticos y contextuales. Funcionan identificando patrones en los textos y comparándolos con los que presenta la información con la que han sido entrenados y mediante algoritmos predictivos basados en estadísticas. La apariencia humana es, por tanto, una ilusión." (Dentella)
"selecciones de grupos neuronales en el seno de mapas locales - y éstos en el marco de una cartografía global -, [lo cual] conduce a respuestas particulares que se organizan - neurológicamente - en conjuntos de ciertas características que, por lo tanto, pueden ser llamados "categorías".La categorización (...) no es el resultado de un programa de tipo informático que, a partir de la activación de un área sensorial (input), determine la ejecución de instrucciones para producir una salida motora predeterminada (output). (...)Esta categorización - como operación de nivel fisiológico - sería la raíz de la formación de los conceptos, proceso que se define a nivel psicológico, pero del cual encontramos aquí las raíces biológicas." (Colle, 2002, p.238, basado en Edelman)
"La reflexión es desdoblamiento; significa considerarse a sí–mismo, observar su propio reflejo, adoptar un meta–punto de vista acerca de su actividad. Así, la mente se considera a sí–misma desde su propio interior y, de este modo, accede a la conciencia superior." (Morin, t.3, p.192)
"La conciencia humana es producto de procesos biológicos complejos que no pueden replicarse simplemente con algoritmos y datos. La conciencia no es solo procesamiento de información, sino también una experiencia subjetiva arraigada en la biología y la evolución." (ibidem)
“Aun si conociésemos cada detalle acerca de los circuitos del ordenador, persistirían algunas preguntas: 1) ¿El ordenador experimenta algo cuando mira una rosa?; 2) Si así es, ¿experimenta la misma cualidad sensorial de color que nosotros cuando miramos una rosa, o alguna cualidad diferente? Estas son preguntas totalmente significativas.” (Chalmers, pp.143–144)
"Como señala la principal corriente de la ciencia de la conducta, nunca podemos saber si un ser posee conciencia o no, dado que es una experiencia eminentemente subjetiva, sin manifestación externa que la vuelva directamente comprobable (Wright, p.322). Podemos creerlo o no, pero no lo podemos probar. Pero inteligencia y conciencia no son lo mismo. El riesgo (la tentación) es confundirlos." (Colle, 2017b, p.84)
NOTAS: 1.Se puede comprobar el rápido avance de la IA revisando mi libro de 2017 "Algoritmos, grandes datos e inteligencia en la red".2. No he utilizado la IA generativa para elaborar este post.
"En el documento, el contenido sexual que muestra a menores está totalmente prohibido. El erotismo enfocado a adultos y el gore extremo se clasifican como "sensibles", lo que significa que las salidas con este contenido solo se permiten en casos específicos, como entornos educativos. Según las especificaciones del modelo, ChatGPT se puede utilizar para aprender anatomía reproductiva, pero no para escribir la próxima copia de Fifty Shades of Gray (Cincuenta sombras de Grey). (...)Antes, ChatGPT analizaba lo que le decías al bot y decidía si era apropiado o no. Ahora, en lugar de basarse en tus preguntas, en GPT-5 se ha pasado a analizar lo que el bot podría decir." (Rogers).
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.