25 de mayo de 2023

La IA generativa y sus problemas

 - El procesamiento del lenguaje natural fue por mucho tiempo la piedra de tope de la IA. En 2022 se resolvió: ¡fecha clave! Es un hito “tan fundamental como la creación del microprocesador, la computadora personal, Internet y el teléfono móvil”, como dijo Bill Gates (FayerWayer, 23/05/23).

- La inteligencia artificial debe ser utilizada inteligentemente (La inteligencia natural debe mandar). Los algoritmos no pueden prescindir de la ética.

- "Saber cómo pedirle tareas a la inteligencia artificial es esencial para lograr los mejores resultados" (Eva Rodriguez, Genbeta, 6/05/23) 

- Se hace difícil diferencias textos (o imágenes) de autoría humana y de autoría artificial. Contribuyamos: si los publicamos, marquemos de alguna manera los textos (e imágenes) que creamos con IA si el generador no lo hace por defecto (Se espera que, a futuro, lo haga).

- Buenas reglas para la prensa: "El principal periódico de Polonia está experimentando con la IA como tormenta de ideas para preguntar en entrevistas o crear imágenes y fija prohibiciones al usar el Chat GPT: ni como generador de textos ni como fuente única, ni compartir con él info propia." (@rojastorrijos, 18/05/2023)

"La IA está llamada a realizar aquellas tareas repetitivas que actualmente realizan los periodistas, con una mayor velocidad, menor inversión económica y eliminando el sesgo del error humano", dice Luisa Aramburu, de la Universidad de Sevilla. Así, podrían "dedicar más tiempo a la investigación y al periodismo en profundidad". (Agencia SINC, 24/05/23).

- En la generación de respuestas de la IA, la cantidad prima sobre la calidad y carece de profundidad y creatividad (recordar que su base es estadística, sobre una plétora de datos). Cuestionar los resultados de un chat de IA sigue siendo importante (¡espíritu crítico!)

- "Es difícil ver cómo puedes evitar que los malhechores utilicen la IA para cosas malas" (Geoffrey Hinton, Premio Turing 2018 por sus trabajos en IA). Los peligros de la IA han sido abordados en Tendencias21 (14/04/23).  Durante la Cumbre del Consejo de CEO de The Wall Street Journal en Londres, Eric Schmidt, el ex CEO de Google, dijo que la IA plantea un "«riesgo existencial» que podría resultar en «muchas, muchas, muchas, muchas personas heridas o asesinadas" (Digital Trends, 24/05/23).

- El desarrollo y la adopción masiva de la IA generativa ha inquietado a varios estados, el Congreso norteamericano y la Unión Europea. Como lo ha sugerido Sam Altman, el director ejecutivo y cofundador de OpenAI (FayerWayer, 18/05/23), quieren establecer reglas y obligar a los creadores, pero demuestran conocer muy mal el sistema y la forma en que se crean y evolucionan los algoritmos (ver Genbeta, 16/05/23). OpenAI cree que debe haber un equilibrio entre el control y la innovación, y abogó por un acuerdo social "que permita mantener la seguridad y ayudar a la integración suave de estos sistemas con la sociedad" (Decrypt, 24/05/23). 

- Con los problemas detectados y la necesidad de reglas y de control, quizás haya llegado el momento de considerar seriamente las "tres reglas de la robótica" de Isaac Asimov, especialmente la primera: no hacer daño al ser humano. (Sería el n°1 del código moral que se quiere imponer), por cuanto "un cierto uso de los algoritmos puede representar un ulterior riesgo de desestabilización de lo humano" (Papa Francisco en Budapest, mayo 2023). "Depende de nosotros negociar el algoritmo, con el corazón", dijo el dr. Paolo Ruffini, prefecto del Dicasterio para la Comunicación en la víspera del Día de las Comunicaciones Sociales 2023.

Sin estas reglas, los riesgos de desarrollos perjudiciales son enormes. Se ha hablado ya de armas autónomas que podrían matar sin intervención humana. Prohibirlas requeriría un tratado mundial que parece difícil de lograr y aún más de imponer y controlar, como todo acuerdo sobre armas. Pero, a su vez, los campos en que puede significar grandes beneficios son numerosos.

- El G7, por su parte, reunido en Hiroshima, se comprometió "a seguir promoviendo enfoques de múltiples partes interesadas para el desarrollo de estándares para la Inteligencia Artificial” y sus miembros  reconocen “la importancia de los procedimientos que avanzan transparencia, apertura, procesos justos, imparcialidad, privacidad e inclusión para promover una Inteligencia Artificial responsable”, cuidando también la propiedad intelectual y la transparencia y evitando la manipulación de la información (FayerWayer, 22/05/23). 

-  Los algoritmos de IA generativa se siguen desarrollando (se explica en un texto de Genbeta)  y cada tantos días aparece una nueva oferta, como "Claude", de la compañía Anthropic, que procesa 3 veces más rápido que CharGTP (FayerWayer, 18/05/23), o Catbird.AI, generador de imágenes (FayerWayer, 20/05/23).

- También se inicia un camino para superar las graves limitaciones de los actuales modelos de IA generativa: la IA híbrida. Es el proyecto europeo HYBRIDS: "La idea es usar los mejores sistemas actuales introduciendo también conocimiento más estructurado o simbólico [...] Juntando los dos sistemas, el neuronal y el estructurado [o deep learning] llegamos a los 'métodos neurosimbólicos', que son bastante emergentes y de los que hay poco publicado". HYBRIDS es una iniciativa que acaba de arrancar y que concluiría en 2026. (Agencia SINC, 19/05/2023) 

- Es también posible que la IA generativa se vaya integrando a los "asistentes personales", pudiendo reemplazar a los buscadores, haciéndose además agentes de compras y apoyos productivos, como sugirió Bill Gates (FayerWayer, 23/05/23).

- Según OpenAI, la IA superará a la mayoría de los expertos humanos en la mayoría de los dominios en 10 años (Decrypt, 24/05/23).

FayerWayer consultó la "opinión" de Bard y ChatGPT sobre el futuro de la inteligencia artificial: puede consultar aquí las respuestas.