25 de mayo de 2023

La IA generativa y sus problemas

 - El procesamiento del lenguaje natural fue por mucho tiempo la piedra de tope de la IA. En 2022 se resolvió: ¡fecha clave! Es un hito “tan fundamental como la creación del microprocesador, la computadora personal, Internet y el teléfono móvil”, como dijo Bill Gates (FayerWayer, 23/05/23).

- La inteligencia artificial debe ser utilizada inteligentemente (La inteligencia natural debe mandar). Los algoritmos no pueden prescindir de la ética.

- "Saber cómo pedirle tareas a la inteligencia artificial es esencial para lograr los mejores resultados" (Eva Rodriguez, Genbeta, 6/05/23) 

- Se hace difícil diferencias textos (o imágenes) de autoría humana y de autoría artificial. Contribuyamos: si los publicamos, marquemos de alguna manera los textos (e imágenes) que creamos con IA si el generador no lo hace por defecto (Se espera que, a futuro, lo haga).

- Buenas reglas para la prensa: "El principal periódico de Polonia está experimentando con la IA como tormenta de ideas para preguntar en entrevistas o crear imágenes y fija prohibiciones al usar el Chat GPT: ni como generador de textos ni como fuente única, ni compartir con él info propia." (@rojastorrijos, 18/05/2023)

"La IA está llamada a realizar aquellas tareas repetitivas que actualmente realizan los periodistas, con una mayor velocidad, menor inversión económica y eliminando el sesgo del error humano", dice Luisa Aramburu, de la Universidad de Sevilla. Así, podrían "dedicar más tiempo a la investigación y al periodismo en profundidad". (Agencia SINC, 24/05/23).

- En la generación de respuestas de la IA, la cantidad prima sobre la calidad y carece de profundidad y creatividad (recordar que su base es estadística, sobre una plétora de datos). Cuestionar los resultados de un chat de IA sigue siendo importante (¡espíritu crítico!)

- "Es difícil ver cómo puedes evitar que los malhechores utilicen la IA para cosas malas" (Geoffrey Hinton, Premio Turing 2018 por sus trabajos en IA). Los peligros de la IA han sido abordados en Tendencias21 (14/04/23).  Durante la Cumbre del Consejo de CEO de The Wall Street Journal en Londres, Eric Schmidt, el ex CEO de Google, dijo que la IA plantea un "«riesgo existencial» que podría resultar en «muchas, muchas, muchas, muchas personas heridas o asesinadas" (Digital Trends, 24/05/23).

- El desarrollo y la adopción masiva de la IA generativa ha inquietado a varios estados, el Congreso norteamericano y la Unión Europea. Como lo ha sugerido Sam Altman, el director ejecutivo y cofundador de OpenAI (FayerWayer, 18/05/23), quieren establecer reglas y obligar a los creadores, pero demuestran conocer muy mal el sistema y la forma en que se crean y evolucionan los algoritmos (ver Genbeta, 16/05/23). OpenAI cree que debe haber un equilibrio entre el control y la innovación, y abogó por un acuerdo social "que permita mantener la seguridad y ayudar a la integración suave de estos sistemas con la sociedad" (Decrypt, 24/05/23). 

- Con los problemas detectados y la necesidad de reglas y de control, quizás haya llegado el momento de considerar seriamente las "tres reglas de la robótica" de Isaac Asimov, especialmente la primera: no hacer daño al ser humano. (Sería el n°1 del código moral que se quiere imponer), por cuanto "un cierto uso de los algoritmos puede representar un ulterior riesgo de desestabilización de lo humano" (Papa Francisco en Budapest, mayo 2023). "Depende de nosotros negociar el algoritmo, con el corazón", dijo el dr. Paolo Ruffini, prefecto del Dicasterio para la Comunicación en la víspera del Día de las Comunicaciones Sociales 2023.

Sin estas reglas, los riesgos de desarrollos perjudiciales son enormes. Se ha hablado ya de armas autónomas que podrían matar sin intervención humana. Prohibirlas requeriría un tratado mundial que parece difícil de lograr y aún más de imponer y controlar, como todo acuerdo sobre armas. Pero, a su vez, los campos en que puede significar grandes beneficios son numerosos.

- El G7, por su parte, reunido en Hiroshima, se comprometió "a seguir promoviendo enfoques de múltiples partes interesadas para el desarrollo de estándares para la Inteligencia Artificial” y sus miembros  reconocen “la importancia de los procedimientos que avanzan transparencia, apertura, procesos justos, imparcialidad, privacidad e inclusión para promover una Inteligencia Artificial responsable”, cuidando también la propiedad intelectual y la transparencia y evitando la manipulación de la información (FayerWayer, 22/05/23). 

-  Los algoritmos de IA generativa se siguen desarrollando (se explica en un texto de Genbeta)  y cada tantos días aparece una nueva oferta, como "Claude", de la compañía Anthropic, que procesa 3 veces más rápido que CharGTP (FayerWayer, 18/05/23), o Catbird.AI, generador de imágenes (FayerWayer, 20/05/23).

- También se inicia un camino para superar las graves limitaciones de los actuales modelos de IA generativa: la IA híbrida. Es el proyecto europeo HYBRIDS: "La idea es usar los mejores sistemas actuales introduciendo también conocimiento más estructurado o simbólico [...] Juntando los dos sistemas, el neuronal y el estructurado [o deep learning] llegamos a los 'métodos neurosimbólicos', que son bastante emergentes y de los que hay poco publicado". HYBRIDS es una iniciativa que acaba de arrancar y que concluiría en 2026. (Agencia SINC, 19/05/2023) 

- Es también posible que la IA generativa se vaya integrando a los "asistentes personales", pudiendo reemplazar a los buscadores, haciéndose además agentes de compras y apoyos productivos, como sugirió Bill Gates (FayerWayer, 23/05/23).

- Según OpenAI, la IA superará a la mayoría de los expertos humanos en la mayoría de los dominios en 10 años (Decrypt, 24/05/23).

FayerWayer consultó la "opinión" de Bard y ChatGPT sobre el futuro de la inteligencia artificial: puede consultar aquí las respuestas. 

 

20 de abril de 2023

ChatGPT y los datos personales

 OpenAI, el creadora de ChatGPT, se enfrenta a importantes críticas en la Unión Europea. La Comisión de la UE la acusa de violar la ley sobre confidencialidad de los datos personales.

El hecho es que, para usar ChatGPT, es necesario obtener una cuenta, lo cual implica identificarse con Google, con una cuenta de Microsoft o dando en primera instancia un correo electrónico. Y antes, la empresa registra el navegador utilizado y, seguramente, como todos los servicios en la web, el número IP y la correspondiente ubicación geográfica. Ya lo sabemos: pagamos un servicio "gratuito" con datos personales. 

"Los datos que recopila ChatGPT cada vez que lo usamos:  el nombre, la información de contacto, los datos de conexión como el propio navegador o la dirección IP, todos los mensajes que se van escribiendo y las acciones que realiza el usuario. Toda esta información se proporciona a servicios de terceros "sin previo aviso". Además, puede recopilar información de la navegación del usuario incluso después de acceder a la plataforma con el objetivo de saber donde ha ido un usuario después. (Genbeta, 5/04/23)

La autoridad italiana de protección de datos ha tomado nota de este hecho y ha prohibido su uso en el país, acusando además OpenAI de no ser transparente en relación a cómo utiliza estos datos: "People tend to share intimate, private information with the chatbot, telling it about things like their mental state, their health, or their personal opinions" (MIT Tech Review, 19/04). Varios otros países de la UE se están inquietando de la misma forma, como la propia Comisión, y es muy probable que pronto se manifieste al respecto. Y las aplicaciones de OpenAI (también Dall-E) y otras semejantes podrían lleguar a ser prohibidas en la Unión.

El mismo G7 estudiará la situación: "El Primer Ministro de Japón, Fumio Kishida, aseguró que las inteligencias artificiales generativas serán un tema importante en la reunión del G7" (Wired, 20/04/23)

Además de cuestionar a OpenAI por esta recopilación, se ha emitido la sospecha de que utiliza también esta base de datos personales para entrenar su IA, lo cual sería - evidentemente - aún más grave.