La actual Asamblea General de las Naciones Unidas se inició tras una Cumbre sobre el Futuro, que formuló un "Pacto para el Futuro" aprobado luego por la Asamblea. En este se advierte sobre los "riesgos catastróficos y existenciales crecientes" de las tecnologías digitales, entre ellos los de la IA, lo cual se aborda más detalladamente en un anexo titulado "Pacto Digital Global", donde se señala:
3. Reconocemos que la rápida evolución y la potencia de las tecnologías emergentes están creando nuevas posibilidades, pero también nuevos riesgos para la humanidad, algunos de los cuales todavía no se conocen bien. Reconocemos la necesidad de determinar y mitigar los riesgos y garantizar la supervisión humana de la tecnología para promover el desarrollo sostenible y el pleno disfrute de los derechos humanos. (p.42)
Además, "mejorar la gobernanza internacional de la inteligencia artificial en beneficio de la humanidad" constituye el "Objetivo 5", en el cual se señala "Necesitamos urgentemente evaluar y abordar de forma inclusiva los posibles efectos, oportunidades y riesgos de los sistemas de inteligencia artificial para el desarrollo sostenible y el bienestar y los derechos de las personas" (p.55).
El mismo secretario general de la ONU, António Guterres, advirtió, al iniciar la asamblea, que "el estado de nuestro mundo es insostenible", siendo la IA una de las tres grandes amenazas que pesan sobre la comunidad internacional (Diario Financiero, 25/09/2024).
Este tipo de advertencia no es nuevo. En marzo de 2023, la Unesco pidió ya a los Gobiernos aplicar una Marco Ético Mundial sobre inteligencia artificial (Deutsche Welle, 30/03/2023).
En mayo del mismo año, decenas de líderes de la industria de la inteligencia artificial, académicos y celebridades firmaron un documento publicado por el Centro para la Seguridad de la IA, donde sostienen que "mitigar el riesgo de extinción de la inteligencia artificial (IA) debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear" (Prensa Uchile, 23/06/2023). Entre los firmantes se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de Google DeepMind, Demis Hassabis y más personalidades del sector tecnológico (Deutsche Welle, 30/05/2023 y CNN, 31/05/2023).
El 13 de mayo 2023, el parlamento europeo aprobó el proyecto de nueva ley de IA, después de largas discusiones acerca de los diversos usos de la IA y su clasificación, intentando definir los que serían tan peligrosos que debían prohibirse o clasificarse como de alto riesgo. Los políticos europeos fueron de los primeros del mundo en redactar reglas del juego para la IA. En el centro del debate estuvo la cuestión de si es posible limitar los riesgos que presenta para las sociedades sin reprimir el crecimiento de la tecnología. (Wired, 9/05/2023). La Ley clasifica las aplicaciones de IA en tres categorías de riesgo: prohíbe las aplicaciones y sistemas que supongan un riesgo inaceptable, estable requisitos legales específicos para las aplicaciones de alto riesgo y las otras quedan en gran medida sin regular (
EU Artificial Intelligence Act). Pero, aparte de esto, todo queda en manos de los productores y de los usuarios. Y los fabricantes se resisten: la web Xataka señala (19/09/2024) que
"Los dos directivos [de Meta y Spotify] encabezan una lista de empresas, incluidas muchas europeas, que advierten del riesgo al que se enfrenta la UE con su obsesión reguladora" ya que estaría frenando el desarrollo de la IA y la innovación:
"la regulación preventiva de los daños teóricos de tecnologías incipientes como la IA de código abierto ahogará la innovación".
En septiembre de 2023, un especial de Oprah Winfrey abordó el impacto de la IA en la sociedad. Sam Altman, de OpenAI, hizo énfasis en la necesidad de implementar pruebas de seguridad y regulaciones para evitar que la IA se convierta en una amenaza para la sociedad. El director del FBI, Christopher Wray, advirtió sobre los usos criminales de esta tecnología, en particular el aumento de la sextorsión y los deepfakes (Infobae, 13/09/2023).
El mismo mes, al final de la cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM), celebrada en Seúl, más de 60 países, incluidos Estados Unidos y varios miembros de la OTAN, firmaron un acuerdo que establece directrices para el uso responsable de dispositivos equipados con IA en el campo de batalla, pero China decidió no suscribir el acuerdo. El objetivo de este es garantizar que la IA militar se desarrolle y use de manera "ética y centrada en el ser humano". El acuerdo no es vinculante, pero sus firmantes afirman que supone un avance significativo al delinear los riesgos asociados con el uso de la IA en la guerra. Como señalan en Genbeta, fuente de esta información, los países involucrados en conflictos tienen pocos incentivos para frenar el desarrollo de estas tecnologías (Genbeta, 13/09/2024).
En noviembre tuvo lugar una Cumbre de Seguridad de la IA en Bletchey (Reino Unido). Afirmó que "por el bien de todas las personas, la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura, centrada en el ser humano, confiable y responsable". También señala riesgos importantes:
Riesgos de seguridad particulares surgen en la “frontera” de la IA, entendida como aquellos modelos de IA de propósito general altamente capaces, incluidos los modelos básicos, que podrían realizar una amplia variedad de tareas, así como IA específicas y relevantes que podrían exhibir capacidades que causen daño, que igualan o superan las capacidades presentes en los modelos más avanzados de hoy. Pueden emerger riesgos sustanciales debido a un posible uso indebido intencional o problemas de control no deseados relacionados con la alineación con la intención humana. [...]
Nos preocupan especialmente estos riesgos en ámbitos como la ciberseguridad y la biotecnología, así como donde los sistemas de inteligencia artificial de vanguardia pueden amplificar riesgos como la desinformación. (Gov.uk, 1/11/2023).
En diciembre de 2023, el Papa Francisco advirtió sobre la falta de regulación de la IA y una potencial dictadura digital, llamando también a una gestión que salvaguarde los derechos y el desarrollo humanos: “Es necesario ser conscientes de las rápidas transformaciones que están ocurriendo y gestionarlas de modo que se puedan salvaguardar los derechos humanos fundamentales, respetando las instituciones y las leyes que promueven el desarrollo humano integral." (Futuro 360, 22/12/2023). El 23 de septiembre 2024, en el discurso entregado a la Academia Pontificia de las Ciencias, reiteró su advertencia acerca de las implicaciones negativas de la IA, instando a "reconocer y prevenir los riesgos de los usos manipuladores de la IA para moldear la opinión pública, influir en las decisiones de los consumidores e interferir en los procesos electorales" (Vatican News, 23/09/2024).
En junio pasado, Noam Chomsky, junto a otros dos especialistas, escribió un artículo en el New York Times expresando que "tememos que la variedad más popular y de moda de la inteligencia artificial (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a la tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento", considerando además que los sistemas de IA son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer. (La Tercera, 19/06/2024)
En agosto, el Instituto Tecnológico de Massachussets advirtió que la IA podría salir mal de 700 diferentes maneras (Euronews, 29/08/2024). En su revista, también aludió a la conveniencia - y dificultades - de los controles internos en las empresas que desarrollan las aplicaciones. Señaló que probar los modelos de IA antes de publicarlos es una estrategia habitual para mitigar ciertos riesgos y bloquear la publicación de modelos si se los considera demasiado peligrosos. Pero advirtió que "la precisión y la exhaustividad de estas pruebas dejan mucho que desear". Además, "es poco probable que las pruebas actuales revelen todos los riesgos" y lleguen a justificar una investigación más profunda. También ha advertido que cada vez hay más pruebas de que la crítica abierta por parte del personal de los laboratorios de IA se está volviendo menos frecuente y que existe el miedo de denunciar (MIT Technology Review, 16/09/2024). De este modo, obviamente los riesgos aumentan.
El martes 10 de septiembre (2024), 230 personalidades de todo el mundo (de Estados Unidos, China, Europa, América Latina, África y Medio Oriente) entregaron al presidente de la Asamblea General de ONU una carta clave, pidiendo avanzar hacia una Convención Internacional sobre Inteligencia Artificial General. [...]
El documento señala, en su primer párrafo, que “en esta era digital, la inteligencia artificial ha aumentado las oportunidades, pero también los desafíos. El más mínimo error puede borrarnos de la faz de la Tierra”. (El Mostrador, 13/09/2024)
Como hemos visto, la Cumbre sobre el Futuro, al inicio de la Asamblea General de este año, dio respuesta a esta solicitud.
En su nuevo libro, "Nexus", Yuval Noah Harari advierte que “La Inteligencia Artificial permite una vigilancia total, que acaba con cualquier libertad”, lo cual ocurre ya en varios países. Y denuncia a los creadores: "La gente del sector está atrapada en esta mentalidad de carrera armamentística, algo extremadamente peligroso". Lo que hay que controlar, dice, son los algoritmos, no los usuarios, aunque se trata de uso tanto como de diseño en el caso de los gobiernos totalitarios. (La Tercera, 19/09/2024).
Con independencia de dónde vivamos, podríamos vernos envueltos por una red de algoritmos incomprensibles cuya función sería gestionar nuestras vidas, remodelar nuestras políticas y nuestras culturas, e incluso rediseñar nuestro cuerpo y nuestra mente; al mismo tiempo, nos resultaría imposible entender las fuerzas que nos controlan, no hablemos ya de detenerlas. Si una red totalitaria del siglo XXI consigue conquistar el mundo, puede que no se encuentre gobernada por un dictador de carne y hueso sino por una inteligencia no humana hueso, sino por una inteligencia no humana. (Harari, Prólogo)
Se reivindica a la IA como herramienta "imprescindible" para la ciberseguridad y se señala la escasez de talento para administrarla (El Mostrador, 14/09/2024), pero es poco común que se la señale como uno de los riesgos que la seguridad enfrenta. Pero, dice Harari que "la IA no es una herramienta sino un agente: puede sustituir a los humanos en la toma de decisiones" y esto es lo más peligroso ya que "tiene el potencial de escapar de nuestro control y de esclavizarnos o aniquilarnos" (Harari, Prólogo).
Podemos observar aquí dos tendencias: la resistencia frente al desarrollo de la IA, con pedidos de moratoria o incluso prohibición, y la apertura pero sujeta a regulación. Es esto último que encontramos, generalmente, a nivel de los estados: no solo la UE estableció reglas, China también las tiene, Canadá las está discutiendo desde 2022 (proyecto de ley C-27) y la Casa Blanca anunció en octubre de 2023 un amplio conjunto de normas y principios, aunque la normativa aún ha de pasar por el Congreso.
Pero también subsiste un cuestionamiento, como el de Chomsky y del papa Francisco, acerca de la ética: ¿se ligaría solo a las decisiones de uso o deberían insertarse reglas en los mismos algoritmos?
La UNESCO abordó el tema en noviembre de 2021, proponiendo una primera norma mundial ("Recomendación sobre la ética de la inteligencia artificial"), "centrada en la dignidad humana y los derechos humanos, así como en la igualdad de género, la justicia social y económica y el desarrollo, el bienestar físico y mental, la diversidad, la interconexión, la inclusión y la protección del medio ambiente y de los ecosistemas", que fue adoptada por los 193 Estados miembros (UNESCO, 2021).
En esta recomendación, la UNESCO abordó indirectamente el tema de la formulación de los algoritmos, señalando que "las cuestiones éticas relativas a los sistemas de IA atañen a todas las etapas del ciclo de vida de estos sistemas, que aquí se entiende que van desde la investigación, la concepción y el desarrollo hasta el despliegue y la utilización", insistiendo varias veces en que se debe considerar los valores "en todas las etapas del ciclo de vida", y "ninguno de los procesos relacionados con el ciclo de vida de los sistemas de IA podrá ir más allá de lo necesario para lograr propósitos u objetivos legítimos" (pp.10, 11, 18, y 20). Además, "hay que hacer todo lo posible por aumentar la transparencia y la explicabilidad de los sistemas" (p.22). Y las responsabilidades deben ser conocidas y eventualmente perseguidas. "Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recurso relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes" (p.22).
El "2º Foro Mundial sobre la Ética de la IA", que organizó en febrero de 2024, no aportó nuevas normas y se centró en el tema de la gestión (UNESCO, 2024).
El Órgano Asesor de Alto Nivel sobre Inteligencia Artificial de las Naciones Unidas, creado el año pasado para abordar cuestiones de gobernanza de la IA, publicó hace poco un documento titulado "Governing AI for humanity" que contiene siete recomendaciones para la gobernanza de la IA y advirtió de los peligros que puede plantear la IA si sólo unas pocas multinacionales pueden controlarla en el mercado. "Existe el riesgo de que la tecnología pueda imponerse a la gente sin que ellos puedan opinar sobre cómo se utiliza", afirma. También sugiere que la organización asuma un papel más activo en el seguimiento y supervisión de la IA. (Computerworld, 19/09/2024). Las recomendaciones han sido sometidas a la Cumbre de la ONU sobre el Futuro (22-23/09/2024) y he señalado al principio el Pacto resultante.
Si encontramos múltiples exposiciones acerca del rol de la IA generativa utilizada para engañar a los usuarios particulares para robarles datos - lo que se conoce como ingeniería social - y a la vez detectar y frenar esta (BBVA, 28/06/2024), es poco frecuente que se hable de ataques a los sistemas de los prestadores (bancos, empresas o gobiernos) aunque los ciberdelincuentes también están en condiciones de desarrollar nuevas formas de ataque a tales sistemas o ven facilitados los conocidos como los ataques de denegación de servicio (DDos), los ataques "de fuerza bruta" o el ransomware. Es que los afectados prefieren mantener el silencio sobre lo ocurrido. Los más conocidos, hasta ahora, han sido los ataques que han permitido la divulgación de miles de cuentas de usuarios ("ataque de enumeración de cuentas"), que aparecen en la 'dark web'. "El equipo Digital Footprint Intelligence de Kaspersky, ha observado una media de 1.731 mensajes mensuales en la 'dark web' referentes a la venta, compra y distribución de bases de datos y documentos corporativos internos de empresas" (Europapress, 1/01/2024). No es posible saber si se usó IA para robarlos, pero es cada vez más probable. Por cierto son, en cierto modo, usos y consecuencias "menores" en comparación con los riesgos mayores que representaría una IA capaz de decidir por sí mismo y afectar a toda la humanidad como han advertido diversos científicos.
Referencias
BBVA, 28/06/2024: La IA, en los dos lados de la ciberseguridad: aliada y amenaza en el mundo digital.
CNN, 31/05/2023: Expertos advierten sobre un "riesgo de aniquilación global" debido a la inteligencia artificial.
Europapress, 1/01/2024: Datos personales que llegan a la 'dark web': qué es, cómo comprobar si se han filtrado y cómo evitar que suceda otra vez.
Futuro 360, 22/12/2023: El Papa advierte sobre la falta de regulación de IA y una potencial dictadura digital.
Genbeta, 13/09/2024: Todas las grandes potencias están de acuerdo en que la IA no controle el botón rojo nuclear. Todas... menos una.
Gov.uk, 1/11/2023: Declaración de Bletchley de los países que asisten a la Cumbre de seguridad de la IA, 1 y 2 de noviembre de 2023.
Harari, Y.N. (2024): Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA, Penguin Random House.
Infobae, 13/09/2024: Sam Altman y Bill Gates alertan sobre los peligros y efectos de la IA: es urgente una regulación global.
La Tercera, 19/09/2024: Yuval Noah Harari: “La Inteligencia Artificial permite una vigilancia total, que acabe con cualquier libertad”.
Wired, 9/05/2023: La batalla mundial para regular la inteligencia artificial apenas comienza.
Xataka, 19/09/2024: Meta y Spotify avisan a la UE: la regulación va a provocar que pierda el tren de la IA.