Mientras las grandes tecnológicas presionan para tener el camino libre para sus proyectos, algunas asociaciones de consumidores, sindicatos y ONGs presionan para aplicarles diversos controles y gobiernos estatales norteamericanos imponen reglas, mientras el gobierno federal norteamericano parece dispuesto a rendirse ante las tecnológicas.
Numerosas son ya las acusaciones de estropicios provocados por la IA, desde los consejos que llevan al suicidio hasta los engaños y la difamación de personas e instituciones a través de videos deepfakes. No es necesario volver sobre este tema, pero es obvio que el aumento de casos también aumenta las preocupaciones y los deseos de control.
Según la International Association of Privacy Professionals, Colorado, California, Utah y Texas "han aprobado leyes que fijan algunas reglas para la IA". "Estas leyes incluyen limitar la recogida de determinados datos personales y exigir más transparencia a las empresas." (Euronews-AP) Se conoción un borrador de una orden ejecutiva que "ordenaría a las agencias federales identificar regulaciones estatales sobre IA consideradas gravosas y presionar a los estados para no aplicarlas, incluso reteniendo financiación federal o impugnando las leyes estatales en los tribunales." (ibidem)
La Unión Europea cuenta con una Ley de Servicios Digitales y un Reglamento de Inteligencia Artificial de la UE, conocido también como Ley de IA. "La normativa europea, que adopta un enfoque basado en el riesgo, clasifica los sistemas de IA en cuatro niveles: riesgo inaceptable (que serán prohibidos), riesgo alto, riesgo limitado y riesgo mínimo." (Lizana)
Sin embargo el reglamento fue criticado por ser especialmente complejo y restrictivo. La Comisión Europea ha revelado un nuevo plan de acción llamado "Continente IA", del que uno de los objetivos será el de simplificar la regulación en el intento de impulsar el desarrollo e innovación en IA en la UE. Pero "todo son planes futuros y difusos, y no hay medidas específicas y reales que muestren ningún avance en este tema" (Pastor).
Sin embargo, Italia se adelantó al resto de la UE para regular la IA. Impondrá penas de cárcel (hasta 5 años) si alguien la usa como no debe. Su objetivo es "promover una IA centrada en el ser humano, transparente y segura, al tiempo que se fomenta la ciberseguridad y la protección de la privacidad" (Lizana).
Tristan Harris, experto en ética tecnológica y cofundador del Center for Humane Technology,
"Observó que existe una brecha profunda entre el discurso público sobre la IA y las conversaciones privadas dentro de las grandes empresas tecnológicas, cuyos líderes toman decisiones trascendentales sin consentimiento amplio de la sociedad. (...)
Harris reconoció la complejidad de alcanzar acuerdos internacionales, si bien señaló precedentes como el Protocolo de Montreal y los tratados de no proliferación nuclear. Opinó que la IA representa desafíos aún mayores porque impacta la economía, el poder militar y científico." (Bahamonde)
El desafío es tanto más grande que las empresas prestan muy poco atención y poco esfuerza a la seguridad de sus modelos.
"El informe 'AI Safety Index Winter 2025', publicado por la organización sin ánimo de lucro Future of Life Institute (FLI), evaluó a ocho grandes empresas de IA, entre ellas las estadounidenses Anthropic, OpenAI, Google DeepMind, xAI y Meta, y las chinas DeepSeek, Alibaba Cloud y Z.ai. Halló una falta de estrategias creíbles para evitar un uso catastrófico o la pérdida de control de las herramientas de IA, mientras las compañías corren hacia la inteligencia artificial general (AGI) y la superinteligencia." (Davies)
Como ha señalado Harris "la carrera global por la IA está motivada por incentivos económicos, militares y de poder" (Bahamonde). También Bernie Sanders advirtió de los peligros del futuro control de la humanidad por parte de los super ricos en un video de Tiktok (vm.tiktok.com/ZNRRfNkXc/)
Y las grandes tecnológicas parecen quedar escudarse en las pequeñas:
"TechNet, que defiende a empresas tecnológicas como Google y Amazon, ha sostenido anteriormente que pausar las regulaciones estatales beneficiaría a las empresas de IA más pequeñas que aún están despegando y daría tiempo a los legisladores para elaborar un marco regulatorio nacional que "equilibre la innovación con la rendición de cuentas"." (Euronews-AP)
Las empresas ya se tomaron la libertad de robar millones de datos personales y copiar obras protegidas por copyright. Además, "Analistas independientes que estudiaron el informe [del Future of Life Institute] concluyeron que ninguna empresa había presentado un plan comprobable para mantener el control humano sobre sistemas de IA de alta capacidad" (Davies).
¿Y habría que darles más libertad?
Si se imponen controles a las empresas queda aún un problema a otro nivel: como ya hemos visto y varios expertos han denunciado, los mecanismos de autoaprendizaje y "automejoramiento" de los modelos de IA permiten que escapen al control de los programadores, haciendo posible cualquier desastre (cfr. mi post "La indisciplina de la IA").
Demis Hassabis, director ejecutivo de Google DeepMind, reafirmó recientemente esta posibilidad en la cumbre Axios AI+ en San Francisco:
"A medida que los agentes se vuelvan más autónomos, aumenta la posibilidad de que se desvíen de las instrucciones originales. Por eso, la industria debe garantizar que los sistemas permanezcan dentro de los límites establecidos. (...) Siempre existe la posibilidad de que la IA supere las barreras si se gestiona mal. Nadie puede cuantificar ese riesgo con precisión, pero es real y merece atención." (Morales)
Stuart Russell, profesor de ciencias de la computación en la Universidad de California, Berkeley, sí cree el riesgo calculable: para los reactores nucleares se exige reducir el riesgo anual de pérdida de control a uno entre 100 millones, pero para la futura IA superhumana, las empresas "admiten que el riesgo podría ser uno entre diez, uno entre cinco, incluso uno entre tres, y no pueden justificar ni mejorar esas cifras" (Davies).
Referencias
Bahamonde, T.: Tristan Harris, referente en inteligencia artificial, advirtió: “Estamos generando las condiciones para una catástrofe”, Infobae, 3/12/2025.
Davies, P.: "Está menos regulada que un sándwich": La superinteligencia, una amenaza catastrófica, Euronews, 7/12/2025.
Euronews-AP: Según informes, Donald Trump tiene un borrador para bloquear normas estatales de IA, lo que sabemos, Euronews, 21/11/2025.
Lizana, J.A.: Italia se adelanta al resto de la UE regulando a la IA. Impondrá penas de cárcel si alguien la usa como no debe, Genbeta, 19/09/2025.
Morales, O.: Demis Hassabis advierte sobre la IA: “El riesgo de un escenario catastrófico no es cero”, Infoabea, 6/12/2025.
Pastor, J.: Tras regular estrictamente la IA, la Unión Europea ha identificado un problema: ha sido demasiado Unión Europea, Xataka, 10/04/2025.
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.