29 de octubre de 2025

Super IA: ¿una ambición imperial que podría ir contra la humanidad?

 El CEO de Meta, Mark Zuckerberg, fundó Meta Superintelligence Labs en junio después de invertir 14.300 millones de dólares en Scale AI, mientras que Sam Altman de OpenAI dijo en enero que OpenAI está cambiando su enfoque hacia el desarrollo de superinteligencia (Swain).

¿De que se trata? "La superinteligencia se define de forma general como una inteligencia artificial que supera las capacidades cognitivas humanas" (Davies). Sería la culminación de la IA General (AGI), que es "un tipo de IA que iguala o supera las capacidades cognitivas humanas" (ibidem).

Si ya había preocupaciones con el desarrollo de la IA generativa, han crecido aún más con la carrera por la IA general (AGI) y la superinteligencia.

Ya he señalado varias veces las advertencias del premio nobel de física, Geoffrey Hilton: en la conferencia Ai4 de Las Vegas, aseguró que la IA pronto será más fuerte y dominante, y dejará a los humanos sumisos y doblegados ante su propia voluntad y que las empresas tecnológicas no están tomando las decisiones correctas para evitar que “termine con la humanidad” (Iporre).

No es el único en proclamar su preocupación: Ilyas Khan,  compañero de Stephen Hawking y fundador de Quantinuum, la empresa de computación cuántica vanguardista más grande del mundo dedicada a potenciar la IA, comparte su preocupación. Recuerda lo que le pasó a Oppenheimer en relación a la bomba atómica: "si se usara mañana una fracción de las bombas que existen, podrían aniquilar a la humanidad". Con la IA también podría darse "una confluencia de circunstancias que podrían llevarla a tomar decisiones contrarias a nuestros intereses. Y si nuestro interés es la supervivencia, entonces es mínimamente probable que, en los próximos 100 años, pueda existir un conjunto de instrucciones que nos aniquile" (Carrera). Khan cree que se está deificando la IA.

"Es un tipo de futuro del que hablaba Stephen Hawking y creo que sería el peor resultado: un mundo donde somos esclavos de una máquina, en el que no se nos permite pensar en su contra y en el que siempre tengamos miedo." (en Carrera)

Lo peor es que "no estamos preparados para reconocer el peligro" que ya existe con la captura de nuestros datos en internet, lo cual nos hace perder autonomía: "Nuestros datos, y por tanto, el acceso a controlar nuestras vidas, están siendo usurpados por otro poder soberano" (ibidem).

Khan, sin embargo, es optimista en relación al futuro: "Creo que nuestro Dios nos ha dado a todos la capacidad de lidiar con cualquier cosa que se nos presente" (ibidem).

No deja de ser preocupante que se estén invirtiendo miles de millones de dólares en el desarrollo de la IA, no solo para satisfacer la demanda por la IA generativa y las aplicaciones especializadas, sino justamente para avanzar hacia la superinteligencia. OpenAI contrató capacidad de cómputo con Oracle por valor de 300.000 millones de dólares en un plazo de cinco años, en el marco del Project Stargate, que plantea una inversión de 500.000 millones de dólares en centros de datos para IA (Pastor). Además, OpenAI recibirá una inversión de US$100.000 millones de Nvidia, que "permitirá desplegar al menos 10 gigavatios de sistemas Nvidia en la infraestructura de inteligencia artificial (IA) de la próxima generación de OpenAI, con el fin de entrenar y ejecutar su nueva generación de modelos en el camino hacia la superinteligencia" (Carrizo). OpenAI pidió además la ampliación de los créditos fiscales para incluir la fabricación de semiconductores, servidores de IA, centros de datos y componentes electrónicos (González).

Nvidia también invirtió 5.000 millones de dólares en Intel para desarrollar infraestructura de IA e Intel fabricará chips que integrarán la tecnología de Nvidia (Euronews). OpenAI construirá centros de datos con entre 4 y 5 millones de GPUs. Todo costaría más de los 500.000 millones de dólares (Lacort). Participa también Broadcom para el despliegue de los 10 GW de aceleradores de IA, que serán codiseñados por ambas empresas (Pastor 2).

Imagen: Centro de datos de OpenAI en Estados Unidos 

Meta planea una inversión de hasta 65.000 millones de dólares este año, en el mismo marco de Stargate (Marquez). E invertiría “cientos de miles de millones de dólares en computación para desarrollar superinteligencia” a largo plazo (Escobar). El CEO de Meta, Mark Zuckerberg, dijo recientemente que la superinteligencia estaba "a la vista", mientras que el CEO de X, Elon Musk, dijo que la superinteligencia "está sucediendo en tiempo real" y el CEO de OpenAI, Sam Altman, afirmó que espera que la superinteligencia se materialice a más tardar en 2030. (Dent).

¡Estas empresas concentran más poder que muchos estados (y están supeditadas al gobierno de los Estados Unidos)! "Actúan bajo una mezcla de ambición imperial y fervor mesiánico" dice Bautista Sanjurjo en Infobae, agregando que "la búsqueda de una inteligencia artificial general se ha convertido en una misión casi religiosa para los líderes y fundadores de estas compañías".

"Los imperios y las religiones buscaron en el pasado lo que entendían que era el bien para la humanidad, pero por el camino en su lugar generaron grandes cantidades de daño y sufrimiento. Las empresas tecnológicas de inteligencia artificial parecen estar siguiendo una estela similar: instalan enormes centro de datos que necesitan agua potable para funcionar en países del sur global con sequías recurrentes y legislación laxa; su enorme consumo de energía erosiona los pequeños logros que se han conseguido en la lucha contra el cambio climático; la escasa representación de lenguas y grupos minoritarios en los datos de entrenamiento de modelos de IA minimiza todavía más su presencia en el mundo; la disolución de la realidad en internet es cada vez más evidente." (Delisau)

Como señalado antes, muchos críticos consideran que la capacidad potencial de la IA general o de la superinteligencia constituye un grave riesgo para la humanidad y el tema se abordó en la 80ª Asamblea General de la ONU, donde más de 200 líderes políticos, científicos y tecnológicos, incluidos 10 premios Nobel y directivos de OpenAI y Google, hicieron un llamamiento a fijar en 2026 "líneas rojas" globales para los usos más peligrosos de la IA. 

"El manifiesto advierte de que, sin un marco normativo global, la humanidad corre el riesgo de afrontar amenazas derivadas de la IA que van desde pandemias artificiales y campañas masivas de desinformación hasta violaciones sistemáticas de derechos humanos e incluso la pérdida de control sobre sistemas avanzados. (...)

Reclaman la creación de un organismo internacional independiente que supervise la aplicación de las normas y confían en que las negociaciones para prohibiciones vinculantes puedan comenzar cuanto antes. Ahmet Üzümcü, ex director general de la Organización para la Prohibición de las Armas Químicas, advirtió de que retrasar ese debate podría causar 'daños irreversibles para la humanidad'." (Armangau). 

Recordemos que la política de las plataformas de IA es «winner takes all». Su poder es tal que logra imponer sus condiciones a otras empresas e incluso, algunas veces, a algunos gobiernos: en 2021, por ejemplo, Facebook bloqueó el acceso a sitios del gobierno australiano qui publicaban informaciones sensibles para sus ciudadanos y el gobierno debió hacer algunas concesiones en la ley (Toledano & Thibout). 

La carrera por la "super IA" es también una carrera por el "super lucro". Aunque en su artículo se refiere a la política nacional, el abogado Guillermo Pickering advierte sobre la adicción al lucro:

"Como toda adicción, el lucro no se mide por sus efectos inmediatos, sino por la devastación que deja en el largo plazo. (...)

El lucro adictivo nunca se detiene en la pregunta por el desarrollo integral, porque su única medida es la utilidad inmediata. (...)

La tecnología sirve tanto para curar como para devastar, tanto para extraer como para sofocar la innovación. No hay aquí altruismo ni proyecto colectivo: solo la compulsión de aumentar la dosis de ganancias." (Pickering)

En su entrevista con la periodista de Crux, Elise Ann Allen, vertida en el libro "León XIV: Ciudadano del mundo, misionero del siglo XXI", el Papa también cuestionó la ignorancia por el valor del hombre de las inversiones en IA, "en la que invierten los "extremadamente ricos", ignorando por completo el valor del ser humano. (...) Existe un grave riesgo de que "el mundo digital siga su propio camino" y todos nos convirtamos en "peones". (Cernuzio)

Y en la 39ª Conferencia de la Asociación Internacional MINDS, red mundial de agencias de prensa, León XIV cuestionó la propiedad y dirección de loa algoritmos: 

"Los algoritmos generan contenidos y datos en una dimensión y con una velocidad nunca vistas. Pero, ¿quién los gobierna? La inteligencia artificial está cambiando el modo en que nos informamos y comunicamos, pero ¿quién la guía y con qué fines?

Debemos vigilar para que la tecnología no sustituya al hombre, y para que la información y los algoritmos que hoy la gobiernan no estén en manos de unos pocos." (de Carvalho)

Esta cantidad de dinero invertido (o en vía de serlo) llama la atención de las organizaciones financieras, que temen que la burbuja estalle. Pero, aunque lo haga, la tecnología llegó para quedarse (Sparkes). La IA llegó a distorsionar la economía de EEUU: es casi el 92% del crecimiento de su PIB (Peirano).

También ha inquietado a diez fundaciones filantrópicas que pretenden limitar el control que ejercen los líderes de Silicon Valley sobre la evolución de la tecnología. Se unieron  bajo el nombre de Humanity AI y destinarán 500 millones de dólares en los próximos cinco años para situar los intereses humanos en primera línea, pero reconocen la necesidad de más capital "para amplificar la voz de la sociedad civil". Michele Jawando, presidenta de Omidyar Network, que lidera la fundación junto con la Fundación MacArthur, dijo que

"La mayor parte de lo que se nos ofrece ahora es eficiencia. Pero eso no es prosperar. No quiero que mi vida sea eficiente. Quiero que mi vida florezca. Quiero que sea rica, robusta, sana y segura."  (AP+EUronews)

Posteriormente, más de 1000 personas, entre ellas líderes como Steve Wozniak, el príncipe Harry, el investigador de IA y premio Nobel Geoffrey Hinton y el ex asesor de Trump Steve Bannon, junto con varios científicos de IA y ex líderes militares han pedido la prohibición de la superinteligencia hasta que pueda implementarse "de forma segura y controlada". Su carta señala que la superinteligencia "ha suscitado preocupaciones, que van desde la obsolescencia económica humana y la pérdida de poder, de libertad, de libertades civiles, de dignidad y de control, hasta riesgos para la seguridad nacional e incluso la posible extinción humana" (Davies). Esta declaración fue preparada por el Future of Life Institute, que dijo que los avances en IA están ocurriendo más rápido de lo que el público puede comprender (Dent).

Yuval Noah Harari, profesor de la Universidad Hebrea de Jerusalén y firmante de la declaración, agregó en una nota personal que “la superinteligencia probablemente rompería el sistema operativo mismo de la civilización humana, y es completamente innecesaria”. De forma significativa, "En la lista de firmantes faltan los líderes actuales de las principales empresas de IA, incluidas OpenAI, Anthropic, Google, Meta y Microsoft, lo que refleja una brecha cada vez mayor entre quienes construyen sistemas de IA avanzados y quienes piden restricciones", señalan en la revista Computer World (Swain).

El Vaticano también redactó un documento de compromiso con la inclusión de la ética en el desarrollo de la IA, "Rome Call for AI Ethics", que ha sido firmado por Microsoft, IBM, Cisco, Qualcomm y SalesForce además de instituciones como la FAO, numerosas universidades de todo el mundo, empresas, particulares y representantes de las principales religiones del mundo (Vatican News).

Se advierte sin embargo otro peligro: OpenAI ha conseguido embarcarse con Oracle, AMD, NVIDIA y Broadcom sin obtener aún una rentabilidad consistente. Requiere llegar a la IA General para justificar su actual valoración, que parece demencial, con el riesgo de que "cualquier desaceleración, cualquier señal de duda, activará el pánico y (...) si fallan, la explosión será proporcional a la ambición; (...) OpenAI ya es demasiado grande para caer sin provocar un cataclismo" (Lacort 2). Y se teme cada vez más que la burbuja explote...


REFERENCIAS

AP+EUronews: Filántropos invertirán 427 millones para reducir el poder de las grandes tecnológicas en la IA, Euronews, 15/10/2025.

Armangau, R.: Más de 200 líderes reclaman un tratado mundial para regular la IA, EUronews, 22/09/2025. 

Carrera, J.M.: «¿Podría aniquilarnos la Inteligencia Artificial?» Responde un compañero católico de Stephen Hawking, Religión en Libertad, 15/03/2025. 

Carrizo, E.: Nvidia invertirá US$100.000 millones en OpenAI, la matriz de ChatGPT, La Tercera, 22/09/2025. 

Davies, P.: La amenaza de la "superinteligencia": Expertos piden frenar el desarrollo de la IA, Euronews, 22/10/2025. 

de Carvalho, I.: El Papa: ser periodista nunca es un delito, liberar a los reporteros encarcelados, Vatican News, 9/10/2025. 

De Luis, E.: En 2049, tu inteligencia, en comparación con la de la IA, será como la de una mosca en comparación con la de Einstein, Genbeta, 19/07/2025. 

Delisau, D.: Silicon Valley y el mesianismo tecnológico, Letras Libres, 17/09/2025. 

Dent, S.: Steve Wozniak, Prince Harry and 800 others want a ban on AI ‘superintelligence’, Engadget, 22/10/2025. 

Escobar, D.: Nuevos lentes Meta Ray-Ban Display, Infobae, 18/09/2025. 

González, A.: OpenAI urge por boom de inversión energética en EEUU para no ceder el trono de la IA ante China, Radio Biobio, 28/10/2025. 

Iporre, N.: El “padre de la IA” advierte sobre los peligros de esta tecnología: “Solo hay un camino para sobrevivir”, La Tercera, 14/08/2025. 

Lacort, J.: Puerta grande o enfermería: la “financiación circular” entre NVIDIA y OpenAI puede ser la genialidad del siglo… o el colapso, Xataka, 23/09/2025. 

Lacort, J.(2): OpenAI ha convertido la economía mundial en una ruleta rusa con una sola bala: la AGI, Xataka, 22/10/2025. 

Marquez, J.: Meta va por todas con la IA: anuncia un centro de datos casi tan grande como Manhattan y hasta 65.000 millones de inversión, Xataka, 24/01/2025. 

NN : La IA está acabando con la web: ¿hay algo que pueda salvarla?, Infobae, 19/07/2025, tomado de The Economist.

Neira, S.: Qué es la teoría de la ‘Internet muerta’ y por qué Sam Altman sugiere que podría ser cierta, Infobae, 5/09/2025. 

Pastor, J.: Hay una razón por la que Oracle se ha convertido en la nueva niña bonita de la IA. Esa razón se llama Project Stargate, Xataka, 11/09/2025. 

Pastor, J. (2): OpenAI está consiguiendo que la industria tech una su destino al suyo. Por el bien de la economía mundial, más vale que funcione, Xataka, 14/10/2025. 

Peirano, M.: La IA distorsiona la economía estadounidense, El País, 13/10/2025. 

Pickering, G.: La maldición del lucro, El Mostrador, 9/10/2025. 

Reyes, A.: Inteligencia artificial: acelerada, desregulada, aterradora, El Mostrador, 18/09/2025. 

Sanjurjo, B.: OpenAI y las grandes tecnológicas de Silicon Valley: ambición imperial, fervor mesiánico y el costo oculto de la inteligencia artificial, Infobae, 21/09/2025. 

Sparkes, M.: The AI bubble is heading towards a burst but it won't be the end of AI, New Scientist, 15/10/2025. 

Swain, G.: Call to ban AI superintelligence could redraw the global tech race between the US and China, ComputerWorld, 22/10/2025. 

Toledano, J. & Thibout, Ch.: Les big techs ont-elles pris le contrôle?, Polytechnique insights, 16/04/2025. 

Vatican News: Pontificia Academia para la Vida: Salesforce firma la Rome Call for AI Ethics, 27/10/2025. 



No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.