25 de septiembre de 2025

Super IA: ¿una ambición imperial que podría ir contra la humanidad?

 Ya he dado cuenta varias veces de las advertencias del premio Nobel de física, Geoffrey Hilton: en la conferencia Ai4 de Las Vegas, aseguró que la IA pronto será más fuerte y dominante, y dejará a los humanos sumisos y doblegados ante su propia voluntad y que las empresas tecnológicas no están tomando las decisiones correctas para evitar que “termine con la humanidad” (Iporre).

No es el único en proclamar su preocupación: Ilyas Khan,  compañero de Stephen Hawking y fundador de Quantinuum, la empresa de computación cuántica vanguardista más grande del mundo dedicada a potenciar la IA, comparte su preocupación. Recuerda lo que le pasó a Oppenheimer en relación a la bomba atómica: "si se usara mañana una fracción de las bombas que existen, podrían aniquilar a la humanidad". Con la IA también podría darse "una confluencia de circunstancias que podrían llevarla a tomar decisiones contrarias a nuestros intereses. Y si nuestro interés es la supervivencia, entonces es mínimamente probable que, en los próximos 100 años, pueda existir un conjunto de instrucciones que nos aniquile" (Carrera).

Cree que se está deificando la IA. "Es un tipo de futuro del que hablaba Stephen Hawking y creo que sería el peor resultado: un mundo donde somos esclavos de una máquina, en el que no se nos permite pensar en su contra y en el que siempre tengamos miedo." (en Carrera)

Lo peor es que "no estamos preparados para reconocer el peligro" que ya existe con la captura de nuestros datos en internet, lo cual nos hace perder autonomía: "Nuestros datos, y por tanto, el acceso a controlar nuestras vidas, están siendo usurpados por otro poder soberano" (ibidem).

Khan, sin embargo, es optimista en relación al futuro: "Creo que nuestro Dios nos ha dado a todos la capacidad de lidiar con cualquier cosa que se nos presente". (ibidem)

No deja de ser preocupante que se están invirtiendo miles de millones de dólares en el desarrollo de la IA, no solo para satisfacer la demanda por la IA generativa y las aplicaciones especializadas, sino justamente para avanzar hacia la superinteligencia. OpenAI contrató capacidad de cómputo con Oracle por valor de 300.000 millones de dólares en un plazo de cinco años, en el marco del Project Stargate, que plantea una inversión de 500.000 millones de dólares en centros de datos para IA (Pastor). Además, OpenAI recibirá una inversión de US$100.000 millones de Nvidia, que "permitirá desplegar al menos 10 gigavatios de sistemas Nvidia en la infraestructura de inteligencia artificial (IA) de la próxima generación de OpenAI, con el fin de entrenar y ejecutar su nueva generación de modelos en el camino hacia la superinteligencia" (Carrizo). OpenAI construirá centros de datos con entre 4 y 5 millones de GPUs. Todo costaría más de los 500.000 millones de dólares. (Lacort)

Meta planea una inversión de hasta 65.000 millones de dólares este año, en el mismo marco (Marquez). E invertiría “cientos de miles de millones de dólares en computación para desarrollar superinteligencia” a largo plazo (Escobar). 

¡Estas empresas concentran más poder que muchos estados (y están supeditadas al gobierno de los Estados Unidos)! "Actúan bajo una mezcla de ambición imperial y fervor mesiánico" dice Bautista Sanjurjo en Infobae, que agrega "la búsqueda de una inteligencia artificial general se ha convertido en una misión casi religiosa para los líderes y fundadores de estas compañías".

"Los imperios y las religiones buscaron en el pasado lo que entendían que era el bien para la humanidad, pero por el camino en su lugar generaron grandes cantidades de daño y sufrimiento. Las empresas tecnológicas de inteligencia artificial parecen estar siguiendo una estela similar: instalan enormes centro de datos que necesitan agua potable para funcionar en países del sur global con sequías recurrentes y legislación laxa; su enorme consumo de energía erosiona los pequeños logros que se han conseguido en la lucha contra el cambio climático; la escasa representación de lenguas y grupos minoritarios en los datos de entrenamiento de modelos de IA minimiza todavía más su presencia en el mundo; la disolución de la realidad en internet es cada vez más evidente." (Delisau)

El tema se abordó en la actual 80ª Asamblea General de la ONU, donde más de 200 líderes políticos, científicos y tecnológicos, incluidos 10 premios Nobel y directivos de OpenAI y Google, hicieron un llamamiento a fijar en 2026 "líneas rojas" globales para los usos más peligrosos de la inteligencia artificial. 

"El manifiesto advierte de que, sin un marco normativo global, la humanidad corre el riesgo de afrontar amenazas derivadas de la IA que van desde pandemias artificiales y campañas masivas de desinformación hasta violaciones sistemáticas de derechos humanos e incluso la pérdida de control sobre sistemas avanzados. (...)

Reclaman la creación de un organismo internacional independiente que supervise la aplicación de las normas y confían en que las negociaciones para prohibiciones vinculantes puedan comenzar cuanto antes. Ahmet Üzümcü, ex director general de la Organización para la Prohibición de las Armas Químicas, advirtió de que retrasar ese debate podría causar 'daños irreversibles para la humanidad'." (Armangau). 

Recordemos que la política de las plataformas de IA es «winner takes all». Su poder es tal que logra imponer sus condiciones a otras empresas e incluso, algunas veces, a algunos gobiernos: en 2021, por ejemplo, Facebook bloqueó el acceso a sitios del gobierno australiano qui publicaban informaciones sensibles para sus ciudadanos y el gobierno debió hacer algunas concesiones en la ley (Toledano & Thibout). 

REFERENCIAS

Armangau, R.: Más de 200 líderes reclaman un tratado mundial para regular la IA, EUronews, 22/09/2025. 

Carrera, J.M.: «¿Podría aniquilarnos la Inteligencia Artificial?» Responde un compañero católico de Stephen Hawking, Religión en Libertad, 15/03/2025. 

Carrizo, E.: Nvidia invertirá US$100.000 millones en OpenAI, la matriz de ChatGPT, La Tercera, 22/09/2025. 

Delisau, D.: Silicon Valley y el mesianismo tecnológico, Letras Libres, 17/09/2025. 

De Luis, E.: En 2049, tu inteligencia, en comparación con la de la IA, será como la de una mosca en comparación con la de Einstein, Genbeta, 19/07/2025. 

Escobar, D.: Nuevos lentes Meta Ray-Ban Display, Infobae, 18/09/2025. 

Iporre, N.: El “padre de la IA” advierte sobre los peligros de esta tecnología: “Solo hay un camino para sobrevivir”, La Tercera, 14/08/2025. 

Lacort, J.: Puerta grande o enfermería: la “financiación circular” entre NVIDIA y OpenAI puede ser la genialidad del siglo… o el colapso, Xataka, 23/09/2025. 

Marquez, J.: Meta va por todas con la IA: anuncia un centro de datos casi tan grande como Manhattan y hasta 65.000 millones de inversión, Xataka, 24/01/2025. 

Pastor, J.: Hay una razón por la que Oracle se ha convertido en la nueva niña bonita de la IA. Esa razón se llama Project Stargate, Xataka, 11/09/2025. 

Reyes, A.: Inteligencia artificial: acelerada, desregulada, aterradora, El Mostrador, 18/09/2025. 

Sanjurjo, B.: OpenAI y las grandes tecnológicas de Silicon Valley: ambición imperial, fervor mesiánico y el costo oculto de la inteligencia artificial, Infobae, 21/09/2025. 

Neira, S.: Qué es la teoría de la ‘Internet muerta’ y por qué Sam Altman sugiere que podría ser cierta, Infobae, 5/09/2025. 

NN : La IA está acabando con la web: ¿hay algo que pueda salvarla?, Infobae, 19/07/2025, tomado de The Economist.

Toledano, J. & Thibout, Ch.: Les big techs ont-elles pris le contrôle?, Polytechnique insights, 16/04/2025. 

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.