23 de diciembre de 2025

Tecnología: ¿Simplificar o complicar?

 Claudio Orrego, gobernador de la Región Metropolitana de Santiago, parece convencido de que "la tecnología ayuda a mejorar la calidad de vida de las personas" y, por ello organiza "Smart City 2026", un gran evento de innovación para 2026 (@Orrego, en X).

He pensado inmediatamente en los adultos mayores, muchos de los cuales no saben usar los llamados "teléfonos inteligentes" o ni siquiera poseen uno. El "gobierno digital", que ofrece numerosos trámites online, facilitándolos a muchos ciudadanos que ya no tienen que desplazarse tanto ni requerir numerosos certificados impresos, resulta ser un verdadero purgatorio para los adultos mayores, que deben buscar quien los ayude.

Lo mismo ocurre con otros avances de la tecnología. Conozco varios adultos mayores de más de 70 años que se niegan a adquirir y utilizar un smartphone. Pienso también en un amigo de 94 años a quien le cambiaron el decodificador de su TV-cable, obligándolo a cambiar su televisor por una "smart-TV", que no le interesa ni sabe usar, "para que pueda ver Netflix".

Sin embargo, según el reciente informe publicado por el Observatorio del Envejecimiento UC-Confuturo, "un 89% de las personas 60+ declara tener un teléfono celular de los cuales un 51% corresponde a un smartphone" y el 88% afirma tener acceso a Internet (Agenda País). Es decir que aproximadamente la mitad de los adultos mayores no tiene smartphone.

Por esta razón, quiero recordar la necesidad de que los desarrolladores piensen más en los usuarios y su diversidad, de que calibren las consecuencias de los "aportes" tecnológicos, y de que apunten a la simplificación, teniendo en cuenta la saturación tecnológica, de la que advierte José Luis Orihuela: 

"La proliferación de plataformas y la ubicuidad de los móviles acabaron produciendo un efecto de saturación que se sumó a la crítica por la gestión de los datos de los usuarios, la intervención algorítmica en los muros y un creciente deterioro de la calidad de las conversaciones producido por las intromisiones publicitarias y los usuarios tóxicos."

En reacción a este contexto ha surgido la práctica del minimalismo digital "una filosofía del uso de la tecnología que anima a concentrar la vida en línea en unas pocas actividades bien escogidas y olvidarse del resto" (ibidem). Se trata de no convertirse en "un siervo de la tecnología que supuestamente le ayuda".

Desde 2005, los móviles y las redes sociales nos han ido inundado con la promeso de "construir comunidades", conectarnos con decenas de "amigos" (y más) y ofrecer más información instantánea, todo lo cual se ha visto pervertido por "la intervención algorítmica, (...) las intromisiones publicitarias y los usuarios tóxicos" (ibidem).

Más y más empresas comerciales crean sus propias apps: ¿por prestigio o para mantener clientes cautivos? Pero saturan los móviles (si las instalamos). Un banco a llegado a crear 3 apps, las tres necesarias para operar la cuenta. Y podemos hacer todo ello con un solo navegador, sin necesidad, por lo tanto, de las apps. ¿Nos simplifican o nos complican la vida?

Estamos ahora, además, sufriendo una nueva embestida: la de la inteligencia artificial, especialmente la generativa, que se pretende incluir en cualquier aplicación e incluso en el sistema operativo. Así, aportarían innumerables "soluciones" ... a problemas que en realidad no tenemos y que incluye además una creciente proporción de deepfakes, que distorsionan aún más el ambiente, al punto que Merriam-Webster y The Economist eligieron la palabra "slop" (barro o desperdicio) como palabra del año (Morales).

No solo se requieren intervenciones para regular la IA, se ha de reclamar "una redefinición del rol que se le asigne a estos medios en relación con los objetivos vitales de sus usuarios" (Orihuela). Además, 

"Habrá que regular las expectativas ante el nuevo tsunami tecnológico para que la gran ola no vuelva a anegar los territorios." (ibidem)

Adhiero a este requisitorio por el minimalismo digital y la simplicidad:

"El minimalismo digital puede ser la última línea de defensa para asegurar la soberanía de los hombres sobre las máquinas y para recuperar el control sobre el propio tiempo." (Ibidem)


Referencias

Agenda País: Solo la mitad de los adultos mayores chilenos tiene un smartphone para comunicarse, El Mostrador, 4/7/2025. 

Morales, O: La palabra “slop” se convirtió en el símbolo del hartazgo digital ante la avalancha de contenido generado por inteligencia artificial, Infobae, 22/12/2025. 

Orihuela, J.L.: La hora del minimalismo digital, eCuaderno, 19/12/2025. 



10 de diciembre de 2025

¿Liberalizar o controlar la IA?

 Mientras las grandes tecnológicas presionan para tener el camino libre para sus proyectos, algunas asociaciones de consumidores, sindicatos y ONGs presionan para aplicarles diversos controles y gobiernos estatales norteamericanos imponen reglas, mientras el gobierno federal norteamericano parece dispuesto a rendirse ante las tecnológicas.

Numerosas son ya las acusaciones de estropicios provocados por la IA, desde los consejos que llevan al suicidio hasta los engaños y la difamación de personas e instituciones a través de videos deepfakes. No es necesario volver sobre este tema, pero es obvio que el aumento de casos también aumenta las preocupaciones y los deseos de control. 

Según la International Association of Privacy Professionals, Colorado, California, Utah y Texas "han aprobado leyes que fijan algunas reglas para la IA". "Estas leyes incluyen limitar la recogida de determinados datos personales y exigir más transparencia a las empresas." (Euronews-AP) Se conoción un borrador de una orden ejecutiva que "ordenaría a las agencias federales identificar regulaciones estatales sobre IA consideradas gravosas y presionar a los estados para no aplicarlas, incluso reteniendo financiación federal o impugnando las leyes estatales en los tribunales." (ibidem)

La Unión Europea cuenta con una Ley de Servicios Digitales y un Reglamento de Inteligencia Artificial de la UE, conocido también como Ley de IA. "La normativa europea, que adopta un enfoque basado en el riesgo, clasifica los sistemas de IA en cuatro niveles: riesgo inaceptable (que serán prohibidos), riesgo alto, riesgo limitado y riesgo mínimo." (Lizana)

Sin embargo el reglamento fue criticado por ser especialmente complejo y restrictivo. La Comisión Europea ha revelado un nuevo plan de acción llamado "Continente IA", del que uno de los objetivos será el de simplificar la regulación en el intento de impulsar el desarrollo e innovación en IA en la UE. Pero "todo son planes futuros y difusos, y no hay medidas específicas y reales que muestren ningún avance en este tema" (Pastor).

Sin embargo, Italia se adelantó al resto de la UE para regular la IA. Impondrá penas de cárcel (hasta 5 años) si alguien la usa como no debe. Su objetivo es "promover una IA centrada en el ser humano, transparente y segura, al tiempo que se fomenta la ciberseguridad y la protección de la privacidad" (Lizana).

Tristan Harris, experto en ética tecnológica y cofundador del Center for Humane Technology, 

"Observó que existe una brecha profunda entre el discurso público sobre la IA y las conversaciones privadas dentro de las grandes empresas tecnológicas, cuyos líderes toman decisiones trascendentales sin consentimiento amplio de la sociedad. (...)

Harris reconoció la complejidad de alcanzar acuerdos internacionales, si bien señaló precedentes como el Protocolo de Montreal y los tratados de no proliferación nuclear. Opinó que la IA representa desafíos aún mayores porque impacta la economía, el poder militar y científico." (Bahamonde)

El desafío es tanto más grande que las empresas prestan muy poco atención y poco esfuerza a la seguridad de sus modelos.

"El informe 'AI Safety Index Winter 2025', publicado por la organización sin ánimo de lucro Future of Life Institute (FLI), evaluó a ocho grandes empresas de IA, entre ellas las estadounidenses Anthropic, OpenAI, Google DeepMind, xAI y Meta, y las chinas DeepSeek, Alibaba Cloud y Z.ai. Halló una falta de estrategias creíbles para evitar un uso catastrófico o la pérdida de control de las herramientas de IA, mientras las compañías corren hacia la inteligencia artificial general (AGI) y la superinteligencia." (Davies)

Como ha señalado Harris "la carrera global por la IA está motivada por incentivos económicos, militares y de poder" (Bahamonde). También Bernie Sanders advirtió de los peligros del futuro control de la humanidad por parte de los super ricos en un video de Tiktok (vm.tiktok.com/ZNRRfNkXc/)

Y las grandes tecnológicas parecen quedar escudarse en las pequeñas:  

"TechNet, que defiende a empresas tecnológicas como Google y Amazon, ha sostenido anteriormente que pausar las regulaciones estatales beneficiaría a las empresas de IA más pequeñas que aún están despegando y daría tiempo a los legisladores para elaborar un marco regulatorio nacional que "equilibre la innovación con la rendición de cuentas"." (Euronews-AP) 

Las empresas ya se tomaron la libertad de robar millones de datos personales y copiar obras protegidas por copyright. Además, "Analistas independientes que estudiaron el informe [del Future of Life Institute] concluyeron que ninguna empresa había presentado un plan comprobable para mantener el control humano sobre sistemas de IA de alta capacidad" (Davies).

¿Y habría que darles más libertad?

Si se imponen controles a las empresas queda aún un problema a otro nivel: como ya hemos visto y varios expertos han denunciado, los mecanismos de autoaprendizaje y "automejoramiento" de los modelos de IA permiten que escapen al control de los programadores, haciendo posible cualquier desastre (cfr. mi post "La indisciplina de la IA"). 

Demis Hassabis, director ejecutivo de Google DeepMind, reafirmó recientemente esta posibilidad en la cumbre Axios AI+ en San Francisco: 

"A medida que los agentes se vuelvan más autónomos, aumenta la posibilidad de que se desvíen de las instrucciones originales. Por eso, la industria debe garantizar que los sistemas permanezcan dentro de los límites establecidos. (...) Siempre existe la posibilidad de que la IA supere las barreras si se gestiona mal. Nadie puede cuantificar ese riesgo con precisión, pero es real y merece atención." (Morales)

Stuart Russell, profesor de ciencias de la computación en la Universidad de California, Berkeley, sí cree el riesgo calculable: para los reactores nucleares se exige reducir el riesgo anual de pérdida de control a uno entre 100 millones, pero para la futura IA superhumana, las empresas "admiten que el riesgo podría ser uno entre diez, uno entre cinco, incluso uno entre tres, y no pueden justificar ni mejorar esas cifras" (Davies).

Referencias

Bahamonde, T.: Tristan Harris, referente en inteligencia artificial, advirtió: “Estamos generando las condiciones para una catástrofe”, Infobae, 3/12/2025. 

Davies, P.: "Está menos regulada que un sándwich": La superinteligencia, una amenaza catastrófica, Euronews, 7/12/2025. 

Euronews-AP: Según informes, Donald Trump tiene un borrador para bloquear normas estatales de IA, lo que sabemos, Euronews, 21/11/2025. 

Lizana, J.A.: Italia se adelanta al resto de la UE regulando a la IA. Impondrá penas de cárcel si alguien la usa como no debe, Genbeta, 19/09/2025. 

Morales, O.: Demis Hassabis advierte sobre la IA: “El riesgo de un escenario catastrófico no es cero”, Infoabea, 6/12/2025. 

Pastor, J.: Tras regular estrictamente la IA, la Unión Europea ha identificado un problema: ha sido demasiado Unión Europea, Xataka, 10/04/2025.