5 de marzo de 2026

IA: ¿Hacia la abdicación de la voluntad humana?

 Las grandes tecnológicas no solo controlan la forma en que las personas acceden y comparten la información (ver Norigami y Silva), también quieren entrar en la vida de cada persona y quitarle hasta la facultad de tomar decisiones. En efecto, han surgido dos nuevos tipos de aplicaciones que se disputan - o más bien suman - la facultad de decidir por nosotros: los "agentes" de IA y los "asistentes de voz".

1. Los agentes autónomos de IA están transformando tanto la experiencia de compra online como la forma de trabajar: los agentes razonan, planifican y actúan y lo pueden hacer correctamente si disponen de información precisa, consistente y actualizada (Kanwar). "Funcionan desde el navegador, aplicaciones de mensajería o entornos web listos para usar." (Noriega)

Los agentes de compra "anticipan necesidades, buscan ofertas, negocian precios y gestionan transacciones de forma autónoma" (Morales). Existen tres modelos:

"En el primer caso, el agente se conecta directamente a plataformas de venta. El segundo modelo permite que los agentes negocien y coordinen compras entre sí sin intervención humana. El tercer sistema conecta varios agentes y plataformas, facilitando reservas y programas de fidelización cruzados." (ibidem)

Esto transformaría todo el ecosistema del comercio digital. Amazon, Mastercard y Visa ya se estarían preparando para ello. "Las empresas deberán decidir si diseñan sus experiencias para personas o para agentes, ya que, progresivamente, será el agente quien decida y negocie en nombre del cliente." (ibidem)

En las empresas, los sistemas de IA subyacentes pueden interpretar las indicaciones, generar respuestas y hacer predicciones. Son, por lo tanto, estos agentes los que toman las decisiones y ya no un analista humano. Y si alguno falla, se considera que la razón sería datos desalineados, inconsistentes o incompletos, y ya no una falla del modelo, debido al avance la tecnología (Kanwar).

Pero la informática también puede ofrecer una defensa: acaba de aparecer IronCurtain (aún en prototipo). Es una aplicación de IA de código abierto diseñada para que un usuario disponga de una capa de control. Hace que un agente de IA se ejecute en una máquina virtual aislada y controla su acción sobre la base de una política de seguridad dictada por el usuario (Newman).

2. Los asistentes de voz se limitaban inicialmente a transformar comandos de voz en impulsos digitales, reemplazando el "clic" del mouse o una presión en una pantalla sensible. Pero llegó la IA y los fabricantes de estos asistentes vieron ahí una "oportunidad de oro" para ponerse al servicio del comercio y, de ofrecernos opciones, pasar a analizar nuestros gustos y tomar la decisión por nosotros, transformándose en agentes: "Los asistentes impulsados por inteligencia artificial ya empiezan a evaluar opciones, negociar y tomar decisiones en nombre del usuario" (Valbuena). Son, por lo tanto, otra forma de agente autónomo personal, como los descritos antes.
Lo peor, a mi juicio, es que tendrían "autonomía para actuar según el mejor interés del usuario" sin intervención de este y definiendo cual es este "mejor interés" en función del análisis de nuestra conducta anterior o, más bien, de los datos que la empresa proveedora registró al respecto (ibidem). ¿Que ocurre con la privacidad y la propiedad de los datos?
El colmo, para mí, es que hay quien asegura que "la pedagogía digital se vuelve indispensable (...) para aprender a confiar y comprender las implicaciones de las decisiones automatizadas en su vida cotidiana" (ibidem). ¡O sea que deberíamos aprender a dejar que un algoritmo sustituya nuestra facultad de elegir y decidir! Es abdicar de una facultad propiamente humana. ¿No seríamos así esclavos de las "Big Tech"? Se nos invita a renunciar a pensar, lo cual - como ya advertía Hannah Arendt en 1963 - puede llevar a cometer las peores atrocidades. ¿Si "el diseño de las plataformas está interfiriendo con nuestro neurodesarrollo", como asegura el siquiatra Elías Arab, cuanto mayor será la destrucción mental con los agentes de IA?
Nota 1: Los agentes actuales descritos en las publicaciones especializadas aún dejan al usuario definir la meta y operan caso a caso, pero a futuro podrían operar en forma autónoma en cualquier momento.
Nota 2: Los agentes también podrían ser - y serán seguramente - utilizados por criminales: los ciberdelincuentes ya emplean la IA en muchos ataques.

3. Hay campos en que la autonomía de los agentes es aún más preocupante: la seguridad pública y la guerra.
3a. La seguridad pública está asociada a la vigilancia. Hasta ahora, el Estado nunca había tenido la posibilidad de controlar todo lo que ocurre en el espacio público. Pero hemos visto desde hace algún tiempo como China controla a todos sus ciudadanos. Con la IA, ahora es factible en muchos otros países. Y la IA podría decidir autonómamente, sin restricciones, acerca de medidas represivas. ¿Sanciones sin juicio y posibles detenciones sin supervisión - ni decisión - humana?
3b. Los agentes asociados a los robots introducen, conjuntamente, la "Physical AI" en que las instrucciones se transforman en control robótico, lo cual impactará en minería, energía, logística, seguridad y defensa.
El ejército puede utilizar armas - drones u otras - con capacidad autónoma, lo cual introduce un nuevo problema ético. En este campo se acaba de conocer un entredicho entre el Pentágono y Anthropic en relación al despliegue de armas autónomas controladas por IA, un contrato de 200 millones de dólares: el Pentágono exigía poder usar sin restricciones sus modelos de IA "para todo tipo de aplicaciones, incluyendo las de espionaje y las militares", pero la empresa "se niega a que sus modelos se utilicen para vigilancia masiva de ciudadanos estadounidenses —no dice nada de otros— o en el desarrollo y uso de armas letales autónomas controladas totalmente por la IA" (Pastor). En efecto, Dario Amodei, director ejecutivo y cofundador de Anthropic, está convencido de que "el principio general es que, sin contramedidas, es probable que la IA reduzca continuamente la barrera a la actividad destructiva a una escala cada vez mayor, y la humanidad necesita una respuesta seria a esta amenaza." (ver su ensayo).
Anthropic era la única empresa de IA que operaba en los sistemas clasificados del Pentágono, pero Claude Gov (su modelo de IA para el gobierno) incluye las restricciones señaladas mientras el Departamento de Defensa (DoD) exigió el dominio total del modelo de IA so pena de declarar a Anthropic un "riesgo para la cadena de suministro", lo que acaba de hacer ante la resistencia de Anthropic, lo que la empresa tratará de revertir en tribunales (DW 28). Intervino el propio presidente Trump, que escribió en su plataforma Truth Social:
"Estoy ordenando A TODAS las agencias federales del gobierno de Estados Unidos que CESEN INMEDIATAMENTE todo el uso de la tecnología de Anthropic. No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos." (ibidem)
Anthropic reiteró que “no podemos acceder en buena conciencia a la petición”, ya que por ética no admite la vigilancia masiva ni el desarrollo de armas autónomas letales (Anthropic). Para el secretario de Defensa de EEUU, Pete Hegseth, "Anthropic dio una clase magistral de arrogancia y traición, así como un caso de manual sobre cómo no hacer negocios con el gobierno de Estados Unidos o el Pentágono" (DW 28). 
A diferencia de Amodei y Anthropic, Sam Altman anunció el acuerdo de OpenAI con el DoD, aceptando "todos los usos legales" sin excepciones (lo que deja algunas dudas a pesar de las declaraciones de "buenas intenciones") (De Luis). En enero de 2024, OpenAI había eliminado la prohibición expresa de actividades de "alto riesgo de daño físico", como el desarrollo de armas y las actividades militares y bélicas, y en febrero de 2025, Google retiró su compromiso de no aplicar su tecnología a armas ni vigilancia (PI). Lamentablemente la industria de IA estadounidense se está militarizando, con graves consecuencias: 
"Si el ejército de Estado Unidos despliega armas autónomas controladas por IA sin las salvaguardas que Anthropic exige, habrá eliminado el único cortafuegos que históricamente ha impedido que una orden ilegal se ejecute. (...)
Todo el sistema legal y ético de las fuerzas armadas estadounidenses descansa sobre un principio que parece obvio pero que tiene consecuencias importantes: un soldado puede y debe desobedecer una orden manifiestamente ilegal.
Es el mecanismo que, en teoría, impide los crímenes de guerra. Un drone autónomo controlado por IA no tiene ese mecanismo. No puede negarse. No puede dudar. No puede ser juzgado en un consejo de guerra." (Lacort)
¿Cuantos errores podrían cometerse? Ya se ha verificado que las IA no pueden dejar de recomendar ataques nucleares en simulaciones de juegos de guerra: ocurrió en el 95% de las pruebas, como demostró Kenneth Payne, del King’s College de Londres, usando GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash en 21 juegos que partían con intercambio diplomático e iban escalando progresivamente hasta llegar a los ataques nucleares (Stokel-Walker).
¿Serían responsables los programadores de los algoritmos (cuando la propia IA puede evolucionar y ajustar sus algoritmos por sí-misma)? "El derecho internacional fue escrito pensando en humanos que deciden" (ibidem). ¿Podría (querrá) la industria de la IA fijar algún límite?
El uso militar de la IA es evidentemente un tema amplio que escapa en gran parte al objetivo de este post.

4. Hay que recordar que las empresas de IA tienen un poder extraordinario, reforzado además por el apoyo del gobierno de los EE.UU., que ha decidido enviar expertos del Cuerpo de Paz por todo el mundo para promover la IA (Desmarais). "Al igual que las redes sociales, los modelos de IA son una tecnología inherentemente política, no herramientas neutrales" (@socialmedialab.ca, 20/02/2026) Forman un imperio transnacional que "resiste mapas y definiciones y desborda el calificativo más generalista de Feudalismo Digital, porque es digital pero también es físico y cognitivo", con "algoritmos entrenados para entender, predecir y modificar los pensamientos de las masas" (Peirano). Inciden así en las tomas de decisiones del modo ya señalado pero también afectan el desarrollo del conocimiento humano a través de su uso en las investigaciones y en el desarrollo de la enseñanza que, a su vez, incide en el desarrollo de la capacidad de juicio.
Lo ocurrido con Anthropic y el DoD también muestra que la regulación por parte de los gobiernos puede operar a la inversa de los deseos de control ético. 
James Yoonil, presidente del departamento de ingeniería informática y de comunicaciones de la Universidad Cibernética KyungHee de Seúl advierte del desafío para las universidades: el imperio de la IA 
"Opera en el punto donde los valores educativos se traducen en sistemas. La educación superior ya no se limita a usar IA; en aspectos importantes, está comenzando a operar dentro de ella. El riesgo principal, por lo tanto, no es que las universidades hagan un mal uso de la inteligencia artificial. Es que sigan operando mientras ceden discretamente su autoridad para definir qué se considera conocimiento, juicio y aprendizaje. (...)
El desafío ya no es cómo implementar la IA de manera efectiva a través de la optimización y las garantías éticas, sino cómo sostener la autoridad educativa cuando el juicio, la agencia y la responsabilidad están cada vez más mediados por sistemas opacos." (Yoonil)
En las instituciones, los gobiernos, las empresas y en la vida personal existen contradicciones que no pueden resolverse únicamente mediante la optimización, las reglas o las soluciones técnicas. La educación debe desarrollar la capacidad de reconocer, comprender y razonar responsablemente, o sea de ejercer un juicio crítico para tomar una decisión, no enseñar a ceder el control a un "agente". "La era de la inteligencia artificial es también la era del juicio humano. (...) La regulación y la gobernanza técnica pueden establecer límites, pero no pueden fomentar el juicio. Las universidades deben hacerlo." (Yoonil)



Referencias

Bender, E. y Anna, A.: La estafa de la IA, Planeta de Libros, 2026. 
Kanwar, A.: The era of agentic chaos and how data will save us, MIT Tech Review, 20/01/2026.
Norigami, M. y Silva, M.: Presenting the Big Tech Lobby Playbook, Somo.nl, 12/02/2026.