Los días 10 y 11 de febrero se reunieron en París líderes mundiales y "titanes tecnológicos" en la "Cumbre de Acción sobre Inteligencia Artificial", para debatir nuevas directrices tendientes a facilitar un desarrollo más rápido de la IA, flexibilizando las reglas, pero también - oficialmente - para que "el desarrollo de la IA sea más ético, democrático y respetuoso con el medio ambiente". (González)
Aunque se habló de "contener los riesgos asociados a su desarrollo", se trataba esencialmente de los problemas de seguridad (protección y uso de los datos) y de la influencia - indirecta - en el cambio climático. Para el presidente Macron, también se trataba, para Europa, del riesgo de quedar rezagados.
Macron prometió 109.000 millones de euros para el "Stargate" europeo, un campus de centro de datos que sería el más grande de Europa, aludiendo al proyecto Stargate anunciado por el presidente Trump en los EEUU.
Si buscamos en los informes el término "defensa", encontraremos que se refiere a la industria de la defensa, y no a la defensa de los usuarios u otros afectados. Por ciertos, existen múltiples estudios (y artículos) que señalan qué profesiones se verán afectados y cuantos trabajadores podrán perder su trabajo o se verían obligados a cambiarlo.
Pero todo el mundo se vería afectado, de un modo u otro. Ya se anuncian no solo PC que vendrían con IA preinstalada sino teléfonos celulares (que se volverían, por fin, realmente "inteligentes", o casi).
¿Qué podemos hacer frente a esta invasión frente a la cual, al parecer, no podemos opinar?
En uno de los artículos que me ha llegada encontré al menos una referencia a una empresa, llamada ROOST, que sería "un esfuerzo comunitario para construir una infraestructura de seguridad escalable y resistente para la era de la IA":
Una organización sin fines de lucro, la iniciativa Robust Open Online Safety Tools (ROOST), debutó el lunes. Según un comunicado, reúne a líderes tecnológicos para desarrollar y proporcionar herramientas de seguridad gratuitas y de código abierto a organizaciones públicas y privadas. También facilitará la denuncia de material de abuso sexual infantil en internet y utilizará los grandes modelos lingüísticos que capacitan a los sistemas de inteligencia artificial para establecer una "infraestructura de seguridad". La ONG cuenta con el apoyo de los fundadores de Discord, OpenAI, Roblox y otras fundaciones. (Desmarais)
En realidad, no proporciona herramientas de protección para cualquier particular, sino para usuarios capaces de operar con modelos de IA, para "identificar y llenar algunas críticas en este espacio, por ejemplo, en torno a conjuntos de datos específicos de capacitación y evaluación para la seguridad del contenido", y también "satisfacer las necesidades básicas de seguridad infantil". Para ello ofrece "bloques de construcción básicos para proteger a los usuarios y las comunidades globales" (ROOST).
Queda el problema del "ciudadano de a pie". ¿Qué puede (o debe) hacer?
1. Mantener sus datos privados fuera de los sistemas abiertos. Esto significa no solo ser muy (más) cuidadoso con lo que publicamos en las redes sociales sino, cada vez más, en la medida en que usamos consultas en chats de IA (OpenAI, Gemini u otro), no revelar nada que sea privado.
2. Desconfiar de las respuestas de estos chatbots y verificarlas lo mejor posible. (Y recordar que vuelven a formar parte de su base de datos de consulta y aprenden de las respuestas).
3. Estar atento ante los
deepfakes, los mensajes de voz o texto fraudulentos que pidan credenciales o datos personales, que nos pueden llegar por múltiples vías. (Las organizaciones pueden utilizar ¡IA! para reducir estas operaciones de maleantes.
Cloudflare, escudo y acelerador de páginas web, es un ejemplo de ellos.)
Referencias
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.