23 de mayo de 2019

Facebook, todopoderoso

Facebook planea crear un "Consejo Asesor de Contenido", que "tendrá la última palabra sobre la eliminación de ciertos mensajes y podrá obligar a la empresa a restaurarlos" (El País, 18/05/2019). Obviamente, solo podrá decidir sobre una pequeñísima fracción de los casos en que se pediría revisar las decisiones de los 14.000 revisores de contenido que trabajan todos los días para bloquear los mensajes considerados ofensivos, complementando la operación del sistema de inteligencia artificial que ya revisa los mensajes. Dada la enorme cantidad de estos, proveniendo de los 2.000 millones de usuarios (1.490 milliones activos cada día, según Brandwatch.com), "algunas veces se eliminan mensajes inofensivos, y otras se dejan publicaciones como la retransmisión en vivo del terrorista que asesinó recientemente a 50 personas en una mezquita de Nueva Zelanda." (ibidem). 

Es difícil no ser escéptico. Más aún si se considera la política de la empresa que es posible deducir de sus anuncios - como integrar completamente a la red social sus subsidiarias WhatsApp e Instagram - y de sus dudosas declaraciones acerca de una "mejor" protección de la privacidad. Existen múltiples demandas para que WhatsApp e Instagram vuelvan a separarse, entre otros de varios políticos  candidatos a las elecciones presidenciales de EE.UU. en 2020, además del anuncio de que se le impondría una multa de US$5,000 millones por quebrantar la privacidad. Sheryl Sandberg, directora de operaciones de Facebook, en una reunión con legisladores estadounidenses, desvió el tema, afirmando que Facebook es una "fuerza compensatoria para las grandes compañías tecnológicas de China” (Tekcrispy, 17/05/2019). 

El anuncio de Zuckerberg de que Facebook estaría "girando hacia la privacidad" es solo un "volador de luces" para distraer a los críticos, dice The Guardian.
"El modelo para el futuro de su compañía es WeChat, que se utiliza en China para todo, desde enviar mensajes a la familia hasta leer noticias y opiniones, pedir comida, pagar en las máquinas expendedoras o pagar un taxi. Más allá de los abusos, Facebook tiene otro plan para hacerse esencial para la vida cotidiana de las personas en todo el mundo. Planea crear una nueva moneda criptográfica para sus usuarios. Los usuarios de WhatsApp pronto podrían usar la moneda para ordenar entregas de alimentos o comprar boletos de tren. Podría consolidar un poder global aún más inexplicable en Facebook. La última unificación de estas plataformas bajo la nave nodriza, Facebook, podría bloquear efectivamente cualquier intento gubernamental de separar a Instagram y WhatsApp de la compañía." (The Guardian, 10/05/2019).
El apetito de Zuckerberg para controlarlo todo ("Ya tiene demasiado poder", dice Alex Stamos, su antiguo director de seguridad) se ha hecho aún más patente con la inscripción en el Registro de Comercio de Ginebra de Libra Networks LLC por Facebook Global Holdings II LLC el 2 de mayo, para ofrecer servicios de tecnología financiera y desarrollo y producción de software. Entre sus campos de aplicación se encuentra la tecnología blockchain, big data, inversiones, análisis de datos, y gestión de identidad. la marca a marca comercial “Libra" ya había sido registrada por Facebook en la Oficina de Patentes y Marcas de los Estados Unidos en junio (Coincrispy, 17/05/2019). 

Con este monopolio mundial entraríamos no solo en un "capitalismo de la vigilancia" (cfr. Shoshana Zuboff, The Age of Surveillance Capitalism) sino en una esclavitud orweliana. ¿Se aceptará?

11 de abril de 2019

Más dudas y advertencias sobre la IA

Considéranse los algoritmos utilizados para el análisis de "big data", algo que para muchos requiere "inteligencia artificial". Llevan a tomar decisiones sobre la base de cierta visión del momento, categorizar temas y personas, y -consecuentemente- reforzar tales temas, opiniones y conductas por la vía de la repetición. ¿Se detienen alguna vez los analistas a estudiar series históricas para revisar las predicciones en función del contexto histórico? Es tal la cantidad de información que es difícil que ocurra (aunque es muy probable que las mayores empresas -con grandes presupuestos- lo hagan... pero no lo publicarán, porque será "información estratégica").

Como ya señalé en mi post del 7 de febrero, los algoritmos que emplea la IA responden bien en términos binarios o de clasificación, algo del tipo “blanco-negro”, pero el trabajador humano es el único capaz de trabajar con elementos que se mueven en “grises” o no son tan evidentes. Aún así, se pretende "democratizar la IA" gracias a las técnicas de análisis más avanzadas como el "aprendizaje profundo" de la inteligencia artificial, lo cual permitiría al cualquiera (sin formación especializada) "evitar sesgos", como pretende Amazon Web Service (según TICbeat, 10/04/2015), algo que Karen Hao, del MIT, considera extremadamente difícil. 

Según el premio Nobel Richard Feynman, el grave problema asociado al uso de este tipo de análisis es que el análisis de datos masivos para detectar patrones sin ninguna idea preconcebida de lo que uno busca es el talón de Aquiles de los estudios basados en el análisis de datos masivos. Es seguro que se encontrarán patrones, y es probable que sean engañosos, absurdos o algo peor. (MIT Technology Reviews, 5/02/2019).

Además, un grupo de matemáticos ha puesto en evidencia los límites de la IA, desarrollando un problema matemático que los algoritmos inteligentes no pueden resolver, demostrando que la capacidad de aprendizaje de estos sistemas no es infinita. El ejemplo utilizado es el de un sitio web que muestra publicidad dirigida a los visitantes que naveguen por la web con mayor frecuencia, pero no se puede saber de antemano cuál de los visitantes volverá a visitar la página. (Computer Hoy, 14/01/2019)  La Neural Information Processing Systems Conference (NeurIPS) también advirtió recientemente del problema asociado a la reproducibilidad de los resultados obtenidos del análisis mediante IA, la validez de los resultados quedando muchas veces sin demostrar:
"En febrero, un estadístico de la Universidad de Rice advirtió que las técnicas de aprendizaje automático probablemente alimentan esa crisis porque los resultados que producen son difíciles de auditar. Es un problema preocupante ya que el aprendizaje automático se está aplicando cada vez más en áreas importantes como la atención médica y la investigación de medicamentos. La lista de verificación de reproducibilidad de NeurIPS trata de abordar el problema. Entre otras cosas, los investigadores deben proporcionar una descripción clara de su algoritmo; una descripción completa de su proceso de recolección de datos; un enlace a cualquier entorno de simulación que usaron durante el entrenamiento; y un recorrido completo de los datos que guardaron, arrojaron y por qué. La idea es crear un nuevo estándar de transparencia para que los investigadores muestren cómo llegaron a sus conclusiones." (MIT technology Review, 10/04/2019) 
Nuria Oliver, directora de Investigación en Ciencia de Datos en Vodafone, doctorada en el MIT Media Lab, miembro de la Real Academia Española de Ingeniería (RAI) y de su versión europea (Euro-CASE) y otras asociaciones norteamericanas y europeas, se dice "muy preocupada" por el desconocimiento general acerca de las posibilidades y riesgos de la IA entre la población", porque laa IA "otorga un poder sin precedentes a quienes tengan la capacidad" de usarla. Propone que los sistemas de IA estén sujetos a controles de calidad igual que otros productos y bienes que utilizamos.
"Oliver cree que es urgente que expertos y expertas de distintos campos (no solo tecnológicos sino también de ámbito del derecho, la economía, la ética, la informática, la filosofía y las ciencias políticas) inventen, evalúen y validen en el mundo real diferentes métricas de justicia algorítmica para diferentes tareas. También apunta la necesidad de proponer un marco de modelado teórico que ayude a los usuarios de dichos algoritmos a asegurarse de que las decisiones tomadas son lo más justas posible." (Xataka, 3/04/2019)