Los algoritmos son las secuencias de órdenes que conforman la base de la programación de los computadores y, ahora, de las respuestas que obtenemos cuando navegamos por internet.
Twitter cambió la forma de presentación cronológica de los tuits por una basada en la estadística ("los más vistos"), es decir basados en un algoritmo (aunque se puede desactivar). Instagram anunció que pronto haría lo mismo pero, de momento, se retractó al recibir numerosos reclamos. Facebook selecciona los "News Feeds" del mismo modo desde hace tiempo y lo hace ahora con las actualizaciones de estado. (Fortune, 28/03/2016)
Las "tendencias" que Twitter parece extraer "objetivamente" a partir de los retuits (y otras señales), son una buena muestra de mecanismo distorsionador: una vez que un tema adquiere este codiciado estado, atrae aun más atención y se produce un efecto "bola de nieve" que lo viraliza (dentro y fuera de Twitter). El riesgo es que los periodistas que utilizan Twitter como fuente sean poco precavidos y caigan en la trampa de ver ahí un "tema importante".
Algo más elaborado ha sido el proyecto Tay de Microsoft. Basado en "inteligencia artificial", pretendía entablar una conversación "casual y fluida" con jóvenes entre 18 y 24 años. Pero se acumularon los mensajes ofensivos enviados por éstos y, en menos de 24 horas, pasó de decir que los humanos eran "súper guay" a volverse cada vez más xenófobo, malhablado y sexista. Se hizo "simpatizante de Hitler y acabó deseando a muchos que acabasen en un campo de concentración" dice la nota de prensa (El Mundo.es, 28/03/2016). Así, Microsoft tuvo que desactivar la IA y pedir disculpas. La noticia acerca del racismo de su "inteligencia artificial" ha dado la vuelta al mundo (y puso de cabeza a Microsoft).
Éste, que es un caso extremo, es una muy buena demostración de lo que puede pasar con cualquier algoritmo, desde el de Google Search al de Facebook y todas las aplicaciones de análisis de "big data" que tanto se "marketeen" actualmente.
Un efecto distorsionador de los algoritmos es fácil de observar haciendo una búsqueda en Google. La empresa, "para facilitar las búsquedas", ha instalado un sistema de predicción de los términos de búsqueda, basado en un algoritmo que toma en cuenta lo más buscado pero también mucho otros factores (como el país del lector, la lengua, sus intereses registrados, y al menos otros doscientos factores), en algo que se combina además con sus propios sistemas de clasificación.
"Lo que resulta de veras irritante es que Google insista en la supuesta neutralidad y objetividad de sus algoritmos. En lugar de reconocer que estos pueden tener dificultades y sesgos que es necesario corregir, Google se comporta como si introducir a los humanos para que revisen de tanto en tanto el trabajo de sus algoritmos equivaliera a abandonar toda fe en la inteligencia artificial como tal. Resistirse a reconocer que sus algoritmos en ocasiones pueden tener un mal funcionamiento le permite a Google zafarse de una serie de aspectos éticos un poco complejos sobre su trabajo." (E.Morozov, "La locura del solucionismo tecnológico", p.167)
El problema ético al que alude Morozov tiene que ver con la relativa facilidad para torcer los resultados de búsqueda, por ejemplo utilizando "generadores de búsquedas" que repiten centenares de veces términos que pueden ser ofensivos.
"Supongamos que un enemigo suyo, en un esfuerzo deliberado por manchar su reputación, decide pagarles a los usuarios para que busquen su nombre seguido de la palabra "pedófilo". Un ejército de entusiastas colaboradores, reclutados a través de sitios como Craiglist y Mechanical Turk, de Amazon, está generando el volumen suficiente de búsquedas para que esa palabra reemplace otros términos más positivos que se han asociado a su nombre. Ahora, cualquiera que lo busque también sabrá que quizá usted sea un pedófilo y, recuerde, no hay manera de apelar porque los algoritmos de Google son los que están a cargo y jamás se equivocan." (Morozov, p.168)
Es inútil tratar de reclamar, porque Google (y otros inventores de algoritmos) pretende que "reflejan objetivamente" lo que está en la web. Como agrega Morozov, "la compañía no solo refleja, además da forma, crea y distorsiona, y lo hace de múltiples maneras, que no pueden reducirse a una única lógica de internet" (p.170). Internet, como tal, no es una "fuerza social" como parecen creer. Los motores de búsqueda y los algoritmos crean una nueva realidad.
"Google debería dejar de esconderse detrás de la retórica de los espejos y los reflejos, reconocer su enorme papel en la configuración de la esfera pública y comenzar a ejercerlo con mayor responsabilidad. Ser "objetivo" es una tarea muy difícil; no sucede con naturalidad después de haber delegado todo el trabajo a los algoritmos. Los nuevos jefes supremos de los algoritmos no deberían aspirar a ser autómatas éticos; solo siendo autoreflexivos y moralmente imaginativos pueden estar a la altura del enorme peso de sus responsabilidades cívicas." (Morozov, p.171)
Lo más grave es que se altera de este modo el conocimiento a nivel global. Y podríamos ir de mal en peor, porque hoy en día los algoritmos son la base del aprendizaje automático que está más que nunca al alcance de cualquier programador y que es también la base del análisis de "big data". Para experimentar con estos servicios tenemos plataformas como IBM Watson Developer Cloud, Amazon Machine Learning, Azure Machine Learning y TensorFlow, y todos hacen ingentes esfuerzos de mercadeo en la red para convencer a todas las empresas, hasta las más pequeñas, de las "bondades" y oportunidades que su uso ofrecería.
Imagine ahora que los medios de prensa empiecen a utilizar este tipo de análisis, basándose en lo que más leen sus lectores: orientarán su selección y sus reportajes en función de lo preferido por la mayoría. Y, como se sabe que las noticias deprimentes gustan poco y no se reenvíen (recuerde que los ponen también en Facebook y Twitter), terminaremos con un panorama de "mundo feliz" irreal.
Los algoritmos analíticos son la base de una de las líneas de desarrollo de la "inteligencia artificial", el llamado "aprendizaje supervisado" porque -al menos- los humanos deben intervenir para dar inicialmente a la máquina algunos modelos de lo que se podría considerar útil. El principio básico, tomado del modelo animal (puesto en evidencia por Pavlov), es el aprendizaje por refuerzo, es decir por medio de la repetición, lo cual es fácil de traducir en un mecanismo estadístico, pero es claramente más mecánico que inteligente.
Pero se está avanzando hacia un "aprendizaje no-supervisado", donde se pretende que la máquina saque conclusiones "sin intervención humana" (¿pero quien la programa sino un humano?). Y "ya existen compañías que se centran completamente en enfoques de aprendizaje automático no supervisado, como Loop AI Labs, cuya plataforma cognitiva es capaz de procesar millones de documentos no estructurados y construir de forma autónoma representaciones estructuradas" (Xataka, 28/03/2016).
Se dice que operaría como el cerebro humano y que la máquina "comprendería" el contenido semántico y hasta "los motivos de una persona". ¿En serio?
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.