23 de noviembre de 2021

Algoritmos, sesgos y framing

 1. Los algoritmos

Los algoritmos son las secuencias de órdenes que conforman la base de la programación de los sistemas digitales. pero lo que nos interesa particularmente aquí son los que utilizan las plataformas y las empresas para analizar y aprovechar los datos que recogen.

"Los sistemas algorítmicos sirven para categorizar a los individuos y prever sus preferencias a partir de una gran cantidad de datos acerca de ellos.  El modelo de negocio de muchas empresas digitales se apoya en el hecho de que conocen a los usuarios mejor que ellos mismos." (Innerarity)

Los algoritmos son diseñados por seres humanos y los seres humanos son parciales. Y las empresas que los ocupan también tienen un sesgo.

Podemos distinguir dos tipos de algoritmos: los que son definidos completamente por un "científico de datos" y los que se generan por vía de aprendizaje automático (en el marco de la inteligencia artificial), para analizar grandes conjuntos de datos (big data). Los primeros surgen de la minería de datos y recurre a herramientas analíticas que operen sobre el conjunto de los datos para obtener nueva información (“datos agregados”) más valiosa que si se tomase esos datos de manera individual. Los segundos recurren generalmente a redes neuronales artificiales que pretenden simular lo que ocurre en el cerebro y permiten el "aprendizaje automático", es decir por medio de la repetición (aprendizaje por refuerzo, al estilo del perro de Pavlov). Son también programadores, evidentemente, que diseñan estas redes y las "afinan". El aprendizaje automático puede ser supervisado o no-supervisado. Lo común es la supervisión, pero ya existen compañías que se centran completamente en enfoques de aprendizaje automático no supervisado, en que la máquina “decidiría” lo que es importante ¿En base a qué criterios? Se habla de "algoritmos capaces de aprender", pero es un programador quien debe determinar el qué y el cómo.

En todos los casos el entrenamiento (puesta a prueba y supervisión) es indispensable y numerosos errores se producen por falta de ello. Hace unos años, Google exhibió fotos de mujeres afroamericanas en respuesta a una búsqueda de fotos de gorilas. Facebook censuró la célebre foto titulada “The terror of war”, de Nick Ut, tapando a la niña desnuda quemada con napalm, considerando que esta era una violación de la tradicional política contra los desnudos de niños (Xataka, 23/11/2016). Son sin duda casos extremos, pero también una muy buena demostración de lo que puede pasar con cualquier algoritmo si no se somete a un amplio proceso de entrenamiento y verificación. Lo más grave, especialmente en el caso de Google, es que se altera de este modo el conocimiento a nivel global. 

El verdadera problema: "El pequeño secreto del Big Data es que ningún algoritmo puede decirte lo que es relevante o desvelarte su significado." (TicBeat, 19 de mayo 2013).

"Si no sometemos a esos filtros más veloces, baratos y eficaces al estricto escrutinio ético que merecen, corremos el riesgo de caer en una de las tantas falacias del solucionismo y celebrar avances relacionados con problemas menos importantes, al tiempo que desatendemos cuestiones más acuciantes aunque menos obvias. (Morozov, p.174)

"Tú deberías tener el derecho de preguntar qué está haciendo o decidiendo un algoritmo por ti, cómo ha llegado a esta conclusión." (Hilbert, en Bastarrica)

Más detalles en Colle, R.: Algoritmos, grandes datos e inteligencia en la red – Una visión crítica

2. Los principales sesgos algorítmicos

Sesgo 1: El "futurismo"

Si bien el fin del análisis mediante algoritmos puede sermeramente descriptivo, en muchísimos casos se pretende  predecir el resultado de determinadas acciones o situaciones y ofrecer de antemano sugerencias sobre lo que se puede hacer al respecto.

"El problema estriba en que la mayor parte de las previsiones algorítmicas se basan en la idea de que el futuro será lo más parecido al pasado, de que nuestras preferencias futuras representarán una continuidad de nuestro comportamiento anterior tal y como queda registrado en los datos de nuestra movilidad o consumo." (Innerarity)

Los expertos en inteligencia artificial que desarrollan estos sistemas predictivos fantasean con la posibilidad de tener todos los datos y creen que una vez que los tengan podrían predecirlo todo (Marta García Aller, experta en tecnología, entrevistada por J.C.López).

Sesgo 2: La cultura

Microsoft creó Tay, un robot de inteligencia artificial, como parte de un ejercicio de aprendizaje automático. Lo tuvo que desactivar rápidamente y pedir disculpas.

"Tay, quien había venido aprendiendo y “creciendo” en ambientes controlados fue “introducida” al mundo real por medio de Twitter. La idea era que el bot interactuara con personas entre los 18 y 24 años, aprendiera de esas interacciones y madurara. El resultado? Un desastre! En menos de 24 horas Tay se convirtió en racista, amante de Hitler y de Donald Trump y expresó sentimientos antisemitas y denigrantes encontra de personas de color (como el Presidente Obama), inmigrantes y demás. Sus twits fueron tornándose cada vez más oscuros y denigrantes."  (Techcetera, 28/03/2016)  

Sesgo 3: El interés comercial

"Ahora cuando tú te vas a Instagram, cuando vas a hacer una búsqueda en Google o te vas a Youtube, estos canales no son neutrales, son distorsionados al final con fines comerciales." (Hilbert, en Bastarrica)

No todos los datos son iguales ni tienen el mismo valor o la misma calidad, y la empresa define los datos que le pueden resultar útiles. Y este interés puede pasar por alto los valores morales como se ha demostrado en el caso de Facebook. Lo han denunciado Frances Haugen y una investigación reciente de la revista de tecnología del MIT.

"An MIT Technology Review investigation, based on expert interviews, data analyses, and documents that were not included in the Facebook Papers, has found that Facebook and Google are paying millions of ad dollars to bankroll clickbait actors, fueling the deterioration of information ecosystems around the world. []

Posting the same article on multiple pages could as much as double the number of users who clicked on it and generated ad revenue. Clickbait farms around the world seized on this flaw as a strategy—one they still use today. []

Google is also culpable. Its AdSense program fueled the Macedonia- and Kosovo-based farms that targeted American audiences in the lead-up to the 2016 presidential election. And it’s AdSense that is incentivizing new clickbait actors on YouTube to post outrageous content and viral misinformation." (Hao)

Sesgo 4: Seguridad (Vigilancia) y censura

"Las mentes más brillantes en este negocio de la comunicación digital están dedicados a dos tareas: Silicon Valley, optimizando la publicidad, y los otros en las famosas agencias de tres letras: NSA, de la seguridad nacional." (Hilbert, en Bastarrica)

Las redes sociales han pasado a ser un objetivo estratégico para el Pentágono si desea desequilibrar a una nación. Y le interesa seguir de cerca a los activistas que se comunican a través de Twitter para intervenir en el momento adecuado. (FayerWayer, 9/07/2014).

En culturas en donde existe la censura "es muy posible, que los mismos algoritmos sean programados para seguir esos parámetros y evitar términos que puedan incitar a la insurrección" (Editorial Techcetera, 6/02/2021

3. ¿Es aplicable la teoría de framing?

 "El término frame, que nació en la psicología de Gregory Bateson como un concepto de carácter psíquico y fue retomado más tarde por el sociólogo Erving Goffman, quien le aportó su dimensión social. Los estudios sobre movimientos sociales y comunicación son herederos de esta perspectiva." (Koziner, p.1).

Bateson propuso el encuadre (frame) para referirse a la  interpretación en la recepción de los mensajes, donde se atienden determinados aspectos de la realidad y se ignoran otros. El término surgió por analogía con el marco de un cuadro, que lo separa de su entorno (contexto, en el caso de la comunicación). (Koziner, p.12).

Dice Ardèvol-Abreu que "Los encuadres llaman la atención de algunos aspectos de la realidad en detrimento de otros, por lo que para definirlos hay que tener en cuenta tanto lo que describe como lo que omite" (p.425). Y Entman ya señalaba (1993) que encuadrar es "seleccionar algunos aspectos de la realidad percibida, y hacerlos más relevantes en un texto comunicativo, de modo que se promueva una determinada definición del problema, una interpretación causal, una evaluación moral y/o una recomendación de tratamiento para el asunto descrito" (Entman, p.52). Pero Ardèvol-Abreu advierte que "el término frame carece de una conceptualización clara" y que "una gran disparidad de definiciones del concepto, que en ocasiones resultan contradictorias" (p.425).

La teoría del framing ha sido muy utilizada en investigaciones sobre medios de comunicación, en relación al tratamiento de los temas, y especialmente de las noticias en la prensa, es decir a los procesos informativos (Cfr. censo de la publicado en España en Ardèvol-Abreu, 2015, y en los estudios chilenos, en Porath, 2021).

Pero no es lo relativo a los medios de comunicación tradicionales lo que nos interesa aquí. Nos interesa el manejo de informaciones (normalmente "big data") para fines que van desde la comunicación digital, como en redes sociales y publicidad "personalizada", hasta el análisis empresarial de uso interno.

Para este fin podemos volver a la idea original de Bateson: atender determinados aspectos de la realidad e ignorar otros. Y también puede ser interesante la definición de Tankard: el encuadre es "una idea organizadora central del contenido informativo que ofrece un contexto y sugiere cuál es el tema mediante el uso de la selección, el énfasis, la exclusión y la elaboración" (Tankard, p.3).

Un algoritmo se aplica a un contexto predeterminado, representa (o más bien, extrae, en este caso) una "una idea organizadora central" vía "selección, énfasis, exclusión y elaboración".

Nos alejamos así de las concepciones del framing relativas a la formulación o recepción de las noticias u otros contenidos de los medios clásicos pero, según el mismo Entman, la diversidad de concepciones del framing permite "integrar teorías y conocimientos que, de otro modo, permanecerían disgregados en otras disciplinas" (Entman, p.51). Por lo tanto, abordar la problemática de la formulación y de los sesgos de los algoritmos podría hacerse desde la teoría del encuadre. En efecto, Entman "propone hacer del framing un paradigma de investigación en comunicación, entendido como una teoría general que reporta información acerca del funcionamiento y los resultados de cualquier sistema particular de pensamiento y acción" (Koziner, pp.3-4).

Para abordar desde este punto de vista los algoritmos, podremos encontrarnos con diversos grados de dificultad. Conocer el contexto y los objetivos generales puede ser relativamente fácil, pero acceder a los criterios de análisis y selección puede ser mucho más difícil. Se trata generalmente de secretos empresariales. Pero nada impide realizar experimentos orientados a detectar los sesgos.

En conclusión, el análisis de sesgos de los algoritmos, como hizo el MIT, puede ser - me parece - una forma de aplicación de la teoría del framing.

Referencias

Ardèvol-Abreu, A. (2015): “Framing o teoría del encuadre en comunicación. Orígenes, desarrollo y panorama actual en España”, Revista Latina de Comunicación Social, 70, pp.423 a 450.

Bastarrca, D. (2019): Martin Hilbert: El algoritmo es tan peligroso como una medicina o una comida tóxica para la salud, FayerWayer, 1/07/2019. 

Colle, R. (2017): Algoritmos, grandes datos e inteligencia en la red – Una visión crítica, Colección Mundo Digital, Revista Mediterránea de Comunicación, Universidad de Alicante (España).

Entman, R. (1993). Framing: toward clarification of a fractured paradigm. Journal of Communication, 43 (3), pp.51-58.

Hao, K. (2021): How Facebook and Google fund global misinformation, MIT Technology Review.  

Innerarity, D. (2021): Gobernanza algorítmica, La Vanguardia,  31 de julio 2021. @LaVanguardia @danllnnerarity

Koziner, N.S. (2013): Antecedentes y fundamentos de la teoría del framing en comunicación, CONICET, Vol. 2 n.1.

López, J.C. (2020): Una máquina no entendería por qué si tenemos el algoritmo perfecto no le hacemos caso, Xataka 11/07/2020, 

Morozov, E. (2015): La locura del solucionismo tecnológico, Buenos Aires, Katz Editores.

Porath, W. (2021): El concepto Frame y la teoría del framing en la investigación de medios de comunicación en Chile, Ponencia en el VII Congreso INCOM-Chile.

Tankard, J. (2001): “The empirical approach to the study of media framing” (p. 95-106). En: Reese, S; Gandy, Oscar; Grant, A. (eds.). Framing public life: perspectives on media and our understanding of the social world. Mahwah NJ: Lawrence Erlbaum Associates.