2 de diciembre de 2016

Ética (¿censura?) en las grandes plataformas

Facebook ha anunciado que impondrá censura para «evitar que la red, de entrada, se convierta en un nido de pornografía y violencia». Sin embargo, según ABC.es,
"A lo largo de la trayectoria de la mayor red social han sido muchas las ocasiones en las que se ha aplicado una dudosa moral a la hora de ocultar ciertos contenidos a los usuarios. ...
La pregunta es si Facebook debería aplicar otro tipo de normas morales a la hora de aplicar su criterio de selección de contenidos. «Podría aplicar las mismas normas que un medio de comunicación convencional», considera Miguel Ángel Jimeno, profesor de periodismo de la Universidad de Navarra, aunque al tratarse de una empresa privada con contenidos no periodísticos puede decidir lo que quiera. «Cuando una de esas reglas llama la atención a un sector de sus usuarios, como ha sucedido ahora, el mundo 'periodístico' se subleva. Pero creo que solo ha sido el periodístico. A los demás usuarios, el tema parece que ni les va ni les viene», añade este experto. Frente a esa situación, y de cara a evitar que este tipo de servicios se conviertan en foros de propagación de enfoques ideológicos hostiles, la propia compañía Facebook ha puesto el foco en un programa específico para luchar contra el odio digital, una expansión de los esfuerzos de la industria tecnológica para socavar la propaganda de internet de terroristas islámicos y radicales de extrema derecha. (ABC, 16/11/2016)
El tema de la censura o "filtrado" en medios sociales se ha hecho más notorio a raíz de las discusiones posteriores a la elección presidencial de los Estados Unidos, que ha demostrado que el tema es mucho más complejo que evitar la violencia o los trolls.

Según un análisis de Buzzfeed, durante la campaña presidencial norteamericana, las 20 noticias inventadas más compartidas en Facebook superaron ampliamente a las 20 noticias verídicas más compartidas (8,7 millones de interacciones, frente a 7 millones). “Nadie nunca chequea los datos. Así fue como Trump fue elegido. Él dijo lo que quiso, y la gente creyó todo, y cuando se comprobó que las cosas que decía no eran verdad, a la gente no le importaba, porque ellos ya lo habían aceptado. Es tenebroso”, confesó Paul Horner, uno de los autores más prolíficos de noticias falsas que se viralizan por las redes sociales y con las cuales gana hasta US$ 10 mil al mes por la publicidad que obtienen sus artículos mentirosos (El Mercurio, 26/11/2016).

Los mismos algoritmos que utilizan las redes sociales y las empresas para "ayudar" a sus usuarios, sirviéndoles lo que responde a sus gustos introducen una distorsión que puede ser éticamente cuestionada. Especialmente cuando se observa que de este modo pueden llegar a distorsionar el debate público.
“Nuestro mayordomo [asistente digital] puede recomendar servicios y productos que fomenten los intereses financieros de la super-plataforma en lugar de nuestros propios intereses. Al servir a sus verdaderos amos -las plataformas- puede distorsionar nuestra visión del mercado y llevarnos a los servicios y productos que sus amos desean promover.
El aumento en el poder económico de la super-plataforma puede traducirse en poder político. A medida que dependemos cada vez más de uno o dos mayordomos de cabecera, la super-plataforma aprenderá sobre nuestras creencias políticas y tendrá el poder de afectar nuestras opiniones y el debate público.” (M. E. Stucke y A. Ezrachi, Wired, 29/11/2016)
Filippo Menczer, director del Center for Complex Networks and Systems Research de la Universidad de Indiana (Bloomington) ha estudiado este fenómeno, ligado también a la industria de las noticias falsas:
“Tenemos una industria de falsas noticias y desinformación digital. Los sitios de Clickbait fabrican bromas para ganar dinero con anuncios, mientras que los llamados sitios hiperpartidistas publican y difunden rumores y teorías de conspiración para influir en la opinión pública.
Dentro de nuestra burbuja, estamos expuestos selectivamente a información alineada con nuestras creencias. Ese es un escenario ideal para maximizar el compromiso, pero uno perjudicial para desarrollar un escepticismo saludable. El sesgo de confirmación nos lleva a compartir un titular sin ni siquiera leer el artículo.” (Menczer, Inverse.com, 28/11/2016)
(Gráfico del estudio de Menczer)

También se extiende a políticas de marketing y publicidad que implantan un modelo de negocio que se basa en censura de contenido para obligar a los consumidores a pagar más dinero por menos información (Ver post del 4 de marzo y FayerWayer, 26/01/2016).

Lamentablemente tenemos una tendencia natural a relacionarnos con quienes piensan como nosotros y a evitar los contradictores. El físico teórico Cristián Huepe, investigador del Instituto de Sistemas Complejos de la Northwestern University en Chicago, que también estudió la dinámica de las redes de opinión, comprobó matemáticamente que el algoritmo de sitios como Facebook, sumado a la tendencia de las personas a asociarse con quienes piensan del mismo modo, genera dos grupos que no conversan entre sí.
“Ese algoritmo diseñado inicialmente para que uno pase más tiempo en Facebook, tiene como consecuencia secundaria que refuerza una situación ya natural en los seres humanos: que uno solo ve lo que a uno le gusta, con lo que está de acuerdo. Y refuerza esa tendencia tribal a separarse en grupos con opiniones muy distintas. Llega el punto en que las realidades, entre comillas, que tiene cada grupo son distintas. Porque la información que reciben solo está de acuerdo con ellos, entonces interpretan las noticias o incluso repiten informaciones falsas de manera que nadie cuestiona, porque todos ya están de acuerdo con la conclusión.” (Huepe, El Mercurio, 26/11/2016)
ACTUALIZACIÓN
La Comisión Europea le advirtió ayer domingo de forma oficial a las grandes tecnológicas estadounidenses como Facebook, Twitter, Google y Microsoft que deben empezar a actuar con más rapidez contra los discursos de odio en sus servicios. Les ha pedido que cumplan el código de conducta voluntario que firmaron hace seis meses prometiendo actuar en veinticuatro horas contra los comentarios abusivos si no quieren que sea la propia ley la que acabe forzándoles a hacerlo. (Genbeta, 5/12/2016)

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.