30 de diciembre de 2016

Revisión del año

Internet
Según Genbeta, "el 2016 ha sido un año no demasiado bueno para Internet. Las noticias falsas y el acoso online han tomado las redes sociales, los gobiernos y empresas reaccionan recortando libertades y privacidad, y mientras, se ha iniciado una nueva era de ataques online a través de botnets". También mencionan los hackeos masivos y las grandes filtraciones que siguieron. "También ha sido un año especialmente malo para nuestra privacidad", las grandes plataformas recopilando más y más datos. (Genbeta, 9/12/2016)
"Google conoce exactamente lo que le interesa a sus usuarios Eso ha quedado totalmente demostrado con la publicación de sus búsquedas más populares durante 2016. Se trata de un hecho que no tiene muy contentos a los grupos de defensa de los derechos de los consumidores como Consumer Watchdog y The Privacy Rights Clearinghouse, quienes han solicitado la intervención de las autoridades para regular las prácticas de la compañía." (FayerWayer, 21/12/2016)
La "nube" no ha tenido la penetración que se esperaba, según John Dvorak, en parte por el abaratamiento de los discos duros (us$99 por 1TB) (PC Magazine, 28/12/2016).
Wikipedia: "Donald Trump" y "Las muertes en 2016" fueron las páginas más editadas (@cdperiodismo, 23/12/2016).
Todo el año se ha promocionado el "análisis de big data" como un recurso indispensable para las empresas (ComputerWorld, 21/12/2016). Cierto es que deben conocer lo mejor posible sus clientes, pero también se ha advertido el peligro de confiar mucho en los algoritmos y la necesidad de contar con buenos -y aún escasos- "científicos de datos".

Software
Según TICbeat (29/12/2016), la mensajería instantánea y la inteligencia artificial han experimentado fructíferos avances este año. "Tanto es así que hoy vivimos una auténtica revolución en el campo de la atención al cliente en tiempo real, cada vez más personalizada y exacta.[...] Las marcas que impulsan estos canales de mensajería para comunicarse con sus clientes experimentan un crecimiento neto en el número de interacciones en todos los canales porque los usuarios están más incentivados y han migrado su conducta hacia el uso de las nuevas soluciones tecnológicas."
La inteligencia artificial amenaza de 2 a 3 millones de empleos en el sector transporte de EEUU conforme se desarrolle la conducción autónoma, según informe publicado por la Casa Blanca. (TICbeat, 24712/2016)
En materia de app, lo más notable fue el furor causado por Pokémon Go. Se destaca también PhotoScan, de Google, para escanear fotos en papel. (ElPaís.com, 22/12/2016)

Seguridad
El 2016 pasará a la historia como el año de la gran explosión del ransomware (una forma de extorsión digital que permite que los atacantes que encripten los archivos del ordenador para después pedir un rescate) (TICbeat, 26/12/2016). Es un problema cada vez más presente en todo el mundo, que generó en el año más de 1.000 millones para los delincuentes (Wwwhat's New, 19/12/2016).
Bruce Schneier, uno de los expertos en seguridad más respetados, ha declarado que ha quedado claro que Yahoo no ha tomado en serio la seguridad desde hace tiempo (se conoce desde hace unos 10 años la debilidad del método que usa) y que "tendría dificultad en seguir confiando en Yahoo" (The Guardian, 15/12/2016).
Los ciberataques masivos (como el que afectó Yahoo) también han llamado la atención sobre la poca seguridad en la internet de las cosas (PC Actual, 20/12/2016).

Móviles y redes
Según Global Web Index, ocho de cada diez usuarios prefieren smartphones para navegar en redes sociales (26/11/2016) sin embargo "las redes sociales han perdido parte de su encanto". [En varios países] empiezan a cansarse de las fotografías y momentos de felicidad de Facebook, los grupos de WhatsApp y el “always on” 24/7 (TICbeat, 20/12/2016).
La investigación realizada por Ipsos, comScore y Nielsen, señala que YouTube llega a más gente en el móvil que cualquier cadena de televisión abierta o de cable.(@periodismo, 27/12/2016).
Más de la mitad de los 3.400 millones de personas con acceso a Internet acceden a Facebook cada mes. Los ingresos de esta plataforma en los primeros nueve meses de 2016 subieron un 36 por ciento, a 19.000 millones de dólares mientras su beneficio casi se triplicó, a us$ 6 mil millones (MIT Technology Review). Zuckerberg reconoció finalmente que su compañía era "tecnológica y de comunicación" (ElMundo.es, 22/12/2016).
Y aunque Facebook parece ser uno de los medios favoritos para acceder a las noticias, un estudio de Chartbeat - que analizó más de 700 medios de comunicación y 70 millones de URLs únicas accedidas a través de  Google, Facebook y Twitter - mostró que las noticias de último minuto pueden nacer y extenderse rápidamente en redes sociales, pero los usuarios prefieren leer medios reconocidos por su marca para dar seguimiento a estos acontecimientos noticiosos (@periodismo, 27/12/2016; gráfico original a continuación). 
En 2016, las noticias de los medios se enfrentaron con una corriente producida por falsificadores. La elección norteamericana inspiró más "tribalismo" en línea, y la confianza de los ciudadanos en los medios de comunicación tradicionales se redujo allá a su nivel más bajo: según Gallup, sólo el 32 por ciento dijo que tenía confianza en los medios de comunicación (Wired, 26/12/2016). Incluso el presidente de la UE llamó a actuar con firmeza para detener las noticias falsas en la red (FauerIre, 26/12/2016)
El amplio uso de los smartphones está teniendo influencia en la disciplina infográfica: obliga a diseños más compactos, con un especial esfuerzo de claridad y de ir a lo esencial, como remarcó Nathan Yau en FlowingData (29/12/2016). De su selección, elegí el gráfico adjunto, de The Wall Street Journal, sobre la evolución de los resultados de las elecciones norteamericanas.




eComercio
El ecomercio ha visto el nacimiento del reparto aéreo por medio de drones, pero sin duda lo más sorprendente ha sido la patente que registró Amazon para crear bodegas en zepelines - llamadas 'Centros de Almacenamiento Voladores' - para abastecer estos drones. Por cierto, no hubo anuncio oficial y no está claro hasta qué punto ejecutarán realmente lo planteado (ElMundo.es, 29/12/2016).

Hardware
Los fracasos tecnológicos más sonados en 2016: el «explosivo» Samsung Galaxy Note 7; los vehículos eléctricos de Tesla que sufrieron algunos accidentes; el dronque GoPro tuvo que retirar del mercado; las ventas de relojes "inteligentes" que cayeron en picada y varias empresas han abandonado su producción (ABC.es, 12/12/2016). Las pocas ventas ponen en duda la necesidad (y utilidad) de estos relojes. Pebble ha tirado definitivamente la toalla y ha vendido sus activos a Fitbit, que no seguiría produciéndolos. Muchos fabricantes, como Motorola, también reducen o abandonan la producción y muchos analistas creen que la caída en el número de unidades vendidas por Apple podría ya superar el 70%. (PC Actual, 20/12/2016)
Para Apple, el iPhone 7 no tuvo el resultado esperado y también enfrenta críticas para el iPhone 6S y el nuevo Mac Pro. Y si se esperaba que 2016 fuese el año de la realidad virtual, los resultados tampoco son auspiciosos debido en parte al alto precio de los lentes y las "experiencias imperfectas" de los usuarios. (ElMundo.es, 24/12/2016).
Las ventas de tabletas siguieron bajando aunque tratan de recuperar terreno con mayor poder de procesamiento. Pero los híbridos les quitan terreno.
Los drones repartidores de paquetes ya operan en los Estados Unidos, Gran Bretaña y ahora Francia (Wwwhat's New, 21/12/2016).
2016  fue "el año en que los automóviles que se manejan solos se tomaron las calles". Hasta Uber lanzó taxis sin chofer, pero debió retirarlos porque se saltaban los semáforos en rojo (Wired, 22/12/2016). En España también es ya legal probar coches autónomos (Gizmodo, 23/12/2016). Pero Google abandonó sus proyectos de automóviles autónomos propios y licenciará el software (PCmag, 28/12/2016).
Lo que podría ser una de las grandes pérdidas del año ha sido el proyecto ARA, abandonado por Google. Se proponía fabricar teléfonos móviles modulares que cada uno podría armar según sus preferencias, como Legos (MIT Technology Review, 29/12/2016).

RV y RA
La realidad virtual no ha progresado y la venta de lentes ha sido escasa debido al precio y las escasas aplicaciones. Pero la realidad aumentada parece tener mejores perspectivas, al menos en celulares como ha mostrado el éxito de Pokemon Go y el lanzamiento la plataforma Tango AR de Google para smartphones y de las HoloLens de Microsoft. MagicLeap siguió avanzando y dio a conocer nuevas imágenes, aunque aún no se sabe cuando estará en condiciones de comercializar su producto. Aquí su último video. (NewScientist, 28/12/2016) 
El problema está esencialmente en el hardware: la calidad de la experiencia con smartphones deja bastante que desear mientras los Oculus Rift y HTC Vive son caros, pesados, requieren una conexión con un PC con altas prestaciones, y la oferta es casi exclusivamente de videojuegos. En 2016 se vendieron 1,4 millones de dispositivos a nivel mundial, un número pequeño en realidad, que no mejorará hasta que se deje de depender de un PC (Wwwath'sNew, 30/12/2016) ... y se resuelvan los problemas de acomodación visual, especialmente para los mayores de 30 o 40 años, agrego yo.

Científicos desaparecidos
Este año, perdimos a Marvin Lee Minsky (autor de "La sociedad de la mente", foto al lado) y Seymour Papert ("padre" de la corriente de psicología construccionista), su compañero, ambos fundadores del Artificial Intelligence Laboratory en el MIT; Ray Tomlinson, pionero del correo electrónico; y Lloyd S. Shapley, matemático experto en teoría de juegos (que se proyecta en las conductas de colaboración).

Los mejores libros del año según el MIT
(solo pongo los títulos que me parecen más interesantes):
The Ethics of Invention: Technology and the Human Future, by Sheila Jasanoff.
The Signals Are Talking: Why Today’s Fringe Is Tomorrow’s Mainstream, by Amy Webb.
Rise of the Machines: A Cybernetic History, by Thomas Rid.
Chaos Monkeys: Obscene Failure and Random Fortune in Silicon Valley, by Antonio Garcia Martinez.
Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, by Cathy O’Neil.
Algorithms to Live By: The Computer Science of Human Decisions, by Brian Christian and Tom Griffiths.
The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future, by Kevin Kelly.

Personaje del año: Elon Musk (FayerWayer, 27/12/2016; MIT Technology Review, 29/12/2016)

23 de diciembre de 2016

Internet como bien público

Internet fue creada como una red de cooperación entre expertos en informática. No tiene dueño: sus dueños son todos los que ponen sus computadores a disposición de los demás. Requiere sin embargo ser “gobernada”, para que funcione adecuadamente, y esto implica definir y actualizar los protocolos de comunicación y administrar el sistema de dominios, lo cual está a cargo de la ICANN (Corporación de Internet para la Asignación de Nombres y Números), organización sin fines de lucro que dejó desde el 1 de octubre de 2016 de ser un organismo bajo el control de los Estados Unidos. Pero gran parte de los servicios que podemos encontrar hoy dependen de las grandes “plataformas”: Facebook, Google, Microsoft, Amazon, etc., que no son entidades sin fines de lucro y hacen todo lo posible por controlar la red (como el proyecto de internet gratuita pero minimalista de Facebook en Asia, que solo permitiría el acceso a algunos servicios a través de esa plataforma).

“La brecha digital sólo podrá superarse si Internet es vista como un bien público, y los gobiernos deben fijar las normas para involucrar al sector privado”, señaló Anita Gurumurthy, de la organización no gubernamental india IT for Change (Informática para el Cambio) (Inter Press Service, 18/11/2005). ¿Pero qué significa “bien público”?
“Le pedí a [Lawrence] Lessig que me explicase a qué se refería cuando afirmaba que Internet era un recurso público «común», no dividido entre propietarios privados. Lessig recurrió a la diferencia entre la regulación del ferrocarril y la de las autopistas. En el ferrocarril, los vagones individuales no tienen inteligencia, y sólo un tren puede estar en una vía determinada a una hora concreta, de modo que las redes ferroviarias deben estar muy bien coordinadas desde un órgano central. En cambio, los automóviles tienen supuestamente conductores inteligentes que eligen la ruta adecuada para llegar a su destino sin colisionar con otros vehículos.Ya no se requiere un sistema de coordinación central. «La autopista es un bien común», dijo Lessig. Todo el mundo tiene acceso, nadie necesita una autorización especial para utilizar el sistema de la autopista, cualquiera puede fundar una empresa de transporte por carretera y utilizar la red. Los vehículos que circulan por el bien común de la autopista están regulados: no se puede conducir un tanque, por ejemplo, ni llevar un vehículo sin luces, pues en tal caso el conductor será expulsado. A la luz de la comparación entre el ferrocarril y la autopista, Lessig señaló que «la regulación del espectro podría desplazarse desde el mundo ferroviario, donde los coordinadores centrales tienen que decidir quién utiliza cada vía en cada momento, al de las autopistas, donde los dispositivos inteligentes utilizan el recurso común como quieren».” (Rheingold, Multitudes inteligentes, Gedisa, 2004, p.179)
En una votación esperada desde hace varios años, la Comisión Federal de Comunicaciones de Estados Unidos (FCC) decidió finalmente, tras una larga pugna, clasificar el acceso a la red como un “bien público”. Antes lo consideraba como un servicio de información, por lo que carecía de competencia para obligar a las compañías a tratar cada una de las conexiones de los ciudadanos con el mismo principio de igualdad que rige las llamadas de teléfono, para las que no se puede ofrecer un trato prioritario (El País, 27/02/2015). El trato igualitario es lo que se conoce como “neutralidad” de la red e impide a los provedores de servicios de internet (ISP) de países que adhieren a la neutralidad priorizar cierto tráfico u otorgar gratuidad para algunos servicios (p.ej. acceso a redes sociales sin cargo en la cuenta de datos en los teléfonos móviles), lo cual puede volver más lenta la transmisión para los clientes que no usan los servicios priorizados. Al menos a ese nivel, aunque dependiendo aún de la política de cada país, el acceso a internet debería ser igual para todos. Pero aún así, son múltiples las influencias y presiones que se ejercen, a distintos niveles, sobre proveedores y usuarios (Ver al respecto mi libro “Sistémica de los medios de comunicación”).

16 de diciembre de 2016

La pesadilla de la identidad alterada en la red

Las empresas presentes en internet recopilan, conservan y analizan cada vez más datos acerca de quienes visitan sus páginas o sus inserciones en redes sociales. Todo para “mejorar” su acceso y sus ofrecimientos a sus posibles clientes. De ahí que el análisis de grandes datos (big data) forme parte del trabajo de los departamentos de mercadeo y que haya una demanda creciente (insatisfecha) por “científicos de datos”. Sin embargo, los que ya trabajan en esta área se están dando cuenta de que no sólo es complicado el análisis sino muy difícil obtener resultados claramente útiles porque los usuarios de internet tienden a falsificar sus datos personales.


Acaban de darse cuenta que la “personalidad digital” (o virtual) puede ser muy diferente de la real. Nuestro perfil y nuestros posts en nuestros “muros” conforman los datos que, libremente, publicamos y que pasan a engrosar las bases de datos de las redes sociales en las que participamos y de las empresas que nos observan. Éstas pueden conocer nuestros gustos, pero solo en función de lo que exhibimos directa o indirectamente. Nuestras búsquedas y nuestras compras, por ejemplo, pueden dar una idea de lo que nos interesa y ésto puede pasar a formar parte de nuestra identidad virtual aunque no signifique que realmente nos sea propio (podemos comprar regalos, consultar cosas que interesan a nuestros amigos, etc.). Y podemos, obviamente, declarar gustos e intereses falsos y esconder los verdaderos. La gestión de la reputación, en tanto selección de la información personal que se expone públicamente, es un elemento importante en la manera en que la gente funciona en las redes, establece sus credenciales y construye confianza. Y lo propio de las redes sociales es que los individuos interconectados pueden crear “identidades digitales” verdaderas o bien parcial o totalmente ficticias, como deseen (Rainie y Wellman, pp.15-17).

Estas falsedades o “datos sucios” (“dirty data”) constituyen una parte cada vez más problemática de los big data. 
“Los consumidores están llenando las bases de datos de las compañías con una avalancha de datos falsos, de medias verdades y de datos que se ajustan más a lo que la empresa puede querer oír que a lo que el consumidor querría decir.
Más de la mitad de los consumidores están, de hecho, dando ya datos y llenando las bases de datos de las compañías de mentiras cuando se aborda la información que estos dan a las empresas. De forma más exacta y concreta, y según un estudio de Verve, el 60% de los consumidores provee de información falsa a las empresas que le piden sus datos personales en internet. El estudio está realizado sobre una muestra británica, pero sirve para apuntalar la percepción de que existe un problema en el mundo de los datos.
Un 81% de los encuestados pone su privacidad como una de sus principales preocupaciones, un 77% señala que las peticiones de información son intrusivas y un 76% innecesarias.” (PuroMarketing, 2015) 
Un estudio de Shop+ determinó que los “millenials” mienten –como muchos otros– sobre su fecha de nacimiento y, especialmente, cuando les permite beneficiarse de un servicio extra o una oferta (ibidem). Dar un e-mail falso es también común, para evitar el ser perseguido por anuncios y spam.
Ésto podría ser preocupante para el futuro, especialmente si no se toman mejores medidas para resguardar la privacidad de los datos, como nos advierte Eric Schmidt:
“En el futuro la identidad será la materia prima más valiosa para los ciudadanos y ésta existirá principalmente online. La experiencia online comenzará al nacer, o incluso antes.
En respuesta, las compañías tendrán que crear nuevas herramientas para controlar la información, tales como listas que permitan a la gente determinar quien ve sus datos. Las tecnologías de comunicación que utilizamos hoy en día son invasivas por diseño, recopilando nuestras fotos, comentarios y amigos y almacenándolas en bases de datos gigantes en las que se puede buscar, y en ausencia de una regulación exterior sólo resta confiar en la buena fe de empleados, personal burocrático de las universidades y otras personas.” (Schmidt y Cohen, p.58)
Pero no todos tienen buena fe y no faltan quienes no solo modifican sus propios datos sino que buscan una forma de desaparecer y hacerse de otra personalidad.
“La identidad online se convertirá en una moneda muy potente que incluso verá cómo se crea un nuevo mercado negro donde la gente puede comprar identidades reales o inventadas. Los ciudadanos y delincuentes se verán igualmente atraídos por una red así, donde la identidad falsa podría proporcionar cobertura para un traficante de drogas, así como refugio para un disidente político. La identidad será fabricada o robada y se ofrecerá completa con datos de fechas anteriores, registros de actividad IP (Protocolo Internet), amigos falsos y compras de artículos, así como otros medios para hacer aparecer convincente la información.” (ibidem, p.61)
Referencias:
Rainie,L. & Wellman, B. (2012): Networked: The New Social Operating System, MIT Press, Cambridge (MA).
Schmidt, E. y Cohen, J. (2014): El futuro digital, Madrid, Anaya.

9 de diciembre de 2016

La internet de las falsedades


La semana pasada me he referido ya a la "industria de falsas noticias". Ahora, el último informe del Comisario europeo de Justicia sobre el estado de la incitación al odio en las redes sociales determinó que todavía queda mucho trabajo por hacer y que el código de conducta firmado por las empresas no está dando los resultados esperados. La Comisión Europa ha reiterado así su exigencia de que Facebook, Google y Twitter vigilen con más ímpetu la incitación al odio que se produce en estas redes sociales.  (TICbeat, 5/12/2016)

Facebook ha respondido anunciando "un algoritmo que detecta desnudez, violencia o cualquier otra cosa que no esté de acuerdo a nuestras políticas", según un comunicado de prensa, pero declinaron referirse sobre si este proyecto puede o no detectar noticias falsas y no está claro a partir de cuando estará operativo (FayerWayer, 6/12/2016).

El Congreso de los Estados Unidos ha aprobado una ley que impide que las empresas tomen represalias contra los clientes que publican opiniones negativas en Internet. (Gizmodo, 6/12/2016) Habría que ver los detalles de esta ley para saber si toma en cuenta la problemática de las falsedades!

Hace unos días tuve acceso a un artículo de The Guardian que rinde cuenta de una investigación de Jonathan Albright, profesor asistente de comunicaciones de la Universidad Elon de Carolina del Norte, sobre cómo los sitios web de extrema derecha han difundido falsas noticias. 
"Tomé una lista de estos falsos sitios de noticias que circulaban; tuve una lista inicial de 306 de ellos y usé una herramienta -como la que usa Google- para rastrearlos y luego los mapeé. Miré a donde los enlaces apuntaban - como YouTube y Facebook - y entre ellos, millones de ellos ... y simplemente no podía creer lo que estaba viendo.
Han creado una web que está sangrando a través de nuestra web. Esto no es una conspiración. No hay una persona que haya creado esto. Es un vasto sistema de cientos de sitios diferentes que están utilizando todos los trucos que todos los sitios web utilizan. Están enviando miles de enlaces a otros sitios y, juntos, esto ha creado un vasto sistema satelital de noticias de la [extrema] derecha y propaganda que ha rodeado completamente al sistema de medios de comunicación." 
Encontró finalmente 23.000 páginas y 1,3 millón de hipervínculos. El gráfico que sigue muestra esta nube que envuelve a los medios legítimos. 

"Lo que este mapa muestra es la red de distribución y se puede ver que está rodeando y realmente asfixiando el ecosistema de noticias mainstream. Cuando se mira en 3D, en realidad se ve como un virus. Y Facebook fue sólo uno de los anfitriones de este virus, que ayuda a propagarlo más rápidamente."
Charlie Beckett, profesor de la Escuela de Medios y Comunicaciones de LSE, dice: "Lo que Jonathan Albright ha demostrado es que esto no es un subproducto de Internet, ni siquiera se hace por razones comerciales, es motivado por la ideología, por personas que tratan deliberadamente de desestabilizar Internet". Y para ello usan los mismo trucos que los sitios comerciales para "jugar" con el algoritmo de Google: cuantas más personas busquen información sobre un tema determinado, más gente verá enlaces a los sitios correspondientes y subirá en los resultados de Google. El mapa muestra lo bien que lo están haciendo. 
"Cada vez que a alguien le gusta uno de estos posts en Facebook o visita uno de estos sitios web, los scripts le siguen a través de la Web. Esto permite, por la minería de datos, influir en empresas como Cambridge Analytica marcar a los individuos, seguirlos en la web y enviarles mensajes políticos altamente personalizados. Es una máquina de propaganda, dirigida individualmente a las personas para reclutarlas a una idea; es un nivel de ingeniería social que nunca había visto antes."
Si es un sitio de odio, como ocurre con los sitios neonazis, más aparecerán en la primera página de resultados, como demostró Carole Cadwalladr, la autora del artículo de The Guardian. Ella tipeó en Google Search "are jews" y el sistema le propuso completar la frase con cuatro diferentes adjetivos. El cuarto era "evil" ("los judíos son malvados") y ella ordenó esa búsqueda. Obtuvo una página entera de referencias que ofrecían un 90% de respuestas que confirmaban dicha afirmación. La primera era de una página que ofrecía los 10 mayores motivos de odio (“Top 10 Major Reasons Why People Hate Jews”), y la tercera remitía a un sitio neo-nazi. Se sorprendió descubriendo algo parecido con el tema de las mujeres ("women are..."), cuya primera opción para completar la pregunta fue "are evil" (son malvadas) y los 10 primeros resultados respondían afirmativamente. Y el primero de ellos decía incluso que "Toda mujer tiene algún tipo de prostituta en ella. Cada mujer tiene un poco de malvado en ella ... Las mujeres no aman a los hombres, les encanta lo que pueden hacer para ellas. Es razonable decir que las mujeres sienten atracción, pero no pueden amar a los hombres."!!

En español no se obtienen estos mismos resultados, aunque al buscar por Hitler, una de las sugerencias que se ofrecen al usuario es "Hitler era bueno". Pero ello no invalida lo encontrado por Albright: sin duda hay otros casos igualmente dudosos. Y nos ha de alertar una vez más acerca del peligro de creer en la inocuidad y objetividad de los algoritmos, aunque los expertos en estadística puedan demostrar que los algoritmos predictivos son superiores a la intuición e incluso a las opiniones de expertos (ver D.Kahnemen, "Pensar rápido, pensar despacio", pp.291-305), pero pasan por alto el significado, las tendencias malévolas y las mentiras (presentes también ya en muchas personalidades "digitales").

Referencia: C.Cadwalladr: "Google, democracy and the truth about internet search", The Guardian, 4/12/2016.

2 de diciembre de 2016

Ética (¿censura?) en las grandes plataformas

Facebook ha anunciado que impondrá censura para «evitar que la red, de entrada, se convierta en un nido de pornografía y violencia». Sin embargo, según ABC.es,
"A lo largo de la trayectoria de la mayor red social han sido muchas las ocasiones en las que se ha aplicado una dudosa moral a la hora de ocultar ciertos contenidos a los usuarios. ...
La pregunta es si Facebook debería aplicar otro tipo de normas morales a la hora de aplicar su criterio de selección de contenidos. «Podría aplicar las mismas normas que un medio de comunicación convencional», considera Miguel Ángel Jimeno, profesor de periodismo de la Universidad de Navarra, aunque al tratarse de una empresa privada con contenidos no periodísticos puede decidir lo que quiera. «Cuando una de esas reglas llama la atención a un sector de sus usuarios, como ha sucedido ahora, el mundo 'periodístico' se subleva. Pero creo que solo ha sido el periodístico. A los demás usuarios, el tema parece que ni les va ni les viene», añade este experto. Frente a esa situación, y de cara a evitar que este tipo de servicios se conviertan en foros de propagación de enfoques ideológicos hostiles, la propia compañía Facebook ha puesto el foco en un programa específico para luchar contra el odio digital, una expansión de los esfuerzos de la industria tecnológica para socavar la propaganda de internet de terroristas islámicos y radicales de extrema derecha. (ABC, 16/11/2016)
El tema de la censura o "filtrado" en medios sociales se ha hecho más notorio a raíz de las discusiones posteriores a la elección presidencial de los Estados Unidos, que ha demostrado que el tema es mucho más complejo que evitar la violencia o los trolls.

Según un análisis de Buzzfeed, durante la campaña presidencial norteamericana, las 20 noticias inventadas más compartidas en Facebook superaron ampliamente a las 20 noticias verídicas más compartidas (8,7 millones de interacciones, frente a 7 millones). “Nadie nunca chequea los datos. Así fue como Trump fue elegido. Él dijo lo que quiso, y la gente creyó todo, y cuando se comprobó que las cosas que decía no eran verdad, a la gente no le importaba, porque ellos ya lo habían aceptado. Es tenebroso”, confesó Paul Horner, uno de los autores más prolíficos de noticias falsas que se viralizan por las redes sociales y con las cuales gana hasta US$ 10 mil al mes por la publicidad que obtienen sus artículos mentirosos (El Mercurio, 26/11/2016).

Los mismos algoritmos que utilizan las redes sociales y las empresas para "ayudar" a sus usuarios, sirviéndoles lo que responde a sus gustos introducen una distorsión que puede ser éticamente cuestionada. Especialmente cuando se observa que de este modo pueden llegar a distorsionar el debate público.
“Nuestro mayordomo [asistente digital] puede recomendar servicios y productos que fomenten los intereses financieros de la super-plataforma en lugar de nuestros propios intereses. Al servir a sus verdaderos amos -las plataformas- puede distorsionar nuestra visión del mercado y llevarnos a los servicios y productos que sus amos desean promover.
El aumento en el poder económico de la super-plataforma puede traducirse en poder político. A medida que dependemos cada vez más de uno o dos mayordomos de cabecera, la super-plataforma aprenderá sobre nuestras creencias políticas y tendrá el poder de afectar nuestras opiniones y el debate público.” (M. E. Stucke y A. Ezrachi, Wired, 29/11/2016)
Filippo Menczer, director del Center for Complex Networks and Systems Research de la Universidad de Indiana (Bloomington) ha estudiado este fenómeno, ligado también a la industria de las noticias falsas:
“Tenemos una industria de falsas noticias y desinformación digital. Los sitios de Clickbait fabrican bromas para ganar dinero con anuncios, mientras que los llamados sitios hiperpartidistas publican y difunden rumores y teorías de conspiración para influir en la opinión pública.
Dentro de nuestra burbuja, estamos expuestos selectivamente a información alineada con nuestras creencias. Ese es un escenario ideal para maximizar el compromiso, pero uno perjudicial para desarrollar un escepticismo saludable. El sesgo de confirmación nos lleva a compartir un titular sin ni siquiera leer el artículo.” (Menczer, Inverse.com, 28/11/2016)
(Gráfico del estudio de Menczer)

También se extiende a políticas de marketing y publicidad que implantan un modelo de negocio que se basa en censura de contenido para obligar a los consumidores a pagar más dinero por menos información (Ver post del 4 de marzo y FayerWayer, 26/01/2016).

Lamentablemente tenemos una tendencia natural a relacionarnos con quienes piensan como nosotros y a evitar los contradictores. El físico teórico Cristián Huepe, investigador del Instituto de Sistemas Complejos de la Northwestern University en Chicago, que también estudió la dinámica de las redes de opinión, comprobó matemáticamente que el algoritmo de sitios como Facebook, sumado a la tendencia de las personas a asociarse con quienes piensan del mismo modo, genera dos grupos que no conversan entre sí.
“Ese algoritmo diseñado inicialmente para que uno pase más tiempo en Facebook, tiene como consecuencia secundaria que refuerza una situación ya natural en los seres humanos: que uno solo ve lo que a uno le gusta, con lo que está de acuerdo. Y refuerza esa tendencia tribal a separarse en grupos con opiniones muy distintas. Llega el punto en que las realidades, entre comillas, que tiene cada grupo son distintas. Porque la información que reciben solo está de acuerdo con ellos, entonces interpretan las noticias o incluso repiten informaciones falsas de manera que nadie cuestiona, porque todos ya están de acuerdo con la conclusión.” (Huepe, El Mercurio, 26/11/2016)
ACTUALIZACIÓN
La Comisión Europea le advirtió ayer domingo de forma oficial a las grandes tecnológicas estadounidenses como Facebook, Twitter, Google y Microsoft que deben empezar a actuar con más rapidez contra los discursos de odio en sus servicios. Les ha pedido que cumplan el código de conducta voluntario que firmaron hace seis meses prometiendo actuar en veinticuatro horas contra los comentarios abusivos si no quieren que sea la propia ley la que acabe forzándoles a hacerlo. (Genbeta, 5/12/2016)