30 de diciembre de 2016

Revisión del año

Internet
Según Genbeta, "el 2016 ha sido un año no demasiado bueno para Internet. Las noticias falsas y el acoso online han tomado las redes sociales, los gobiernos y empresas reaccionan recortando libertades y privacidad, y mientras, se ha iniciado una nueva era de ataques online a través de botnets". También mencionan los hackeos masivos y las grandes filtraciones que siguieron. "También ha sido un año especialmente malo para nuestra privacidad", las grandes plataformas recopilando más y más datos. (Genbeta, 9/12/2016)
"Google conoce exactamente lo que le interesa a sus usuarios Eso ha quedado totalmente demostrado con la publicación de sus búsquedas más populares durante 2016. Se trata de un hecho que no tiene muy contentos a los grupos de defensa de los derechos de los consumidores como Consumer Watchdog y The Privacy Rights Clearinghouse, quienes han solicitado la intervención de las autoridades para regular las prácticas de la compañía." (FayerWayer, 21/12/2016)
La "nube" no ha tenido la penetración que se esperaba, según John Dvorak, en parte por el abaratamiento de los discos duros (us$99 por 1TB) (PC Magazine, 28/12/2016).
Wikipedia: "Donald Trump" y "Las muertes en 2016" fueron las páginas más editadas (@cdperiodismo, 23/12/2016).
Todo el año se ha promocionado el "análisis de big data" como un recurso indispensable para las empresas (ComputerWorld, 21/12/2016). Cierto es que deben conocer lo mejor posible sus clientes, pero también se ha advertido el peligro de confiar mucho en los algoritmos y la necesidad de contar con buenos -y aún escasos- "científicos de datos".

Software
Según TICbeat (29/12/2016), la mensajería instantánea y la inteligencia artificial han experimentado fructíferos avances este año. "Tanto es así que hoy vivimos una auténtica revolución en el campo de la atención al cliente en tiempo real, cada vez más personalizada y exacta.[...] Las marcas que impulsan estos canales de mensajería para comunicarse con sus clientes experimentan un crecimiento neto en el número de interacciones en todos los canales porque los usuarios están más incentivados y han migrado su conducta hacia el uso de las nuevas soluciones tecnológicas."
La inteligencia artificial amenaza de 2 a 3 millones de empleos en el sector transporte de EEUU conforme se desarrolle la conducción autónoma, según informe publicado por la Casa Blanca. (TICbeat, 24712/2016)
En materia de app, lo más notable fue el furor causado por Pokémon Go. Se destaca también PhotoScan, de Google, para escanear fotos en papel. (ElPaís.com, 22/12/2016)

Seguridad
El 2016 pasará a la historia como el año de la gran explosión del ransomware (una forma de extorsión digital que permite que los atacantes que encripten los archivos del ordenador para después pedir un rescate) (TICbeat, 26/12/2016). Es un problema cada vez más presente en todo el mundo, que generó en el año más de 1.000 millones para los delincuentes (Wwwhat's New, 19/12/2016).
Bruce Schneier, uno de los expertos en seguridad más respetados, ha declarado que ha quedado claro que Yahoo no ha tomado en serio la seguridad desde hace tiempo (se conoce desde hace unos 10 años la debilidad del método que usa) y que "tendría dificultad en seguir confiando en Yahoo" (The Guardian, 15/12/2016).
Los ciberataques masivos (como el que afectó Yahoo) también han llamado la atención sobre la poca seguridad en la internet de las cosas (PC Actual, 20/12/2016).

Móviles y redes
Según Global Web Index, ocho de cada diez usuarios prefieren smartphones para navegar en redes sociales (26/11/2016) sin embargo "las redes sociales han perdido parte de su encanto". [En varios países] empiezan a cansarse de las fotografías y momentos de felicidad de Facebook, los grupos de WhatsApp y el “always on” 24/7 (TICbeat, 20/12/2016).
La investigación realizada por Ipsos, comScore y Nielsen, señala que YouTube llega a más gente en el móvil que cualquier cadena de televisión abierta o de cable.(@periodismo, 27/12/2016).
Más de la mitad de los 3.400 millones de personas con acceso a Internet acceden a Facebook cada mes. Los ingresos de esta plataforma en los primeros nueve meses de 2016 subieron un 36 por ciento, a 19.000 millones de dólares mientras su beneficio casi se triplicó, a us$ 6 mil millones (MIT Technology Review). Zuckerberg reconoció finalmente que su compañía era "tecnológica y de comunicación" (ElMundo.es, 22/12/2016).
Y aunque Facebook parece ser uno de los medios favoritos para acceder a las noticias, un estudio de Chartbeat - que analizó más de 700 medios de comunicación y 70 millones de URLs únicas accedidas a través de  Google, Facebook y Twitter - mostró que las noticias de último minuto pueden nacer y extenderse rápidamente en redes sociales, pero los usuarios prefieren leer medios reconocidos por su marca para dar seguimiento a estos acontecimientos noticiosos (@periodismo, 27/12/2016; gráfico original a continuación). 
En 2016, las noticias de los medios se enfrentaron con una corriente producida por falsificadores. La elección norteamericana inspiró más "tribalismo" en línea, y la confianza de los ciudadanos en los medios de comunicación tradicionales se redujo allá a su nivel más bajo: según Gallup, sólo el 32 por ciento dijo que tenía confianza en los medios de comunicación (Wired, 26/12/2016). Incluso el presidente de la UE llamó a actuar con firmeza para detener las noticias falsas en la red (FauerIre, 26/12/2016)
El amplio uso de los smartphones está teniendo influencia en la disciplina infográfica: obliga a diseños más compactos, con un especial esfuerzo de claridad y de ir a lo esencial, como remarcó Nathan Yau en FlowingData (29/12/2016). De su selección, elegí el gráfico adjunto, de The Wall Street Journal, sobre la evolución de los resultados de las elecciones norteamericanas.




eComercio
El ecomercio ha visto el nacimiento del reparto aéreo por medio de drones, pero sin duda lo más sorprendente ha sido la patente que registró Amazon para crear bodegas en zepelines - llamadas 'Centros de Almacenamiento Voladores' - para abastecer estos drones. Por cierto, no hubo anuncio oficial y no está claro hasta qué punto ejecutarán realmente lo planteado (ElMundo.es, 29/12/2016).

Hardware
Los fracasos tecnológicos más sonados en 2016: el «explosivo» Samsung Galaxy Note 7; los vehículos eléctricos de Tesla que sufrieron algunos accidentes; el dronque GoPro tuvo que retirar del mercado; las ventas de relojes "inteligentes" que cayeron en picada y varias empresas han abandonado su producción (ABC.es, 12/12/2016). Las pocas ventas ponen en duda la necesidad (y utilidad) de estos relojes. Pebble ha tirado definitivamente la toalla y ha vendido sus activos a Fitbit, que no seguiría produciéndolos. Muchos fabricantes, como Motorola, también reducen o abandonan la producción y muchos analistas creen que la caída en el número de unidades vendidas por Apple podría ya superar el 70%. (PC Actual, 20/12/2016)
Para Apple, el iPhone 7 no tuvo el resultado esperado y también enfrenta críticas para el iPhone 6S y el nuevo Mac Pro. Y si se esperaba que 2016 fuese el año de la realidad virtual, los resultados tampoco son auspiciosos debido en parte al alto precio de los lentes y las "experiencias imperfectas" de los usuarios. (ElMundo.es, 24/12/2016).
Las ventas de tabletas siguieron bajando aunque tratan de recuperar terreno con mayor poder de procesamiento. Pero los híbridos les quitan terreno.
Los drones repartidores de paquetes ya operan en los Estados Unidos, Gran Bretaña y ahora Francia (Wwwhat's New, 21/12/2016).
2016  fue "el año en que los automóviles que se manejan solos se tomaron las calles". Hasta Uber lanzó taxis sin chofer, pero debió retirarlos porque se saltaban los semáforos en rojo (Wired, 22/12/2016). En España también es ya legal probar coches autónomos (Gizmodo, 23/12/2016). Pero Google abandonó sus proyectos de automóviles autónomos propios y licenciará el software (PCmag, 28/12/2016).
Lo que podría ser una de las grandes pérdidas del año ha sido el proyecto ARA, abandonado por Google. Se proponía fabricar teléfonos móviles modulares que cada uno podría armar según sus preferencias, como Legos (MIT Technology Review, 29/12/2016).

RV y RA
La realidad virtual no ha progresado y la venta de lentes ha sido escasa debido al precio y las escasas aplicaciones. Pero la realidad aumentada parece tener mejores perspectivas, al menos en celulares como ha mostrado el éxito de Pokemon Go y el lanzamiento la plataforma Tango AR de Google para smartphones y de las HoloLens de Microsoft. MagicLeap siguió avanzando y dio a conocer nuevas imágenes, aunque aún no se sabe cuando estará en condiciones de comercializar su producto. Aquí su último video. (NewScientist, 28/12/2016) 
El problema está esencialmente en el hardware: la calidad de la experiencia con smartphones deja bastante que desear mientras los Oculus Rift y HTC Vive son caros, pesados, requieren una conexión con un PC con altas prestaciones, y la oferta es casi exclusivamente de videojuegos. En 2016 se vendieron 1,4 millones de dispositivos a nivel mundial, un número pequeño en realidad, que no mejorará hasta que se deje de depender de un PC (Wwwath'sNew, 30/12/2016) ... y se resuelvan los problemas de acomodación visual, especialmente para los mayores de 30 o 40 años, agrego yo.

Científicos desaparecidos
Este año, perdimos a Marvin Lee Minsky (autor de "La sociedad de la mente", foto al lado) y Seymour Papert ("padre" de la corriente de psicología construccionista), su compañero, ambos fundadores del Artificial Intelligence Laboratory en el MIT; Ray Tomlinson, pionero del correo electrónico; y Lloyd S. Shapley, matemático experto en teoría de juegos (que se proyecta en las conductas de colaboración).

Los mejores libros del año según el MIT
(solo pongo los títulos que me parecen más interesantes):
The Ethics of Invention: Technology and the Human Future, by Sheila Jasanoff.
The Signals Are Talking: Why Today’s Fringe Is Tomorrow’s Mainstream, by Amy Webb.
Rise of the Machines: A Cybernetic History, by Thomas Rid.
Chaos Monkeys: Obscene Failure and Random Fortune in Silicon Valley, by Antonio Garcia Martinez.
Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, by Cathy O’Neil.
Algorithms to Live By: The Computer Science of Human Decisions, by Brian Christian and Tom Griffiths.
The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future, by Kevin Kelly.

Personaje del año: Elon Musk (FayerWayer, 27/12/2016; MIT Technology Review, 29/12/2016)

23 de diciembre de 2016

Internet como bien público

Internet fue creada como una red de cooperación entre expertos en informática. No tiene dueño: sus dueños son todos los que ponen sus computadores a disposición de los demás. Requiere sin embargo ser “gobernada”, para que funcione adecuadamente, y esto implica definir y actualizar los protocolos de comunicación y administrar el sistema de dominios, lo cual está a cargo de la ICANN (Corporación de Internet para la Asignación de Nombres y Números), organización sin fines de lucro que dejó desde el 1 de octubre de 2016 de ser un organismo bajo el control de los Estados Unidos. Pero gran parte de los servicios que podemos encontrar hoy dependen de las grandes “plataformas”: Facebook, Google, Microsoft, Amazon, etc., que no son entidades sin fines de lucro y hacen todo lo posible por controlar la red (como el proyecto de internet gratuita pero minimalista de Facebook en Asia, que solo permitiría el acceso a algunos servicios a través de esa plataforma).

“La brecha digital sólo podrá superarse si Internet es vista como un bien público, y los gobiernos deben fijar las normas para involucrar al sector privado”, señaló Anita Gurumurthy, de la organización no gubernamental india IT for Change (Informática para el Cambio) (Inter Press Service, 18/11/2005). ¿Pero qué significa “bien público”?
“Le pedí a [Lawrence] Lessig que me explicase a qué se refería cuando afirmaba que Internet era un recurso público «común», no dividido entre propietarios privados. Lessig recurrió a la diferencia entre la regulación del ferrocarril y la de las autopistas. En el ferrocarril, los vagones individuales no tienen inteligencia, y sólo un tren puede estar en una vía determinada a una hora concreta, de modo que las redes ferroviarias deben estar muy bien coordinadas desde un órgano central. En cambio, los automóviles tienen supuestamente conductores inteligentes que eligen la ruta adecuada para llegar a su destino sin colisionar con otros vehículos.Ya no se requiere un sistema de coordinación central. «La autopista es un bien común», dijo Lessig. Todo el mundo tiene acceso, nadie necesita una autorización especial para utilizar el sistema de la autopista, cualquiera puede fundar una empresa de transporte por carretera y utilizar la red. Los vehículos que circulan por el bien común de la autopista están regulados: no se puede conducir un tanque, por ejemplo, ni llevar un vehículo sin luces, pues en tal caso el conductor será expulsado. A la luz de la comparación entre el ferrocarril y la autopista, Lessig señaló que «la regulación del espectro podría desplazarse desde el mundo ferroviario, donde los coordinadores centrales tienen que decidir quién utiliza cada vía en cada momento, al de las autopistas, donde los dispositivos inteligentes utilizan el recurso común como quieren».” (Rheingold, Multitudes inteligentes, Gedisa, 2004, p.179)
En una votación esperada desde hace varios años, la Comisión Federal de Comunicaciones de Estados Unidos (FCC) decidió finalmente, tras una larga pugna, clasificar el acceso a la red como un “bien público”. Antes lo consideraba como un servicio de información, por lo que carecía de competencia para obligar a las compañías a tratar cada una de las conexiones de los ciudadanos con el mismo principio de igualdad que rige las llamadas de teléfono, para las que no se puede ofrecer un trato prioritario (El País, 27/02/2015). El trato igualitario es lo que se conoce como “neutralidad” de la red e impide a los provedores de servicios de internet (ISP) de países que adhieren a la neutralidad priorizar cierto tráfico u otorgar gratuidad para algunos servicios (p.ej. acceso a redes sociales sin cargo en la cuenta de datos en los teléfonos móviles), lo cual puede volver más lenta la transmisión para los clientes que no usan los servicios priorizados. Al menos a ese nivel, aunque dependiendo aún de la política de cada país, el acceso a internet debería ser igual para todos. Pero aún así, son múltiples las influencias y presiones que se ejercen, a distintos niveles, sobre proveedores y usuarios (Ver al respecto mi libro “Sistémica de los medios de comunicación”).

16 de diciembre de 2016

La pesadilla de la identidad alterada en la red

Las empresas presentes en internet recopilan, conservan y analizan cada vez más datos acerca de quienes visitan sus páginas o sus inserciones en redes sociales. Todo para “mejorar” su acceso y sus ofrecimientos a sus posibles clientes. De ahí que el análisis de grandes datos (big data) forme parte del trabajo de los departamentos de mercadeo y que haya una demanda creciente (insatisfecha) por “científicos de datos”. Sin embargo, los que ya trabajan en esta área se están dando cuenta de que no sólo es complicado el análisis sino muy difícil obtener resultados claramente útiles porque los usuarios de internet tienden a falsificar sus datos personales.


Acaban de darse cuenta que la “personalidad digital” (o virtual) puede ser muy diferente de la real. Nuestro perfil y nuestros posts en nuestros “muros” conforman los datos que, libremente, publicamos y que pasan a engrosar las bases de datos de las redes sociales en las que participamos y de las empresas que nos observan. Éstas pueden conocer nuestros gustos, pero solo en función de lo que exhibimos directa o indirectamente. Nuestras búsquedas y nuestras compras, por ejemplo, pueden dar una idea de lo que nos interesa y ésto puede pasar a formar parte de nuestra identidad virtual aunque no signifique que realmente nos sea propio (podemos comprar regalos, consultar cosas que interesan a nuestros amigos, etc.). Y podemos, obviamente, declarar gustos e intereses falsos y esconder los verdaderos. La gestión de la reputación, en tanto selección de la información personal que se expone públicamente, es un elemento importante en la manera en que la gente funciona en las redes, establece sus credenciales y construye confianza. Y lo propio de las redes sociales es que los individuos interconectados pueden crear “identidades digitales” verdaderas o bien parcial o totalmente ficticias, como deseen (Rainie y Wellman, pp.15-17).

Estas falsedades o “datos sucios” (“dirty data”) constituyen una parte cada vez más problemática de los big data. 
“Los consumidores están llenando las bases de datos de las compañías con una avalancha de datos falsos, de medias verdades y de datos que se ajustan más a lo que la empresa puede querer oír que a lo que el consumidor querría decir.
Más de la mitad de los consumidores están, de hecho, dando ya datos y llenando las bases de datos de las compañías de mentiras cuando se aborda la información que estos dan a las empresas. De forma más exacta y concreta, y según un estudio de Verve, el 60% de los consumidores provee de información falsa a las empresas que le piden sus datos personales en internet. El estudio está realizado sobre una muestra británica, pero sirve para apuntalar la percepción de que existe un problema en el mundo de los datos.
Un 81% de los encuestados pone su privacidad como una de sus principales preocupaciones, un 77% señala que las peticiones de información son intrusivas y un 76% innecesarias.” (PuroMarketing, 2015) 
Un estudio de Shop+ determinó que los “millenials” mienten –como muchos otros– sobre su fecha de nacimiento y, especialmente, cuando les permite beneficiarse de un servicio extra o una oferta (ibidem). Dar un e-mail falso es también común, para evitar el ser perseguido por anuncios y spam.
Ésto podría ser preocupante para el futuro, especialmente si no se toman mejores medidas para resguardar la privacidad de los datos, como nos advierte Eric Schmidt:
“En el futuro la identidad será la materia prima más valiosa para los ciudadanos y ésta existirá principalmente online. La experiencia online comenzará al nacer, o incluso antes.
En respuesta, las compañías tendrán que crear nuevas herramientas para controlar la información, tales como listas que permitan a la gente determinar quien ve sus datos. Las tecnologías de comunicación que utilizamos hoy en día son invasivas por diseño, recopilando nuestras fotos, comentarios y amigos y almacenándolas en bases de datos gigantes en las que se puede buscar, y en ausencia de una regulación exterior sólo resta confiar en la buena fe de empleados, personal burocrático de las universidades y otras personas.” (Schmidt y Cohen, p.58)
Pero no todos tienen buena fe y no faltan quienes no solo modifican sus propios datos sino que buscan una forma de desaparecer y hacerse de otra personalidad.
“La identidad online se convertirá en una moneda muy potente que incluso verá cómo se crea un nuevo mercado negro donde la gente puede comprar identidades reales o inventadas. Los ciudadanos y delincuentes se verán igualmente atraídos por una red así, donde la identidad falsa podría proporcionar cobertura para un traficante de drogas, así como refugio para un disidente político. La identidad será fabricada o robada y se ofrecerá completa con datos de fechas anteriores, registros de actividad IP (Protocolo Internet), amigos falsos y compras de artículos, así como otros medios para hacer aparecer convincente la información.” (ibidem, p.61)
Referencias:
Rainie,L. & Wellman, B. (2012): Networked: The New Social Operating System, MIT Press, Cambridge (MA).
Schmidt, E. y Cohen, J. (2014): El futuro digital, Madrid, Anaya.

9 de diciembre de 2016

La internet de las falsedades


La semana pasada me he referido ya a la "industria de falsas noticias". Ahora, el último informe del Comisario europeo de Justicia sobre el estado de la incitación al odio en las redes sociales determinó que todavía queda mucho trabajo por hacer y que el código de conducta firmado por las empresas no está dando los resultados esperados. La Comisión Europa ha reiterado así su exigencia de que Facebook, Google y Twitter vigilen con más ímpetu la incitación al odio que se produce en estas redes sociales.  (TICbeat, 5/12/2016)

Facebook ha respondido anunciando "un algoritmo que detecta desnudez, violencia o cualquier otra cosa que no esté de acuerdo a nuestras políticas", según un comunicado de prensa, pero declinaron referirse sobre si este proyecto puede o no detectar noticias falsas y no está claro a partir de cuando estará operativo (FayerWayer, 6/12/2016).

El Congreso de los Estados Unidos ha aprobado una ley que impide que las empresas tomen represalias contra los clientes que publican opiniones negativas en Internet. (Gizmodo, 6/12/2016) Habría que ver los detalles de esta ley para saber si toma en cuenta la problemática de las falsedades!

Hace unos días tuve acceso a un artículo de The Guardian que rinde cuenta de una investigación de Jonathan Albright, profesor asistente de comunicaciones de la Universidad Elon de Carolina del Norte, sobre cómo los sitios web de extrema derecha han difundido falsas noticias. 
"Tomé una lista de estos falsos sitios de noticias que circulaban; tuve una lista inicial de 306 de ellos y usé una herramienta -como la que usa Google- para rastrearlos y luego los mapeé. Miré a donde los enlaces apuntaban - como YouTube y Facebook - y entre ellos, millones de ellos ... y simplemente no podía creer lo que estaba viendo.
Han creado una web que está sangrando a través de nuestra web. Esto no es una conspiración. No hay una persona que haya creado esto. Es un vasto sistema de cientos de sitios diferentes que están utilizando todos los trucos que todos los sitios web utilizan. Están enviando miles de enlaces a otros sitios y, juntos, esto ha creado un vasto sistema satelital de noticias de la [extrema] derecha y propaganda que ha rodeado completamente al sistema de medios de comunicación." 
Encontró finalmente 23.000 páginas y 1,3 millón de hipervínculos. El gráfico que sigue muestra esta nube que envuelve a los medios legítimos. 

"Lo que este mapa muestra es la red de distribución y se puede ver que está rodeando y realmente asfixiando el ecosistema de noticias mainstream. Cuando se mira en 3D, en realidad se ve como un virus. Y Facebook fue sólo uno de los anfitriones de este virus, que ayuda a propagarlo más rápidamente."
Charlie Beckett, profesor de la Escuela de Medios y Comunicaciones de LSE, dice: "Lo que Jonathan Albright ha demostrado es que esto no es un subproducto de Internet, ni siquiera se hace por razones comerciales, es motivado por la ideología, por personas que tratan deliberadamente de desestabilizar Internet". Y para ello usan los mismo trucos que los sitios comerciales para "jugar" con el algoritmo de Google: cuantas más personas busquen información sobre un tema determinado, más gente verá enlaces a los sitios correspondientes y subirá en los resultados de Google. El mapa muestra lo bien que lo están haciendo. 
"Cada vez que a alguien le gusta uno de estos posts en Facebook o visita uno de estos sitios web, los scripts le siguen a través de la Web. Esto permite, por la minería de datos, influir en empresas como Cambridge Analytica marcar a los individuos, seguirlos en la web y enviarles mensajes políticos altamente personalizados. Es una máquina de propaganda, dirigida individualmente a las personas para reclutarlas a una idea; es un nivel de ingeniería social que nunca había visto antes."
Si es un sitio de odio, como ocurre con los sitios neonazis, más aparecerán en la primera página de resultados, como demostró Carole Cadwalladr, la autora del artículo de The Guardian. Ella tipeó en Google Search "are jews" y el sistema le propuso completar la frase con cuatro diferentes adjetivos. El cuarto era "evil" ("los judíos son malvados") y ella ordenó esa búsqueda. Obtuvo una página entera de referencias que ofrecían un 90% de respuestas que confirmaban dicha afirmación. La primera era de una página que ofrecía los 10 mayores motivos de odio (“Top 10 Major Reasons Why People Hate Jews”), y la tercera remitía a un sitio neo-nazi. Se sorprendió descubriendo algo parecido con el tema de las mujeres ("women are..."), cuya primera opción para completar la pregunta fue "are evil" (son malvadas) y los 10 primeros resultados respondían afirmativamente. Y el primero de ellos decía incluso que "Toda mujer tiene algún tipo de prostituta en ella. Cada mujer tiene un poco de malvado en ella ... Las mujeres no aman a los hombres, les encanta lo que pueden hacer para ellas. Es razonable decir que las mujeres sienten atracción, pero no pueden amar a los hombres."!!

En español no se obtienen estos mismos resultados, aunque al buscar por Hitler, una de las sugerencias que se ofrecen al usuario es "Hitler era bueno". Pero ello no invalida lo encontrado por Albright: sin duda hay otros casos igualmente dudosos. Y nos ha de alertar una vez más acerca del peligro de creer en la inocuidad y objetividad de los algoritmos, aunque los expertos en estadística puedan demostrar que los algoritmos predictivos son superiores a la intuición e incluso a las opiniones de expertos (ver D.Kahnemen, "Pensar rápido, pensar despacio", pp.291-305), pero pasan por alto el significado, las tendencias malévolas y las mentiras (presentes también ya en muchas personalidades "digitales").

Referencia: C.Cadwalladr: "Google, democracy and the truth about internet search", The Guardian, 4/12/2016.

2 de diciembre de 2016

Ética (¿censura?) en las grandes plataformas

Facebook ha anunciado que impondrá censura para «evitar que la red, de entrada, se convierta en un nido de pornografía y violencia». Sin embargo, según ABC.es,
"A lo largo de la trayectoria de la mayor red social han sido muchas las ocasiones en las que se ha aplicado una dudosa moral a la hora de ocultar ciertos contenidos a los usuarios. ...
La pregunta es si Facebook debería aplicar otro tipo de normas morales a la hora de aplicar su criterio de selección de contenidos. «Podría aplicar las mismas normas que un medio de comunicación convencional», considera Miguel Ángel Jimeno, profesor de periodismo de la Universidad de Navarra, aunque al tratarse de una empresa privada con contenidos no periodísticos puede decidir lo que quiera. «Cuando una de esas reglas llama la atención a un sector de sus usuarios, como ha sucedido ahora, el mundo 'periodístico' se subleva. Pero creo que solo ha sido el periodístico. A los demás usuarios, el tema parece que ni les va ni les viene», añade este experto. Frente a esa situación, y de cara a evitar que este tipo de servicios se conviertan en foros de propagación de enfoques ideológicos hostiles, la propia compañía Facebook ha puesto el foco en un programa específico para luchar contra el odio digital, una expansión de los esfuerzos de la industria tecnológica para socavar la propaganda de internet de terroristas islámicos y radicales de extrema derecha. (ABC, 16/11/2016)
El tema de la censura o "filtrado" en medios sociales se ha hecho más notorio a raíz de las discusiones posteriores a la elección presidencial de los Estados Unidos, que ha demostrado que el tema es mucho más complejo que evitar la violencia o los trolls.

Según un análisis de Buzzfeed, durante la campaña presidencial norteamericana, las 20 noticias inventadas más compartidas en Facebook superaron ampliamente a las 20 noticias verídicas más compartidas (8,7 millones de interacciones, frente a 7 millones). “Nadie nunca chequea los datos. Así fue como Trump fue elegido. Él dijo lo que quiso, y la gente creyó todo, y cuando se comprobó que las cosas que decía no eran verdad, a la gente no le importaba, porque ellos ya lo habían aceptado. Es tenebroso”, confesó Paul Horner, uno de los autores más prolíficos de noticias falsas que se viralizan por las redes sociales y con las cuales gana hasta US$ 10 mil al mes por la publicidad que obtienen sus artículos mentirosos (El Mercurio, 26/11/2016).

Los mismos algoritmos que utilizan las redes sociales y las empresas para "ayudar" a sus usuarios, sirviéndoles lo que responde a sus gustos introducen una distorsión que puede ser éticamente cuestionada. Especialmente cuando se observa que de este modo pueden llegar a distorsionar el debate público.
“Nuestro mayordomo [asistente digital] puede recomendar servicios y productos que fomenten los intereses financieros de la super-plataforma en lugar de nuestros propios intereses. Al servir a sus verdaderos amos -las plataformas- puede distorsionar nuestra visión del mercado y llevarnos a los servicios y productos que sus amos desean promover.
El aumento en el poder económico de la super-plataforma puede traducirse en poder político. A medida que dependemos cada vez más de uno o dos mayordomos de cabecera, la super-plataforma aprenderá sobre nuestras creencias políticas y tendrá el poder de afectar nuestras opiniones y el debate público.” (M. E. Stucke y A. Ezrachi, Wired, 29/11/2016)
Filippo Menczer, director del Center for Complex Networks and Systems Research de la Universidad de Indiana (Bloomington) ha estudiado este fenómeno, ligado también a la industria de las noticias falsas:
“Tenemos una industria de falsas noticias y desinformación digital. Los sitios de Clickbait fabrican bromas para ganar dinero con anuncios, mientras que los llamados sitios hiperpartidistas publican y difunden rumores y teorías de conspiración para influir en la opinión pública.
Dentro de nuestra burbuja, estamos expuestos selectivamente a información alineada con nuestras creencias. Ese es un escenario ideal para maximizar el compromiso, pero uno perjudicial para desarrollar un escepticismo saludable. El sesgo de confirmación nos lleva a compartir un titular sin ni siquiera leer el artículo.” (Menczer, Inverse.com, 28/11/2016)
(Gráfico del estudio de Menczer)

También se extiende a políticas de marketing y publicidad que implantan un modelo de negocio que se basa en censura de contenido para obligar a los consumidores a pagar más dinero por menos información (Ver post del 4 de marzo y FayerWayer, 26/01/2016).

Lamentablemente tenemos una tendencia natural a relacionarnos con quienes piensan como nosotros y a evitar los contradictores. El físico teórico Cristián Huepe, investigador del Instituto de Sistemas Complejos de la Northwestern University en Chicago, que también estudió la dinámica de las redes de opinión, comprobó matemáticamente que el algoritmo de sitios como Facebook, sumado a la tendencia de las personas a asociarse con quienes piensan del mismo modo, genera dos grupos que no conversan entre sí.
“Ese algoritmo diseñado inicialmente para que uno pase más tiempo en Facebook, tiene como consecuencia secundaria que refuerza una situación ya natural en los seres humanos: que uno solo ve lo que a uno le gusta, con lo que está de acuerdo. Y refuerza esa tendencia tribal a separarse en grupos con opiniones muy distintas. Llega el punto en que las realidades, entre comillas, que tiene cada grupo son distintas. Porque la información que reciben solo está de acuerdo con ellos, entonces interpretan las noticias o incluso repiten informaciones falsas de manera que nadie cuestiona, porque todos ya están de acuerdo con la conclusión.” (Huepe, El Mercurio, 26/11/2016)
ACTUALIZACIÓN
La Comisión Europea le advirtió ayer domingo de forma oficial a las grandes tecnológicas estadounidenses como Facebook, Twitter, Google y Microsoft que deben empezar a actuar con más rapidez contra los discursos de odio en sus servicios. Les ha pedido que cumplan el código de conducta voluntario que firmaron hace seis meses prometiendo actuar en veinticuatro horas contra los comentarios abusivos si no quieren que sea la propia ley la que acabe forzándoles a hacerlo. (Genbeta, 5/12/2016)

25 de noviembre de 2016

¿Que pasa con Twitter?

Twitter acaba de cumplir diez años, pero su directiva no sabe que hacer con él. Han estado buscando comprador (costaría unos 10.000 millones de dólares), pero varios han desistido (Alphabet, Disney y Salesforce lo pensaron). Es que acumula pérdidas desde al menos cinco años.

Tiene 313 millones de usuarios activos, pero hace tiempo que no crece, y ésto molesta a los accionistas (sus acciones cayeron 20% el 7 de octubre en la Bolsa de Nueva York y nuevamente 5% hace pocos días). Actualmente se envian 200.000 millones de tuitts al año (TicBeat, 21/03/2016). Cada mes, más de 800 millones de personas entran en Twitter para saber qué pasa y más de mil millones de usuarios ven mensajes de Twitter fuera de Twitter (El País.es, 11/05/2016).
Su "eterno" problema es que ni los directivos son capaces de definir lo que es: ¿una red social (no), un sistema de "microblogging" (su mejor defición hasta ahora pero que no dice para que sirve)? 

“En 2011, Jack Dorsey dijo a la audiencia en la Conferencia WSJ.D del Wall Street Journal que, cuando la gente pregunta qué es Twitter, «No tenemos una respuesta, y eso está bien». Cuando lo dijo, lo dijo en serio como algo positivo: Twitter es lo que hacemos de él.” (The Newyorker, 29/01/2016)

Se han podido caracterizar tres tipos de usos:
1. Twitter es “el rey” del tiempo real, donde se puede ver minuto a minuto lo que está ocurriendo en distintas partes del mundo (Socialmediatoday, 17/05/2016). Por ello, es sumamente útil para los medios periodísticos. Y Jack Dorsey, CEO de Twitter, espera ahora convertir a Twitter en “el primer lugar al que los internautas acudan para obtener noticias”. (TICbeat, 16/10/2016)
2. Es un medidor de impacto de algunos contenidos, especialmente de tipo político y, también, de reacciones frente a contenidos de la televisión (“trendings topics”) (ABC.es, 1/07/2016).
3. Es útil para capturar solidaridad en los casos de desastres dado que es "es directo, global y público"(El País.es, 11/05/2016).

Pero una de sus mayores problemas es la abundancia de "trolls", es decir de quienes insultan, realizan comentarios provocadores o hasta amenazan solo para molestar (especialmente a los "famosos"). "No buscan dialogar: sólo provocar para llamar la atención" (Outo.net, 2/2/2013). En 2015, el presidente ejecutivo de Twitter, Dick Costolo, reconoció la gravedad del. Desde entonces, han implementado medidas y dinámicas de denuncias para poder combatirlo, pero sus intentos no parecen ser suficientes. Disney habría decidido retirar su oferta de compra "por su "imagen tóxica" (Publimetro.cl, 28/10/2016). 

El acoso puede terminar obligando a una persona a huir de su propio país, como pasó con Andrea Noel, una periodista mexicana que denunció a un hombre que, en la calle, le levantó la falda como parte de “una broma”. Al final, ella acabó pagando más caro que el acosador ya que cientos de trolls de Twitter se le fueron encima. (Publimetro.cl, 28/10/2016).

La mejor respuesta, evidentemente es ignorarlos y, si persisten, utilizar la herramienta de Twitter para bloquear a ciertos usuarios, de tal forma que ya nunca más se recibiran las menciones que hagan. Una vez bloqueado el troll ya no podrá seguir las actualizaciones de su "objetivo", contestar tus tuiteos ni retuitearlos. Un equipo de españoles también desarrolló una herramienta, llamada Trolldor, para poder identificar y de alguna manera castigar, a los trolls presentes en Twitter. Promete ser la primera lista negra de usuarios de Twitter. Cualquier usuario de la red social puede además ingresar a su web y buscar la reputación del usuario que desee. En la portada de su web, presenta el "Top 10 mundial de trolls" (IMciencia.com).

Aparte del mecanismo que depende de las denuncias de su usuarios, le hace falta a Twitter aplicar "inteligencia de máquina" para detectarlos por su propia cuenta y erradicarlos. Per, para ello, sin duda debería aliarse con una de las plataformas que cuentan con este tipo de herramienta (y que, hasta ahora, no quieren hacerse cargo a través de la compra).

A juicio de Jeffrey Goldberg, editor de The Atlantic,
"Es ciertamente el caso que no han abordado apropiadamente esta idea del discurso del odio y ... del engrosamiento del discurso. Puede ser considerado como "un problema de libertad de expresión", pero como todos sabemos, si usted permite mucha libertad de expresión, lo que terminan haciendo es en realidad restringir la libertad o la posibilidad de que otros se unan, y eso es realmente lo que ha sucedido en Twitter." (NPR.org, 26/10/2016)
Y, así, no solo se desaniman los nuevos usuarios (y los actuales), porque -además de las molestias- la calidad del debate se "va a pique". Y los accionistas también comienzan a molestarse... y a vender sus acciones.

Para atraer a los usuarios, incluyó los videos en directo a través de "Periscope". Para tratar de atraer más a las empresas, Twitter les ofrece ahora dos nuevas características de "atención automatizada": los mensajes de bienvenida (con saludos específicos para nuevos clientes) y las respuestas rápidas (con una lista de opciones o una guía donde introducir valores específicos), que funcionarán a través de los mensajes directos. Aportarían más interacción, pero ¿convencerán a las empresas? (Wwwhat's New, 1/11/2016). 

18 de noviembre de 2016

Crear una serie de TV en realidad virtual no es nada fácil

El director de Bourne Identity, Doug Liman, lanzó en Los Angeles su serie de televisión para realidad virtual titulada "Invisible". Utilizó la plataforma Jaunt VR, que utiliza una cámara estereoscópica de 360° de alta definición que solamente se puede arrendar de Radiant Images.
Son seis episodios de seis minutos cada uno y 120TB de peso de video antes de edición. Pero la producción no fue fácil y el resultado no entusiasma a los expertos.
"Las primeras pruebas fueron horribles", reconoció Liman. "Más aburridas que la vida real. No puedes engañar en la RV. En RV, la historia tiene que enganchar para que puedas situarlos [espectadores] en el marco, para una robusta experiencia de 360 grados."

Una vez puestos los Oculus Rift, la crítica Sophia Stuart se encontró con
"imágenes cortadas en un boletín de noticias en una pantalla de televisor flotante, y luego, confusamente, varias noticias anclas aparecieron en frente y detrás de mí. [Luego] La historia se desarrolló a través de algunos ángulos de cámara profundamente extraños. En un punto ud. está mirando hacia abajo a una mujer que se retuerce en apuros. Luego se inclina hacia arriba, y ve que alguien más está al acecho en la puerta, mirando directamente hacia ud. Se da cuenta de que está al lado de un espejo, pero no puede ver su propio reflejo, lo cual fue desconcertante...
El episodio termina con su mejor parte, una emocionante carrera a través de un vasto paisaje, donde se siente como si estuviese volando. Esto fue glorioso, pero demuestra que lo más convincente de la realidad virtual es la ausencia de realidad misma. Lo cual es una forma educada de decir que 'Invisible' no funciona en VR. Pero tiene un argumento rupturista y merecería una serie en Netflix. La narración simplemente no se presta al medio. Incluso para un maestro de clase mundial del arte de la narración cinematográfica como Doug Liman." (PC Magazine, 16/11/2016)
Queda claro que un buen argumento no es suficiente y tampoco una maestría en el arte de la narración. El nuevo medio impone condiciones muy diferentes de las clásicas, partiendo por la enorme variedad de puntos vista que puede tomar el espectador (que implica un guión de tipo hipertextual). E introducir reflejos en espejos parece, en particular, una pésima idea, que lleva aún más a la desorientación. Un nuevo arte está naciendo y su gramática debe aún ser inventada... o quizás rescatada y adaptada de los videojuegos que, en esta materia, tienen hartos años de experiencia.


11 de noviembre de 2016

Elecciones, encuestas y medios


¿Como no hablar de ello?
Para muchos la elección de Donald Trump ha sido una sorpresa (Las casas de apuestas daban 80% de probabilidad a H.Clinton). Numerosos son hoy los analistas que tratan de explicar lo ocurrido. Intento aquí una síntesis, en torno a la problemática de los medios de comunicación.

1. ¿Error de las encuestas o de su interpretación? Que Hillary Clinton haya superado a Trump en el voto popular muestra que las encuestas, quizás, no eran tan equivocadas pero que el error fue olvidar de ponderar los resultados de acuerdo a las reglas de cada estado para definir los miembros del colegio electoral. A ello hay que agregar la observación de Allan Lichtman, cientista político de la American University (que siempre predijo correctamente el resultado de las elecciones): que la excesiva atención que se les da a las encuestas también afecta a la calidad del periodismo. 

2. Los nuevos medios sociales demostraron una dinámica  muy diferente de los tradicionales (que apoyaron firmemente a Clinton y criticaron a Trump) y permitían anticipar el triunfo de Trump, como explica muy bien Pablo Boczkowski en la web de Nieman Lab:
"En los últimos meses, la mayoría de las organizaciones de noticias tradicionales y líderes en los Estados Unidos se han involucrado de manera consistente y casi uniforme en la cobertura negativa de Donald Trump. Hillary Clinton recibió el apoyo de 229 diarios y 131 semanarios, mientras Trump recibió el aval de 9 diarios y 4 semanarios. Eso es una diferencia de 27 a 1.
Pero en las redes sociales, la operación de Donald Trump ha superado claramente a la de Hillary Clinton. A finales de la semana pasada, la página de Facebook de Trump había acumulado 11,9 millones de Likes; su cuenta de Twitter tenía 12,9 millones de seguidores. Los números de Clinton fueron de 7,8 millones y 10,1 millones, respectivamente. La divergencia entre los medios de comunicación y las redes sociales ocurre en un período histórico en el que ha habido una contracción dramática de los primeros y una expansión fenomenal de los otros. Pasar tiempo en las redes sociales se ha vuelto tan penetrante en la vida cotidiana de las personas que ha engullido sus hábitos de consumo de noticias." (Adjunto mapa basado en estadísticas de Facebook, publicado en Medium

Se llega a culpar (al menos en parte) el "News Feed" de Facebook, que selecciona las noticias, comentarios y estados de acuerdo a los gustos e ideas políticas y sociales de cada usuario, convirtiendo su muro en un compendio de opiniones afines a las propias, evitando en la práctica que se oigan opiniones diferentes. Y, según Forbes, Facebook se ha convertido en una plataforma en la que la gente tiende a expresar su enfado. El sistema de inteligencia artificial MogIA, basado en 20 millones de fuentes de datos incluyendo Google, Twitter y YouTube, también detectó la mayor actividad en torno a Donald Trump y no sólo predijo acertadamente que sería el próximo presidente de Estados Unidos, sino también pronosticó correctamente los resultados de las elecciones primarias de los partidos Demócrata y Republicano. (Diario TI 09/11/16)

Conclusión: La prensa tradicional ha sido ignorada. Peor, dice Jeff Jarvis (fundador de Entertainment Weekly y autor de "El fin de los medios de comunicación de masas"), los medios "fallaron en su trabajo más básico: informar al público. La victoria misma de Trump es evidencia de ese fracaso. Los noticiarios le dieron miles de millones de dólares de publicidad gratuita, ya que lo trataron como un "entertainer", no como un candidato". 

7 de noviembre de 2016

Las telecom (y otros) cambian la estructura de internet

Las compañías de televisión y telecomunicaciones de Estados Unidos están en plan de compra. Este verano, Verizon acordó comprar Yahoo. El mes pasado, AT&T acordó adquirir Time Warner. Y ahora, CenturyLink, la tercera mayor empresa de telecomunicaciones de Estados Unidos, ha acordado comprar Level 3 Communications, una compañía que opera una columna vertebral (backbone) de Internet.

Esto demuestra que estas compañías de comunicaciones de la vieja escuela están bajo amenaza desde todas partes. ¿Quienes las amenazan?

Amazon, Facebook y Netflix están desafiando a la televisión tradicional con sus servicios de streaming de video por Internet. Los fabricantes de teléfonos inteligentes como Apple están desafiando al poder de los servicios de celulares. Y algunas empresas de Internet, incluyendo Amazon y Google, están incursionando incluso en los servicios de Internet en el hogar. Así, las telecom de la vieja escuela deben buscar maneras de luchar.

En su mayoría, estas empresas se están moviendo hacia los medios de comunicación. Ha sido la tendencia dominante desde que el gigante de la televisión por cable Comcast compró NBC Universal en 2011. A medida que el poder escapa de sus redes, las telecom están comprando los medios que viajan a través de ellas: programas de televisión o canales enteros. Pero al adquirir Level 3 Communications, CenturyLink está haciendo algo bastante diferente.

CenturyLink estaba perdiendo los abonados a Internet en hogares. El abandono del cable amenaza con canibalizar a sus clientes de televisión de pago. Y la red 5G inalámbrica está a punto de atraer aún más de sus clientes. Por lo tanto, la empresa se centra en los servicios de negocios, donde ya hace la mayor parte de su dinero. También ha hecho un movimiento hacia la computación en la nube, tratando de desafiar a Google y Amazonas en esta área. Y ahora lo hace con Level 3, cuyos servicios están dirigidos directamente a las empresas. Pero la realidad es que las empresas no necesitan una empresa como Level 3, y esto también se debe a Google y a Amazon y Facebook. De todas maneras, el acuerdo muestra cómo el mundo de las telecomunicaciones está cambiando.

¿Pero qué es el nivel 3?
Para entender esto, primero hay que recordar cómo funciona internet. Imagine que desea enviar datos desde una computadora conectada a Internet a través de Verizon en Nueva York a una computadora conectada a internet a través de Comcast en San Francisco. La serie de caminos que conectan las dos ciudades son lo que se conoce como "backbone" de servicios de Internet. Y son las telecos que poseen estas "carreteras". Verizon, Comcast, CenturyLink y otros proveedores de acceso a Internet poseen muchas de las redes que conectan diferentes ciudades, pero no todas. Algunas son de propiedad de empresas como Level 3, que hacen gran parte de su dinero conectando a diferentes proveedores de internet. Este negocio se llama "tránsito". Y es el que desaparece poco a poco.

En lugar de construir o alquilar espacio en un solo centro de datos, más y más compañías están optando por alojar sus datos con redes de distribución de contenido como Akamai y Cloudflare. Estas empresas gestionan servidores en centros de datos distribuidos por todo el mundo, centros de datos que conectan a los empresarios con sus proveedores locales de acceso a internet, evitando proveedores de tránsito como Level 3. Otras, como Facebook y Google, van aún más lejos: construyen sus propios centros de datos, repartidos por el mundo, comprando -para unirlos- infraestructuras de fibra óptica no utilizadas y financiando la creación de nuevos cables submarinos. Así, Facebook y Google son capaces de pasar por alto casi completamente las empresas de telecomunicaciones tradicionales: sólo necesitan tratar con el ISP que vende acceso al usuario final. 

Esto ha llevado a que el servicio de tránsito sea menos importante y menos lucrativo a medida que las compañías de contenido recurren a los CDN (Content Delivery Network). Esto lleva a las compañías de telecomunicaciones, como CenturyLink y Level3, a proporcionar sus propios servicios de CDN, junto con otros servicios de redes de negocios, tales como alojamiento en la nube y conexiones fijas entre equipos de negocios como cajeros automáticos y bancos. Ellos ven donde el viento sopla. Queda abierta la pregunta: "¿Los proveedores de servicios de tránsito incluso tienen un futuro?"

(Texto traducido y resumido de Wired, 2/11/2016)

28 de octubre de 2016

Del código de barra al polvo inteligente

El código de barras moderno data de 1949 y fue desarrollado por Norman Woodland, licenciado y profesor del Instituto de Tecnología de Drexel, pero permaneció sin uso hasta 1973, cuando la industria del comercio alimentario lo eligió y lo llamó «código universal de productos» o «código de barras». En 1981 el ejército estadounidense comenzó a utilizarlo para etiquetar su equipamiento y luego Wal-Mart se convirtió en líder del sector gracias, en gran parte, a que le permitía un control instantáneo y global de su inventario. Hoy, más de cinco millones de códigos se escanean a diario en 140 países (Rheingold, "Multitudes inteligentes", p.126). Hoy se puede enlazar con una página web, donde la gente puede obtener información sobre el producto y su fabricante. Pero, en realidad, es una tecnología obsoleta. 

En los años ochenta aparecieron las etiquetas de identificación por radiofrecuencia (RFID), que pueden almacenar, enviar y recibir información a través de señales de radio de corto alcance (hasta 30 metros). Las hay "activas" (que emiten por sí solas, pero sus minúsculas baterías se agotan rapidamente) y las "pasivas", que responden cuando son "interrogadas" por un lector cercano.

Los fabricantes y otros sectores vieron las ventajas de estas etiquetas y están empezando a reemplazar por ellas los códigos de barras. La generalización del reemplazo se produciría cuando el costo de cada etiqueta ronde el céntimo de dólar, lo que parece estarse logrando en estos días, gracias a una nueva tecnología de impresión por chorro de tinta y tintas electrónicas, capaz de imprimir etiquetas inteligentes en papel, plástico y tela.

Pero incluso esto parece ya del pasado: investigadores del Lawrence Berkeley National Laboratory de Berkeley (Estados Unidos) han fabricado un transistor de 1 nanómetro, un millonésimo de milímetro, llevando más allá una de las limitaciones físicas que las escalas tan reducidas imponen a los microchips actuales (Los transistores de los microchips de hoy en día rondan los 14 nanómetros) (El País, 24/10/2016).

Podrán ser parte del "polvo inteligente" (smart dust), un invento del Pentágono, una tecnología cuyos patrocinadores de DARPA conciben, sin duda alguna, como el último grito en sistemas invisibles de vigilancia. Un polvo cuya cada partícula -o "mota"- es en sí-mismo un computador capaz de unirse en red con otros y formar enjambres.
"Los productos derivados son impredecibles; los sensores en enjambre pueden mejorar la previsión atmosférica, la seguridad de los reactores nucleares, el control medioambiental, el control de inventarios y el control de la calidad del agua y los alimentos. No me extrañaría que la gente encontrase formas de aplicar las motas micromecánicas sensibles en enjambre a la cosmética, el espectáculo o la pornografía. Cuando el aire que respiramos nos observe, comprenderemos que los límites tradicionales entre información y materia han cambiado, aunque hoy la computación generalizada sea para nosotros una mera abstracción. Los ordenadores tenían el tamaño de una habitación en los años cincuenta; en los ochenta, eran como una mesa. Hoy podemos llevar en la mano potentes sistemas de computación y comunicación. Lo siguiente será perderlos de vista cuando se caigan en la alfombra. La frontera entre bits y átomos es el punto donde convergen todas las disciplinas de la realidad virtual, la realidad incrementada, las salas inteligentes, las interfaces tangibles y los ordenadores para llevar puestos." (Rheingold, p.129)
Más que nunca tendremos que estar atentos y combatir por mantener nuestra propiedad de los datos que podrían transmitir, en la línea de la "Inteligencia Humanística" postulada por Steve Mann (ver posteo anterior). Porque el polvo inteligente también estará "motorizado" y su efecto multiplicado por la inteligencia artificial, como advierte la consultora Gartner: "Después de una primera etapa en que los dispositivos individuales estarán dotados de inteligencia artificial, llegará una segunda etapa en que estos objetos comenzarán a cooperar y complementarse entre sí." (DiarioTI, 20/10/2016)

Por ello, se hará necesaria la formación de comunidades de lo que Mann denomina «espacio ciborg», de hombres que porten estos artilugios pero acuerden una estrategia defensiva contra la "tiranía tecnológica" (Rheingold, p.134).  Aquí también Stephen Hawking hace una advertencia:
"Si miramos hacia el futuro, no hay límites a lo que podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza." (Gizmodo, 5/03/2014)
Y Google acaba de anunciar un importante paso en esta dirección: su sistema de inteligencia artificial `Google Brain´ ha sido capaz de aprender a crear su propio cifrado sin necesidad de intervención humana. Una red neuronal cifra sus mensajes para enviarlos a otra red neuronal y una tercera intenta interceptarlos y decodificarlos. En los primeros intentos, el cifrado era bastante pobre y fueron decriptados, pero después de 15.000 repeticiones la tercera red fue incapaz de descubrir más de la mitad del contenido, una tasa similar a la que se puede obtener por pura casualidad. Lo más extraño (o lo inquietante) de este avance en las redes neuronales es que los investigadores no saben exactamente cómo funciona el método de cifrado exitoso (Xataka, 28/10/2016)
Y ya podemos imaginar una nueva forma de holografía: motas de polvo inteligente saliendo de una caja para formar figuras en el espacio. ¡No las vayamos a respirar! (Aunque las habrá para propósito de diagnóstico médico, que podrán desplazarse por nuestro cuerpo).

21 de octubre de 2016

Respondiendo a la amenaza del control generalizado

Ya he mencionado antes (posteos del 7/10 y 30/09) las propuestas (especialmente de Tim Berners-Lee) de una internet descentralizada, que pueda escapar del control de las grandes plataformas y de los gobiernos interesados en controlarla en algunos países.

Quiero ahora dar a conocer un manifiesto que data de 2001 y va en el mismo sentido, pero con un fondo "filosófico" muy interesante. Se trata de una propuesta de Steve Mann (página personal), conocido como padre del "computador ponible" (wearable), en ese tiempo en el MIT y hoy profesor de la Universidad de Toronto. Si todos llevamos sensores (y cámaras), somos dueños de lo que captamos y estos datos no deberían ser captados por terceros sin nuestra autorización (la que solo daríamos con muy buenas razones). Y como nosotros somos los que manejamos estos datos, somo nosotros quienes les damos sentido, que hacemos de estos aparatos máquinas "inteligentes".
"El humano dota a la máquina de mucha más inteligencia de la que tendrá la llamada Inteligencia Artificial, y la máquina proporciona al humano capacidades nuevas de manipulación intelectual de la información visual. En cierto sentido el humano usa al ordenador como periférico, y el computador usa al humano como periférico, y los dos forman un solo dispositivo, un bucle de realimentación en el que cada uno extrae del otro su inteligencia. Esto es lo que yo llamo Inteligencia Humanística." (Entrevista en El Mundo, 27/12/2000).
Con estos aparatos, con los sensores capaces de comunicarse (hablaré de ellos en un próximo posteo), podemos hacer que la gente sea más inteligente, dice. Y es más importante que mejorar las herramientas.
"En un marco de IH [Inteligencia Humanística], el objetivo es mejorar la inteligencia de la especie, no sus herramientas. Gente inteligente significa, sencillamente, que debemos confiar en la inteligencia humana para el desarrollo de infraestructura tecnológica, en lugar de excluir al ser humano de la ecuación. Un objetivo importante de la IH es dar un primer paso hacia un principio fundamental de la Ilustración, la dignidad del individuo. Esto se logra, metafórica y literalmente, a través de una transformación protésica del cuerpo en un espacio soberano, permitiendo que cada individuo controle el entorno que le rodea. [...] Uno de los principios básicos del desarrollo tecnológico en el sistema IH es que el usuario debe ser parte integrante del circuito discursivo. El ordenador para llevar puesto abre nuevas vías para ser, no sólo para hacer." (Mann y Niedzviecki, en Rheingold, p.133)
"¿Qué camino debemos escoger? ¿El de los ordenadores para llevar puestos que fomentan la independencia y la interacción comunitaria? ¿O el de los ordenadores para llevar puestos que se integran en el aparato de control electrónico al que cada vez estamos más sometidos sin darnos cuenta?" (ibidem, p.134)
Desgraciadamente, parece poco lo que podemos hacer como individuos para decidir el futuro en este campo, donde todo lo manejan los tecnólogos. Las redes, en las cuales se integrarán los sensores tanto de nuestros cuerpos como de las cosas ("internet de las cosas"), han creado un mundo nuevo, con nuevos poderes, de los que dependen desde los estados hasta cada uno de nosotros. Hoy, “somos lo que nos conecta pero no sabemos exactamente lo que son estas conexiones”, dice J.Cooper (p.303). Tampoco saben muy bien adonde van quienes dirigen la red y especialmente las grandes plataformas: "se parecen a los exploradores que buscaban nuevas rutas o un nuevo mundo más allá de los mares, pero inmersos en la inmensidad de las conexiones en vez de los océanos". El peligro es que tienen un enorme poder y “no saben de humanidad”, agrega Cooper, mientras los políticos que nos dirigen y tratan de adaptarse lo hacen con una visión obsoleta, porque no entienden de redes: “Nuestro mundo está conducido por viejos líderes que no entienden las redes y por una colección de nuevos tecnólogos que no entienden el mundo.” (Cooper, p.222)

Pero, hoy, son los tecnólogos los que "llevan la batuta" y muy pocos los organismos capaces de hacerles frente y poner un poco de cordura (y de espíritu humano) en lo que están construyendo. No parecen inquietar las advertencias en el mismo sentido publicadas por Stephen Hawking junto al informático Stuart Russell y los físicos Max Tegmark y Frank Wilczek (texto inglés aquí), aunque refiriéndose a la inteligencia artificial: "La I.A. puede ser el peor error de la humanidad" (Gizmodo, 5/03/2014). Hawking no es contrario a la investigación ni al desarrollo, pero advierte lo mismo que Cooper: la comunidad científica no se está preocupando lo suficiente por mantener bajo control estos avances.

Habría que esperar que se imponga el principio de la cooperación, que sería un rasgo propio de la especie humano como aseguran Martin Nowak y Roger Highfield:
"La cooperación es el arquitecto de la creatividad a través de la evolución, desde las células hasta los seres multicelulares, los hormigueros, los pueblos y las ciudades. Sin cooperación no puede haber ni construcción ni complejidad en la evolución." (p.20)
Nowak señala estudios que muestran, sin embargo, que la más alta cooperación se dan en grupos pequeños, mientras disminuye cuando los grupos crecen.
"Los desertores siempre ganan a los cooperadores cuando se produce un encuentro entre ellos en una población bien mezclada. Pero la cooperación puede prosperar cuando los cooperadores se amontonan para formar racimos. A partir de la regla de Hisashi podemos ver que es más fácil formar un grupo si cada individuo está solamente conectado con unos cuantos más. Cuantos menos sean los vecinos, la razón [matemática] de beneficio requerida para que la cooperación prospere es más pequeña." (p.319)
¡Mala noticia para las redes sociales de muchos "amigos" (pero quizás la razón por la cual muchos abandonan Facebook)! Por ello Nowak diferencia los conjuntos (pequeños grupos de personas que se conocen e intercambian) de las redes que solo "captan algunos aspectos de nuestras relaciones" (p.330). Y agrega que las religiones del mundo presentan las mejores recetas para la cooperación (y no es indispensable tener fe para adoptar esta filosofía de vida):

"Las enseñanzas de las grandes religiones del mundo tienen mucho en común, puesto que proporcionan viejas recetas sobre cómo llevar una vida plena. Durante milenios han analizado la condición humana para paliar el sufrimiento y la tristeza. Han llegado a la conclusión de que el amor, la esperanza y el perdón son los componentes esenciales de aquello que es necesario para resolver los mayores problemas. Son llamamientos a la acción generosa. [...] Ahora, por primera vez, algunos aspectos de estas vigorosas ideas se han cuantificado en experimentos, se han apresado en ecuaciones, se han salvaguardado en ciencia." (pp.346-347)
La matemática más avanzada está a favor de la cooperación, el entendimiento, el amor. ¿Podrán los programadores aprender esta matemática de la vida y desafiar a los "CEO" y accionistas de las grandes plataformas?

Referencias:
Cooper, J.: The Seventh Sense, Little, Brown & Co., 2016.
Diario El Mundo:“Estamos evolucionando hacia un nuevo tipo de inteligencia”, entrevista a S.Mann (27/12/2000)
Nowak, M. & Highfield, R.: Supercooperadores, Ediciones B, 2012.
Mann, S. & Niedzviecki, H.: Cyborg: Digital Destiny and Human Possibility in The Age of Wearable Computer, Mississauga, Doubleday Canada, 2001.
MARS - Mobile Augmented Reality Systems (Columbia University)

14 de octubre de 2016

¿La publicidad nos perseguirá/espiará por todas partes?



Con los GPS, Bluetooth y RFID, estamos cada vez más expuestos a recibir mensajes publicitarios donde estemos, en función de nuestra localización.

Considere además que las etiquetas RFID (de radio frecuencia) estarán pronto en muchos productos, incluida la ropa, delatando no solo nuestra presencia sino también lo que llevamos puesto. Y la ropa interior podría además contener sensores que den cuenta de nuestro ritmo cardíaco y de otros indicadores de salud. 

¿A quienes los transmitirán? ¿Que control tendremos sobre todas estas transmisiones? Nos advirtió Howard Rheingold ya en 2002:
"La vigilancia generalizada suscita varias cuestiones importantes:
• ¿Quién espía a quién? ¿Quién tiene derecho a conocer esa información?
• ¿Quién controla la tecnología y sus usos? ¿El usuario, el gobierno, el fabricante, la compañía telefónica?
• ¿Qué tipo de personas seremos cuando utilicemos la tecnología?" (p.112)
Parece haber un acuerdo generalizado acerca del término del concepto tradicional de privacidad: la mera adopción de teléfonos "inteligentes", con adhesión a las redes sociales, le puso fin. La cuestión es, sin embargo, la del control del acceso y uso de los datos. Y si los sistemas serán "Open Source" (colaborativos) o "propietarios" (de empresas comerciales).
"¿Podrán los demás averiguar todo lo que necesitan sobre el usuario en cuestión, a través de los sensores con los que éste tropieza y la información que emite? Las diversas respuestas a estas preguntas conducen a futuros diferentes. Las respuestas dependerán, en parte, del modo en que se diseñe y regule la tecnología en las primeras fases." (p.113)
Pero han pasado ya las "primeras fases": firmas como IBM, Hewlett-Packard, Nokia, Ericsson, Sony y DoCoMo trabajan en ello desde hace más de una década. Y aún seguimos sin un estándar para este tipo de comunicación y menos aún con un acuerdo sobre reglas básicas. 

Si bien falta aún bastante para la "delación" generalizada basada en nuestra mera presencia (por GPS y RFID), ya se han desarrollado sistemas que utilizan cámaras capaces de reconocer la expresión facial, la edad aproximada y el tipo de ropa de personas que esperan en una fila (por no decir la identidad misma, gracias a la IA de Facebook o Google). Con ello, por ejemplo "cuando aparece una anciana, puede mostrarle un anuncio de costura, y cuando apareces tú con una cazadora de cuero, te mostrará una motocicleta" (p.120), según se proyectaba en 2002, pero hoy podría ser mucho más preciso apelando a los intereses evidenciados en las redes sociales.

Por ahora veremos estas informaciones sea en pantallas grandes sea en los celulares (donde quizás las podamos bloquear), pero a futuro serán también un componente de los sistemas de realidad aumentada, apareciendo en los lentes que quizás llevaremos para conocer mejor nuestro entorno y lo que nos pueda ofrecer: ¡Se trabaja desde 1988 en esta futura "unión del mundo físico con el mundo virtual"! (Pionero ha sido el Laboratorio de realidad aumentada móvil -MARS- de la Universidad de Columbia: imagen anexa, de 1996).

Referencias:
H.Rheingold: "Multitudes inteligentes", Barcelona, Gedisa, 2004.
MARS - Mobile Augmented Reality Systems (Columbia University)
Noticias de The Guardian sobre realidad aumentada: https://www.theguardian.com/technology/augmented-reality
Sobre "prendas inteligentes": TICbeat (2010)

7 de octubre de 2016

La dinámica de las redes distribuidas

En el post pasado recordé que la creación de las primeras redes fue una empresa colectiva, abierta para facilitar el desarrollo cooperativo de mejores tecnologías. En un primer momento, se trató de diferentes "terminales" (teclados y pantallas) conectados a un mismo computador central ("servidor"), lo que facilitaba enviar mensajes de un usuario a otro en forma instantánea. Con los PC, se mantuvo el concepto y aparecieron diferentes métodos de comunicación (e-mails, grupos de interés, chats, etc.) pero debían pasar por un servidor que reenviaba los mensajes de un PC a otro. 

Paralelamente, sin embargo, se mantuvo la idea de conectar un PC a otro sin pasar por un servidor. Pero, más que para enviarse mensajes, se utilizó para intercambiar archivos: era el P2P (peer to peer) y fue la base del éxito de Napster (1999), que permitía el intercambio de música desde el disco duro de un usuario al disco duro de otro (aunque Napster mantenía una base de datos del contenido disponible). La industria discográfico determinó el cierre de Napster porque el sistema infringía sus derechos. 

Hubo otros desarrollos que evitaban el uso de un mecanismo central de establecimiento de enlaces y aún hoy opera el P2P, sobre todo para intercambio de archivos pirateados. Pero es un modelo potente, que no podría estar sujeto al control por gobiernos o empresas, y el que proponen Tim Berners-Lee, el inventor de la World Wide Web, y Brewster Kahle, responsable del Internet Archive (Xataka, 8/06/2016).

¿Cómo puede operar sin servicio central que "sepa" donde se encuentran los contenidos que pueden ser transmitidos? Cuando uno pregunta, por ejemplo, en este tipo de red 
«Hola, busca recetas de pastel de fresa y ruibarbo", lo que dice en realidad es: «Hola, queridos amigos, ¿podríais decirme si habéis visto alguna receta del pastel de fresa y ruibarbo? Y ya puestos, preguntad a vuestros amigos también y que pregunten ellos también a sus amigos». Es evidente que al cabo de unas cuantas rondas de este tipo, se consigue que un montón de amigos emprenda la búsqueda de la receta. Y es casi imposible que cada cual sepa quién fue el primero en plantear la pregunta.
Así que supongamos que un chico del que te separan 6 grados (el amigo de tu amigo de tu amigo de tu amigo de tu amigo de tu amigo) tiene la mejor receta de pastel de fresa y ruibarbo del mundo. Y se lo dice al chico que se lo preguntó, quien, a su vez, se lo dice al que se lo preguntó a él, y así sucesivamente. Al final te llega la respuesta. Pero sólo hay una persona en el mundo que sabe que tú eres quien formuló la pregunta inicial." (GnutellaNet, citado por Rheingold p.100)
Incluso es posible esconder la identidad de esta primera persona.

Se forma entonces una red de nodos que se comunican de uno en uno aunque cada uno puede tener múltiples conexiones. Un nodo, en consecuencia, es una especie de mini-servidor. Ésto es un retorno a uno de los principios originarios de la web, como recalca Rheingold.

Todo, por cierto, depende de la buena voluntad de los participantes y, aquí, entran a jugar las leyes de la cooperación (establecidas en la teoría de juegos). En el caso de la desaparecida red Gnutella, por ejemplo, el 70% de los usuarios de no compartía sus archivos (son los llamados "francotiradores", que quieren recibir pero sin aportar nada), y casi el 50% de los recursos del sistema los aportaban sólo un 1% de los usuarios. Los francotiradores son los peores enemigos de los sistemas cooperativos, lo que ha sido llamado por expertos "la tragedia de los [bienes] comunes". Una solución fue imaginada por la red Mojo Nation [cerrada en 2002]: exigía que cada usuario aportase, al menos, tanto como recibía, asegurando además que nadie supiera dónde estaban almacenados los archivos buscados (Rheingold, p.101).

¿Es realmente potente este tipo de red?
Bob Metcalfe, que dirigió el equipo que inventó Ethernet (conexión por cable) en los tiempos de ARPAnet, calculó que el número potencial de conexiones entre nodos crece más rápidamente que el número de nodos. El valor total de una red en la que cada nodo puede conectarse con todos los demás equivale al cuadrado del número de nodos: con dos nodos, el valor de la unión de ambos es de cuatro unidades; con 4 nodos interconectados, el valor es de 16, y con 100 nodos llega a 10.000. (ibidem, p.86)

Pero Metcalfe se quedó corto, como demostró David Reed, de Lotus Corp.. El valor de una red de formación de grupos (RFG) crece aún más rápidamente: la fórmula es dos elevado a la potencia del número de nodos, en lugar de elevar este número al cuadrado. Así, mientras el valor de 10 nodos es 100 (10 elevado al cuadrado) en la ley de Metcalfe, es de 1.024 (2 elevado a 10) en la ley de Reed.
"Esto explica que las redes sociales, creadas por correo electrónico u otras comunicaciones sociales, hayan expandido el crecimiento de la red más allá de las comunidades de ingenieros, hasta el punto de incluir toda clase de grupos de interés. La ley de Reed es el enlace entre las redes informáticas y las redes sociales. [...]
Cuando una red pretende aportar algo de valor a los individuos, como una red de televisión, el valor de los servicios es lineal. Cuando la red permite transacciones entre los nodos individuales, el valor se eleva al cuadrado. Cuando la misma red incluye procedimientos para que los individuos constituyan grupos, el valor es exponencial." (p.87)
Y el aumento de escala fomenta el desarrollo de nuevas aplicaciones que pueden ser "rompedoras" ("killer apps") y encontrar eventualmente un éxito fulgurante, capaz de transformar las relaciones en red.

Así, no es iluso pensar en una nueva internet basada en la fórmula P2P y liberada de la tutela de plataformas comerciales. Alguna coordinación puede ser necesaria, pero lo ha logrado ICANN con el sistema de nombres de dominio, y BitTorrent, quizás la aplicación más extendida para intercambios de archivos y que incluso compañías como Warner Bros o la BBC, empezaron a utilizar como una alternativa a la distribución convencional de películas y programas de televisión. (Ilustración: Enjambre de transmisiones en torrent; Fuente Wikipedia).

Para que este tipo de red funcione bien, se necesitan computadores con buenos discos duros (hoy 500GB o más) y que estén encendidos ojalá todo el día. No todos estarán dispuestos a mantenerlos encendidos y para que los móviles se conviertan en nodos útiles les falta tanto más memoria como planes de datos más económicos. La gran pregunta es si las telecoms lo permitirán y lo facilitarán o tratarán de enriquecerse cobrando por este tipo de intercambio.
Mientras estén encendidos y conectados, los PC tienen un gran potencial (ciclos de procesador) desaprovechado ("tiempo libre") y si nuestro disco duro contiene cosas que nos interesan ¿por que no facilitarlas a otros interesados? No se trata de dar acceso a todo: podemos reservar una carpeta para los intercambios. Y no faltan los mecanismos para evitar el acceso de indeseables.

Numerosas compañías están visualizando desde hace varios años las potencialidades de este tipo de red y hacen experimentos con redes distribuidas internas (como es el caso de Pfizer, Ericsson, Hitachi y BMW, por ejemplo).

Referencia:
H.Rheingold: "Multitudes inteligentes", Barcelona, Gedisa, 2004.