29 de abril de 2016

El dominio de Facebook como plataforma para la prensa

Lo que Facebook está vendiendo a la prensa es bastante simple. Lo que vende es una experiencia, parte de la cual incluye noticias. Esa experiencia depende de los creadores de contenido, periodistas y redacciones, que aportan sus ideas y utilizan sus propios recursos para llevarlas a cabo, y luego ofrecerlos al mundo. Todo ésto toma tiempo, dinero y habilidad. A sus "socios de los medios" (como CNN, BuzzFeeds y WIRED), Facebook está vendiendo la promesa de que su futuro será brillante si utilizan los nuevos productos noticiosos de Facebook para distribuir sus historias a la audiencia gigante de esta red. El único problema es que la promesa no es correcta. Es falsa esperanza o, en el peor de los casos, una amenaza. Las noticias son cruciales para Facebook. Mientras las personas comparten cada vez menos actualizaciones acerca de sí mismas, la compañía dice que cada semana 600 millones de personas ven una noticia en Facebook. Desarrolló un formato de vídeo de 360 ​​grados junto con el software y una cámara que permiten experimentar una noticia "como si uno estuviera allí". Y, además ha abierto ahora su API para que se pueda chatear con el Newsbot de un editor en su aplicación Messenger.

Sin embargo, para las organizaciones de noticias, estas innovaciones vienen con un imperativo insidioso. Facebook se ha convertido en una plataforma de distribución importante para los editores. Tiene la audiencia a las que las organizaciones de noticias están tratando de llegar, por lo que no tienen más remedio que participar.

La relación entre los creadores de noticias y su principal medio de distribución está rota. Facebook dicta ahora a la industria lo que más importa, cómo se gastan los recursos y qué historias han de ser contadas. Cuando Facebook dice que va a priorizar vídeo en el News Feed, todos los editores que pueden permitirse el lujo de hacerlo forman un equipo de vídeo. Cuando Facebook dice que lanzará Live, los editores comienzan a transmitir en vivo. Facebook está estableciendo las reglas, y las organizaciones de noticias las están siguiendo.

Eso es preocupante porque la industria de las noticias es en cierto modo precaria. Facebook seguirá experimentando con los tipos de experiencias que cree que la gente que usa sus servicios desea. Está tratando de seguir siendo novedoso, innovador e inmerso. 

Los editores, por su parte, continuarán luchando para mantenerse al día con la próxima mejor alternativa. Van a reasignar sus recursos, cambiar sus estrategias y cambiar sus títulos. Ellos le darán el tipo de historias que funcionan actualmente en Facebook o, al menos, contarán ahora algunas historias que funcionan en Facebook. Porque cuando Facebook dice "salte", hay que saltar.
(Traducido y resumido de Wired, 13/04/2016)

22 de abril de 2016

El software como servicio en la nube

GoDaddy ya acoge a más de 10 millones de sitios web, construidos con el software de creación de sitios como WordPress. Ahora, abre su nube para ofrecer "máquinas virtuales" (servidores web) a las pequeñas empresas, donde podrán instalar casi cualquier software que les gusta, el que operará como SaaS (Sofware As A Service).

La pionera en el concepto de la nube como servicio ha sido, hace ya una década, Amazon con sus Web Services, que desde entonces se ha convertido en un negocio secundario de 9.6 mil millones de dólares para el minorista. Google, Microsoft e IBM fueron los siguientes en ingresar a este mercado que, según el equipo de investigación Forrester, tendrá un mercado de us$ 191 millones en 2020.

Mientras para algunas empresas tiene sentido utilizar su propio hardware e instalar sus propios centros de datos, la nube tiene cada vez más sentido para que empresas pequeñas y medias externalicen sus centros de datos y sus servicios digitales, especialmente con la baja de los precios de estas grandes nubes. En efecto, Amazon y Google proporcionan importantes economías de escala, manteniendo los precios bajos con el fin de competir entre sí y con el resto del mercado.

Así también tiene sentido para las pequeñas empresas utilizar para ello GoDaddy. ¿Por qué comprar un servidor cuando se puede utilizar fácilmente un servidor virtual en el mismo lugar en que se ha registrado un dominio web? El futuro de la computación es cada vez más dejar el hardware y el software en las manos de otra persona y, sobre todo, de aprovechar las ventajas de la nube: el acceso desde cualquier lugar y con cualquier equipo.

Como señalado en el post pasado, incluso las apps podrían congregarse en una nube, como proyectado por Google con su App Streaming.

(Basado en Wired, 21/03/2016)

15 de abril de 2016

El futuro puede ser sin apps

¿Cuántas apps tiene hoy en su teléfono? Y si quiere acceder a otras fuentes, se le pide instalar otras. ¿Cuanto tiempo pierde luego abriendo una y otra? ¿Las revisa realmente? (Las estadísticas dicen que pocos utilizan más de cuatro.) ¿Por que no puede tener todo en un solo "lugar" (como era la web)?

He aquí (traducido y resumido) lo que piensa y publicó en Medium Donny Reynolds.


Los problemas

1. El problema de la entrega: Pagar por instalar una aplicación, que fue alguna vez una experiencia mágica, rápida y suave, es un acto de compromiso de muchos hoy en día. Las empresas quieren presentar contenidos y servicios a los clientes lo más rápido y fácilmente posible, pero hay una creciente resistencia para la instalación de lo percibido como un obstáculo a la entrega.

2. El problema de descubrimiento: Tenemos una internet fragmentada, en la cual el contenido creativo y original quedó encerrado en plataformas propietarias. No es la internet que conocíamos y amamos.

Las soluciones actuales

1. Las apps con enlaces: Una lleva a otra que presenta mejor el contenido deseado. Así, por ejemplo, cada vez que se pulsa en un enlace de YouTube en otra app, la app de YouTube se abre para reproducir el vídeo. ¿Pero qué pasa si no quiero instalar dicha aplicación sólo para leer un artículo?

2. Indexación de aplicaciones: Requiere que el proveedor del contenido haga un esfuerzo especial para facilitarlo en su app porque, por defecto, su contenido no es visible para la World Wide Web, exactamente lo contrario de cómo funciona la web. Google y Apple han proporcionado métodos para que los proveedores muestren los contenidos de sus apps dentro de la aplicación de búsqueda.

Lo nuevo

Hace cuatro meses, Google lanzó una tecnología impresionante que casi nadie conoce: App Streaming. En lugar de instalar las apps a las que estamos acostumbrados, se toca un enlace al contenido y Google transmitirá las partes correctas de la app para verlas bajo demanda. No hay necesidad de instalar la app. Es una forma del sistema "aplicación como servicio" (aplicación en la nube, que explicaré la próxima semana).

Mientras esta solución de Google se encuentra todavía en una fase experimental, Apple está empujando sus desarrolladores más o menos en la misma dirección: On-Demand Resources (ODR) es una tecnología presente en iOS 9 que descarga una aplicación central pequeña sólo en la instalación, y luego descarga partes y contenidos adicionales según sea necesario. Pero la visión inicial de Steve Jobs era de apps en web, que se ejecutaran en el entorno cerrado del navegador.

Lo que necesitamos es una solución independiente de la plataforma para el streaming de apps que realmente supere los problemas de entrega y de descubrimiento de contenidos. Es posible que hayamos entrado en el comienzo de un futuro en el que la instalación se vuelve obsoleta y la frontera entre el "sitio web" y la "app nativa" sea borrosa. Este es un futuro sin aplicaciones.

Otras fuentes también nos han permitido conocer la propuesta de Facebook, que Mark Zuckerberg hizo pública hace unos días en el evento F8. Facebook quiere derrumbar los muros que existen entre captura de datos, representación y predicción. Y concentrar todo en su nueva plataforma de chatbot en Messenger (robot gestionado por inteligencia artificial que simula una conversación humana). Para ésto, Facebook elaborará algoritmos de predicción para saber qué vamos a hacer en todo momento durante los próximos segundos. O, al menos, intuirlo. Se le podrá pedir (oralmente) lo que se desea saber, ver, oír o comprar. (Wired, 13/04/2016; Hipertextual, 14/04/2016) Aún falta para tener diálogos realmente útiles (María Gonzáles, en Xataka, evaluó 15 chatbots y solo se declaró relativamente satisfecha con 2).


8 de abril de 2016

Más sobre algoritmos y datos personales

Se anuncia que 2016 se convertirá en el año de los bots inteligentes (software con inteligencia artificial que se puede programar para hacer todo tipo de cosas).(Capital.cl, 5/04/2016). Es decir que los algoritmos, especialmente los de aprendizaje de máquina, se multiplicarán. Satya Nadella (CEO de Microsoft) es uno de sus promotores y anunció que su compañía, a pesar del fracaso de Tay, se propone ofrecer lo que denomina Microsoft Bot Framework: un conjunto de herramientas de código y programas de aprendizaje de máquina para que cada cual pueda construir su propio sistema, desde motores de búsqueda hasta asistentes personales que respondan al nombre del usuario y sus intereses (The Verge, 30/03/2016).

Se podría considerar que los algoritmos de recopilación y análisis de intereses personales -individuo por individuo-  (tratados así son los llamados "little data") podrían ser una real ayuda para los usuarios y es posible que, efectivamente, puedan facilitar servicios personalizados, como muchos creen con cierta razón. Pero sigue siendo dudoso que sean legítimos si se imponen sin consultar al usuario como ocurre actualmente en la gran mayoría de los casos. 

Siempre he sido partidario de la personalización en el caso de los periódicos digitales pero también he recalcado la importancia de seguir incluyendo información sobre otros temas, especialmente los que pueden ser relevantes para toda la población, para asegurar una adecuada participación ciudadana. Establecer las prioridades en este campo más general ha sido siempre y deberá seguir siendo el rol de los equipos editoriales de cada medio.

En otras palabras, el tema de la personalización no puede ser tratado al margen del tema de la vida social, del bien común. Se trata, en esencia, de un tema de ética de las comunicaciones, algo que -desgraciadamente- parece ser ignorado por la concepción actual del mercadeo digital influenciado, como señalado en el post anterior, por la fe ciega en la "objetividad" de los algoritmos. Y si ésto ya es éticamente cuestionable, no olvidemos lo fácil - y perverso - que es introducir un pequeño factor que favorezca (invisiblemente) los intereses de una empresa o una facción política.

Podemos creer que estamos en nueva "era del conocimiento" y es obvio que tenemos más que nunca acceso a innumerables fuentes de información. ¿Pero tenemos realmente acceso a lo más significativo y lo más beneficioso (para nosotros y para la comunidad)? ¿O solo a lo que algunos parecen preferir y a lo que los creadores de algoritmos creen más "adecuado" o más "representativo" según sus propios (y desconocidos) criterios?

Se dice -sin duda correctamente- que permitir a las empresas el acceso a los datos personales es la forma adecuada de remunerar los servicios que presentan como "gratuitos". ¿Pero no sería más correcto que cada uno pudiera decidir qué datos liberar y qué intereses priorizar en vez de obligarnos a "abrir completamente la puerta" para que una empresa analice todo nuestro comportamiento en línea (incluidos los contenidos de nuestros mensajes personales, e.d. violando sistemáticamente el secreto de la correspondencia)? Y si rehusamos, actualmente, nos condenamos al ostracismo. ¿No es ésta una nueva forma de esclavitud?

Debemos considerar también que compañías como Facebook han comenzado a utilizar algoritmos para predecir qué usuarios podrían cometer delitos haciendo uso de sus servicios. En 2012, Reuters informó que Facebook, provisto de sus algoritmos predictivos, descubrió a un hombre de edad media que mantenía conversaciones de contenido sexual con una niña de trece años y hacía planes para encontrarse con ella al día siguiente. Avisó a la policía y ésta lo detuvo. Es difícil cuestionar la aplicación de tales métodos para la aprehensión de este tipo de delincuentes. Pero también podría detectar traficantes de drogas y hasta posibles infractores de derecho de autor. ¿Las redes sociales convertidas en policías?
"No sabemos si Facebook tiene algún tipo de Pedofilómetro, pero teniendo en cuenta el amplio análisis de usuarios que ya realiza, no le resultaría muy difícil crear uno, y no solo para hacer un ranking de pedófilos. ¿Qué tal un Drogómetro? ¿Y un Comunistómetro?, a Joseph McCarthy encantaría la idea. Con los datos suficientes y los algoritmos correctos, todos corremos el riesgo de ser sospechosos. ¿Qué sucederá cuando Facebook nos entregue a la policía sin que hayamos cometido ningún delito?" (Morozov, p.216)
Se ha sugerido la creación de agencias especializadas e independientes encargadas de auditar los algoritmos. La idea es sin duda interesante pero plantea varias interrogantes, no siendo la menor quienes las financiarían.

1 de abril de 2016

La invasión de los algoritmos

Los algoritmos son las secuencias de órdenes que conforman la base de la programación de los computadores y, ahora, de las respuestas que obtenemos cuando navegamos por internet.

Twitter cambió la forma de presentación cronológica de los tuits por una basada en la estadística ("los más vistos"), es decir basados en un algoritmo (aunque se puede desactivar). Instagram anunció que pronto haría lo mismo pero, de momento, se retractó al recibir numerosos reclamos. Facebook selecciona los "News Feeds" del mismo modo desde hace tiempo y lo hace ahora con las actualizaciones de estado. (Fortune, 28/03/2016)

Las "tendencias" que Twitter parece extraer "objetivamente" a partir de los retuits (y otras señales), son una buena muestra de mecanismo distorsionador: una vez que un tema adquiere este codiciado estado, atrae aun más atención y se produce un efecto "bola de nieve" que lo viraliza (dentro y fuera de Twitter). El riesgo es que los periodistas que utilizan Twitter como fuente sean poco precavidos y caigan en la trampa de ver ahí un "tema importante". 

Algo más elaborado ha sido el proyecto Tay de Microsoft. Basado en "inteligencia artificial", pretendía entablar una conversación "casual y fluida" con jóvenes entre 18 y 24 años. Pero se acumularon los mensajes ofensivos enviados por éstos y, en menos de 24 horas, pasó de decir que los humanos eran "súper guay" a volverse cada vez más xenófobo, malhablado y sexista. Se hizo "simpatizante de Hitler y acabó deseando a muchos que acabasen en un campo de concentración" dice la nota de prensa (El Mundo.es, 28/03/2016). Así, Microsoft tuvo que desactivar la IA y pedir disculpas. La noticia acerca del racismo de su "inteligencia artificial" ha dado la vuelta al mundo (y puso de cabeza a Microsoft).

Éste, que es un caso extremo, es una muy buena demostración de lo que puede pasar con cualquier algoritmo, desde el de Google Search al de Facebook y todas las aplicaciones de análisis de "big data" que tanto se "marketeen" actualmente.

Un efecto distorsionador de los algoritmos es fácil de observar haciendo una búsqueda en Google. La empresa, "para facilitar las búsquedas", ha instalado un sistema de predicción de los términos de búsqueda, basado en un algoritmo que toma en cuenta lo más buscado pero también mucho otros factores (como el país del lector, la lengua, sus intereses registrados, y al menos otros doscientos factores), en algo que se combina además con sus propios sistemas de clasificación. 

"Lo que resulta de veras irritante es que Google insista en la supuesta neutralidad y objetividad de sus algoritmos. En lugar de reconocer que estos pueden tener dificultades y sesgos que es necesario corregir, Google se comporta como si introducir a los humanos para que revisen de tanto en tanto el trabajo de sus algoritmos equivaliera a abandonar toda fe en la inteligencia artificial como tal. Resistirse a reconocer que sus algoritmos en ocasiones pueden tener un mal funcionamiento le permite a Google zafarse de una serie de aspectos éticos un poco complejos sobre su trabajo." (E.Morozov, "La locura del solucionismo tecnológico", p.167) 
El problema ético al que alude Morozov tiene que ver con la relativa facilidad para torcer los resultados de búsqueda, por ejemplo utilizando "generadores de búsquedas" que repiten centenares de veces términos que pueden ser ofensivos. 
"Supongamos que un enemigo suyo, en un esfuerzo deliberado por manchar su reputación, decide pagarles a los usuarios para que busquen su nombre seguido de la palabra "pedófilo". Un ejército de entusiastas colaboradores, reclutados a través de sitios como Craiglist y Mechanical Turk, de Amazon, está generando el volumen suficiente de búsquedas para que esa palabra reemplace otros términos más positivos que se han asociado a su nombre. Ahora, cualquiera que lo busque también sabrá que quizá usted sea un pedófilo y, recuerde, no hay manera de apelar porque los algoritmos de Google son los que están a cargo y jamás se equivocan." (Morozov, p.168)
Es inútil tratar de reclamar, porque Google (y otros inventores de algoritmos) pretende que "reflejan objetivamente" lo que está en la web. Como agrega Morozov, "la compañía no solo refleja, además da forma, crea y distorsiona, y lo hace de múltiples maneras, que no pueden reducirse a una única lógica de internet" (p.170). Internet, como tal, no es una "fuerza social" como parecen creer. Los motores de búsqueda y los algoritmos crean una nueva realidad.
"Google debería dejar de esconderse detrás de la retórica de los espejos y los reflejos, reconocer su enorme papel en la configuración de la esfera pública y comenzar a ejercerlo con mayor responsabilidad. Ser "objetivo" es una tarea muy difícil; no sucede con naturalidad después de haber delegado todo el trabajo a los algoritmos. Los nuevos jefes supremos de los algoritmos no deberían aspirar a ser autómatas éticos; solo siendo autoreflexivos y moralmente imaginativos pueden estar a la altura del enorme peso de sus responsabilidades cívicas." (Morozov, p.171)
Lo más grave es que se altera de este modo el conocimiento a nivel global. Y podríamos ir de mal en peor, porque hoy en día los algoritmos son la base del aprendizaje automático que está más que nunca al alcance de cualquier programador y que es también la base del análisis de "big data". Para experimentar con estos servicios tenemos plataformas como IBM Watson Developer Cloud, Amazon Machine Learning, Azure Machine Learning y TensorFlow, y todos hacen ingentes esfuerzos de mercadeo en la red para convencer a todas las empresas, hasta las más pequeñas, de las "bondades" y oportunidades que su uso ofrecería.

Imagine ahora que los medios de prensa empiecen a utilizar este tipo de análisis, basándose en lo que más leen sus lectores: orientarán su selección y sus reportajes en función de lo preferido por la mayoría. Y, como se sabe que las noticias deprimentes gustan poco y no se reenvíen (recuerde que los ponen también en Facebook y Twitter), terminaremos con un panorama de "mundo feliz" irreal.

Los algoritmos analíticos son la base de una de las líneas de desarrollo de la "inteligencia artificial", el llamado "aprendizaje supervisado" porque -al menos- los humanos deben intervenir para dar inicialmente a la máquina algunos modelos de lo que se podría considerar útil. El principio básico, tomado del modelo animal (puesto en evidencia por Pavlov), es el aprendizaje por refuerzo, es decir por medio de la repetición, lo cual es fácil de traducir en un mecanismo estadístico, pero es claramente más mecánico que inteligente. 

Pero se está avanzando hacia un "aprendizaje no-supervisado", donde se pretende que la máquina saque conclusiones "sin intervención humana" (¿pero quien la programa sino un humano?). Y "ya existen compañías que se centran completamente en enfoques de aprendizaje automático no supervisado, como Loop AI Labs, cuya plataforma cognitiva es capaz de procesar millones de documentos no estructurados y construir de forma autónoma representaciones estructuradas" (Xataka, 28/03/2016). 

Se dice que operaría como el cerebro humano y que la máquina "comprendería" el contenido semántico y hasta "los motivos de una persona". ¿En serio?