30 de septiembre de 2016

La esencia colaborativa de internet ¿por perderse?

Parece claro que el principal uso actual de internet corresponde a las redes sociales, asociado al dominio de los móviles. Ésta es una forma de "apropiación" de funciones (de desarrollo informático) por una enorme cantidad de personas que no saben nada de programación ni de estructura de redes (físicas) o de telecomunicaciones. En otras palabras, internet se ha transformado en un "bien público" compartido por todos. Pero ésto solo ha sido posible porque quienes están en su origen, incluso más remoto, se han preocupado de instalar "estructuras abiertas", es decir sistemas que facilitan la cooperación.

Pocos saben, por ejemplo, que los -escasos- primeros programadores (que usaban en este entonces tarjetas perforadas) inventaron este tipo de estructura para su propio beneficio, asegurándose de poder beneficiarse de los aportes innovadores de cada uno. La creación de las primeras redes fue una empresa colectiva, abierta para facilitar el desarrollo colectivo de mejores tecnologías. Así, "varios de los programas de software más importantes que posibilitaban Internet no son propiedad de ninguna empresa, sino un híbrido de propiedad intelectual y bien público, inventado por los propios hackers". (Rheingold, p.75) "Cuando la tecnología y las necesidades políticas posibilitaron que los programadores trabajasen directamente con ordenadores, estalló la innovación." (p.76)
"El profundo cambio de la tecnología informática se atribuye a Sputnik. En 1957, el Departamento de Defensa estadounidense, motivado por la pionera entrada en órbita de la tecnología soviética, creó la Agencia de Proyectos de Investigación Avanzados (ARPA), institución que contrató a un profesor del MIT, llamado J.C.R. Licklider, con el fin de superar la tecnología informática existente. Los investigadores de ARPA desarrollaron programas informáticos que mostraban los resultados de las computaciones en forma de gráficos en pantalla, en lugar de recurrir a las impresiones. Asimismo, aportaron algo de relevancia aún mayor: «sistemas operativos» que permitían a la comunidad de programadores/usuarios interactuar directamente con los ordenadores. [...] 
Como trabajaban con un mismo ordenador central, los programadores que trabajaban en los proyectos de ARPA desarrollaron pronto una sensación de comunidad. Comenzaron inventando modos de enviarse mensajes desde los terminales individuales a través del ordenador común. El correo electrónico y las comunidades virtuales tienen su origen en los hacks ancestrales creados por los programadores de tiempo compartido para comunicarse entre sí." (p.76)
El problema con el que nos encontramos enfrentados ahora está relacionado con las pretensiones de las grandes plataformas y de operadores de telecomunicaciones de sustituir el libre acceso y libre uso por "sistemas vallados", como denuncian tanto H.Rheingold como J.Cooper. No solo se trata de exigir un registro previo, con entrega de datos personales, sino de alterar incluso la arquitectura del sistema.
"Los bienes comunes de innovación se ven mermados por cambios que se están introduciendo en el nivel de la arquitectura. Estos cambios surgen al permitir que las versiones futuras de los protocolos de software de Internet abandonen el principio «de extremo a extremo»*, circunstancia que autoriza a los propietarios de la red a decidir que aplicaciones pueden ejecutarse en la red y cuáles quedan excluidas. Los propietarios de cable coaxial que ofrecen acceso de alta velocidad ya impiden a sus usuarios la utilización de determinados servidores o el alojamiento de algunas páginas web; de este modo, dificultan que los contenidos que compiten con el del propietario del cable circulen por la parte de Internet que controlan. La fusión AT&T-MediaOne creó una gran infraestructura por cable controlada por AT&T. AOL-Time-Warner, por su parte, constituyó también una gran infraestructura por cable controlada por AOL, y ahora intentan fusionarse en una única infraestructura por cable para una gran parte de Internet. A medida que los proveedores de cable consolidan su propiedad, reafirman su derecho de decidir quiénes pueden utilizar la red." (Palabras de Lawrence Lessig, citadas por Rheingold p.82) 
Desgraciadamente, las tecnologías inalámbricas abren nuevos modos de concebir la conexión de los usuarios y la posibilidad de crear y operar redes exclusivas, limitando no solo el uso por parte de los clientes sino también el derecho a innovar, a hacer cosas que nunca imaginaron los arquitectos de la red.
"¿Avanzamos hacia un mundo inalámbrico controlado, donde el equivalente a las compañías telefónicas o por cable decida lo que podemos hacer con nuestros aparatos móviles? Esto será innovador en relación con los sistemas móviles de hace cinco años, pero sólo lo será en la medida en que las compañías que controlan el negocio se beneficien de él. ¿O adoptaremos una arquitectura para sistemas inalámbricos donde nadie decida las tecnologías que se pueden utilizar y las que no? Cuando construyamos un bien común de innovación, creo que veremos la siguiente gran revolución en la tecnología de Internet inalámbrica." (L.Lessig, ibidem p.83)

* Acceso libre en toda la extensión del sistema (de servidor a aparato receptor).

Referencias:
H.Rheingold: "Multitudes inteligentes", Barcelona, Gedisa, 2004.
J.Cooper: "The Seventh Sense: Power, Fortune, and Survival in the Age of Networks", Nueva York, Little, Brown & Co., 2016.

23 de septiembre de 2016

¿Big data con privacidad? El almacenamiento diferencial

En comparación con Google y Microsoft, Apple parece atrasada en materia de inteligencia artificial y aprendizaje automático. Y la razón, al menos teórica, es que Apple otorgaría más importancia a la privacidad de sus usuarios (no recopilando toda la información personal presente en los iPhones).

Pero Craig Federighi, vicepresidente senior de software de Apple, contesta que es falso que se deba elegir entre las bondades de la inteligencia artificial y la privacidad de los usuarios. Según  él, no hay que elegir entre uno y otro. 

Lo que aplica es la llamada "privacidad diferencial", un método estadístico aplicado a la recolección y gestión de datos desarrollado en 2006 por Microsoft Research (cfr. artículo "Database Privacy"). "Este análisis se realiza de tal manera que no es matemáticamente posible encontrar nada sobre personas individuales. Según Aaron Roth, profesor de ciencias informáticas de la Universidad de Pennsylvania, con este método se consigue impedir que los datos anónimos sean analizados cruzándolos con otras bases de datos." (Archanco, Xataka, 14/06/2016)

¿Cómo lo aplica Apple? Ha construido un "cerebro" dentro de cada uno de sus nuevos teléfonos, donde se almacenan todos los datos sensibles sobre el usuario, sus hábitos y apps, además de una base de datos sobre información general no relacionada con el usuario. El aprendizaje automático se realiza entonces en cada dispositivo, sin que ningún dato privado se almacene en la nube o pueda ser interceptado durante su transmisión. Por ello, en iOS 10, este cerebro pesa alrededor de 200MB. 

¿Podrían otros fabricantes (tanto de smartphones como de apps) seguir este modelo? Por cierto que podrían, pero ésto se opone a su política de "capitalización de datos". Las empresas utilizan los datos para crear valor –para ellas– sin proporcionar nada a cambio a las personas investigadas, que son en realidad los dueños de los datos.
"Si bien algunos podrían argumentar que Google y Facebook nos pagan por nuestros datos con servicios «gratuitos», ésto todavía no tiene en cuenta la multitud de apropiadores de datos que no tienen intención de proporcionar ningún tipo de beneficio para aquellos cuyos datos obtienen.
Si las corporaciones y los gobiernos van a subir la apuesta por el tratamiento de los datos como un activo, entonces nosotros – los objetivos de este imperio de datos – deberíamos responder del mismo modo. Muchas de las prácticas comunes de recolección de datos en realidad deben ser tratadas como una forma de robo que llamo apropiación de datos – lo que significa la captura de datos de las personas sin consentimiento ni compensación." (Jathan Sadowski, The Guardian, 31/08/2016)
De este modo, los datos se transforman en una nueva forma de capital, que las empresas acumulan para mercantilizarlos y obtener ingresos. Lo peor es que las tecnologías de vigilancia utilizadas están protegidos por secretos comerciales, lo cual evita que el público sepa qué datos son analizados y cómo influyen en la actividad de sus compradores (e indirectamente de la sociedad).


Referencias 
Archanco, E.: Privacidad diferencial en iOS 10 o cómo recoger datos de tus usuarios sin invadir su privacidad, Xataka Applesfera, 14/06/2016,
Archanco, E.: Así es el cerebro de Apple: una mirada a través de la cortina de secretismo, Xataka Applesfera, 25/08/2016
Sadowski, J.: Companies are making money from our personal data – but at what cost?, The Guardian, 31/08/2016.
Yekhanin, S. & Dwork, C.: Database Privacy, Microsoft.

16 de septiembre de 2016

Las verdades de las redes sociales

Las redes sociales han introducido una dimensión nueva en las comunicaciones humanas y son, probablemente, el aspecto más revolucionario de internet. Aunque existían intentos anteriores (como Friendster, de 2002, y las “comunidades virtuales” anteriores), la aparición de Facebook en 2004 (y de sus versiones internacionales en 2007) ha sido sin duda el mayor detonante del auge y éxito de los medios sociales, partiendo por el éxito del propio Facebook.

Si bien las redes sociales partieron con la intención de “conectar personas”, lo han hecho reemplazando el típico contacto interindividual (como en el correo electrónico y el chat) por una autoexposición pública, aunque a círculos de personas que podemos eventualmente definir. Éste tipo de exposición es algo que se debe tener en cuenta a la hora de formular el “discurso”, aunque pocos parecen preocuparse por ello.

Las empresas han descubierto en estos medios un terreno fértil para sus operaciones de mercadeo, viendo la posibilidad de formar redes de posibles clientes pero, para poder “capturarlos”, deben ajustar sus mensajes:
"Cuando el objetivo pasa por generar participación, el tono cómo conversemos comienza a ser clave, la gente no engancha con lo negativo. [...] Los mensajes positivos, alegres, son los que tienden a recibir más RTs. [...]
Si en el mundo de los medios el éxito de la comunicación estaba condicionado por la redacción del mensaje, en este nuevo espacio todo pasa por conseguir persuadir a la gente de optar por un determinado tema de conversación y que esa conversación se haga en términos favorables. La clave ahora es ser capaz de definir el tópico de la conversación dominante.” (Conferencia de E.Arriagada, mayo 2016)
Pero en el caso de este tipo de comunicación podría objetarse que no se trata en absoluto de algo “social” sino de una comunicación privada, como alega Chris Horton:
“Cuando se toma un momento para detenerse y pensar en ello, gran parte de la interacción de doble vía en las ubicuas plataformas digitales de comunicación a las cuales nos referimos colectivamente como «medios sociales» realmente no son todo lo social, al menos no según nuestra comprensión tradicional del término. [...]
Dada nuestra comprensión de la distinción entre público y privado, ¿cuántos de estos «diálogos de dos vías» son realmente nada más que las comunicaciones privadas entre un individuo y una marca que simplemente tiene lugar en una plataforma de medios sociales? No veo nada remotamente social en tales intercambios, a no ser que vamos a adoptar una definición excesivamente amplia del término social para referirnos a cualquier intercambio, público o privado, entre dos individuos o grupos. [...] Además, se plantea la cuestión intrigante de si las interacciones de los consumidores con la inteligencia artificial pueden ser clasificados con razón como interacciones sociales.” (Chris Horton, Synecore, 09/06/2016)
Es la tecnología del medio social que se usa para una emisión pública con un retorno privado, algo que también es una innovación introducida por las nuevas tecnologías.
“Si asumimos que ahora más que mensajes bien trabajados tenemos que realizar conversaciones con personas concretas, pero que se hacen en público para que otros también las atiendan, tenemos que cambiar esa forma de comunicar. [...]
En esa audiencia potencial siempre hay alguien que sabe más que nosotros. Cuando conversamos teniendo eso presente empezamos a escribir o hablar con naturalidad con el tono en borrador o “en beta” propio del mundo digital. [...]
El uso de estos espacios, el estar en ellos un tiempo siempre es definido por los usuarios intensivos como una cura de humildad, como que el mismo hecho de ser enmendado, completado, los usuarios que nos acompañan en las redes «nos ponen en nuestro sitio» que normalmente es más debajo de lo que uno pensaba. Esta actitud que seguro quitaba autoridad en el paradigma de los mensajes cuidados propios de los medios tradicionales es casi un valor en las comunicaciones del nuevo entorno social.” (E.Arriagada)
En las redes sociales los vínculos se multiplican pero también se hacen más débiles que en las redes personales directas, y las fronteras entre grupos de amigos se diluyen. Por lo tanto, pasamos de ser miembros de un grupo más o menos cerrado, a ser un nodo más en una red infinita de relaciones sociales (Javier de Rivera).
“Barabasi, teórico de estos espacios de redes sociales, advirtió que en ellas no existe ni lo democrático, ni lo justo, ni lo igualitario. Las redes no se construyen al azar, sino que están dominadas por “hubs”, concentradores, centros de distribución, es decir están dominadas por personas que tienen más y mejores contactos. En parte porque manejan mejor la herramienta y, por lo mismo, se colocan al centro y condicionan las conversaciones que se dan en sus entornos sociales. Las investigaciones de Barabasi y tantos investigadores de las redes muestra que las personas, pero también las instituciones, incluso las páginas webs, tienen cualidades intrínsecas que determinan el “rate at wish” con el que adquieren enlaces (se conectan) en un entorno competitivo.” (E.Arriagada)
La teoría de las redes sociales ha hecho notar que los nodos de estas redes son siempre seres humanos individuales, aún cuando se consideren las relaciones entre organizaciones: “lo colectivo es contruido o se reduce a un conjunto de relaciones entre estos individuos” (Callon y Ferrary, p.9). Pero ésta es una visión estrecha del sistema socio–técnico según insiste la teoría del actor–red (TNA). Esta teoría ha dejado claro que “un medio” como los considerados aquí no es la mera red interna de individuos (el personal de una firma, por ejemplo) sino que se compone además de muchas otras cosas: los recursos técnicos, las reglas operativas (propias o impuestas del exterior) y, sin dudas, la influencia de los usuarios. “Las redes sociales puras no existen. Son siempre impuras o más bien heterógenas, hechas de humanos y no–humanos.” (Callon y Ferrary, p.11)
Un claro ejemplo es el de las redes de intercambio de conocimientos:
“Las verdaderas redes generadoras de conocimiento están en otra parte, reúnen a académicos, universidades, conferencias, servidores, libros, normas y prácticas, los fenómenos que estudian y las herramientas y laboratorios que les permiten hacerlo. «Internet» puede fortalecer y, en ocasiones, debilitar algunas de estas redes —y sin dudas crea las condiciones para que surjan otras nuevas— pero no genera un cambio fundamental en lo que cuenta como conocimiento ni en el modo en que se produce.” (Morozov, p.58)
Y, como acabamos de ver, los medios sociales parecen tener una suerte de imán que lo atrae todo:
“Los medios sociales no sólo han tragado el periodismo, se han tragado todo. Se han tragado las campañas políticas, los sistemas bancarios, las historias personales, la industria del ocio, la venta al por menor, incluso el gobierno y la seguridad.” (Emily Bell, Columbia Journalism Review, 7/03/2016)
Y todo ello se encuentra cada vez más mediado por máquinas y dirigido por algoritmos basados en el supuesto reconocimiento de “intereses” de los usuarios (mediante el “análisis de big data”, apoyado – en el caso de las mayores plataformas – por el aprendizaje de máquina, una forma básica de inteligencia artificial. Como decían  Callon y Ferrary, en estas redes, “ya no se puede ignorar a los no–humanos; ya no hay acción que no los use como relevos, como aplificadores, que no les delegue una parte de nuestras reflexiones”. Tenemos “delegados” que “son masivamente no–humanos” (Callon y Ferrary, p.13)

“¿Hace tiempo que no «ve» a un amigo o una marca en Facebook? Muy simple, un algoritmo decidió que ya no hay suficiente afinidad.” (S.Maturana y J.P.García, profesores del e–curso “Consumidor en el Mundo Digital”, diario El Mercurio, 10/06/2016)

Surge aquí otra desviación, particularmente importante en el caso de la comunicación con las empresas (expresado como “seguir una marca” – o varias – en los medios sociales): “En 2011, la firma de investigación Gartner predijo que para el año 2020, casi el 85% de las interacciones que un individuo tenga con una empresa no incluirá un ser humano del lado de la empresa” (Chris Horton, Synecore, 09/06/2016).

Hoy en día, casi el 80% de las empresas tienen un equipo  dedicado a los medios sociales, que se han convertido en un procedimiento operativo estándar de comunicación. Y dado que es donde el público es más numeroso resulta mucho más efectivo encontrarse con él allí en lugar de tratar de atraerlo a un sitio web propio.

Así, nos encontramos aquí con sistemas de expresión semi–públicos, donde lo personal se mezcla cada vez más con mensajes de carácter comercial y periodístico, todo con la intervención de “delegados” no–humanos que seleccionan contenidos supuestamente de acuerdo a nuestros intereses, los que son deducidos de nuestros propios mensajes, de nuestra “navegación” y de nuestras búsquedas. Se produce una mezcla de influencias de diversos orígenes, que escapan cada vez más a nuestro control... y, en muchos casos, nos comunicamos solamente con máquinas qui simulan ser un interlocutor humano.

Bibliografía
Barabasi, A.B. (2002): The New Science of Networks, Cambridge, Perseus.
Callon, M., Ferrary, M. (2006): Les réseaux sociaux à l'aune de la théorie de l'acteur–réseau, Sociologies pratiques 2/2006 (n° 13), pp.37–44.
Morozov, E. (2015): La locura del solucionismo tecnológico, Buenos Aires, Katz Editores.

El presente texto forma parte de mi próximo libro: "Sistémica de los medios de comunicación en la era de las redes" (publicación prevista para octubre).

9 de septiembre de 2016

El nuevo "malware" ataca el hardware



Se han conocido en los últimos meses varios nuevos métodos de ataque malintencionado a los computadores que implican cambios directos en el hardware.



Una de estas técnicas es la llamada "Rowhammer", demostrada por primera vez en marzo pasado por investigadores de Google. Funciona mediante la ejecución de un programa en el equipo de destino, que sobrescribe varias veces una cierta fila de transistores en su memoria flash DRAM, "martillándola" hasta que un problema técnico raro ocurre: fugas de la carga eléctrica de la fila martillada de transistores hacia una fila adyacente. La carga se filtra, provocando que un cierto bit en la fila adyacente de la memoria de la computadora cambie de uno a cero o viceversa. Este "flip" da acceso a un nivel de privilegio del sistema operativo del ordenador. Investigadores de Austria y Francia mostraron unos meses más tarde que el ataque podría ser realizado por un código JavaScript que se ejecuta en un navegador (por ejemplo en una página web maliciosa).

Por su parte, investigadores israelíes realizaron una prueba de concepto de malware capaz de utilizar el sonido de los ventiladores de refrigeración  de los computadores o de los motores del disco duro para transmitir datos robados en forma de audio. 

Otro grupo de israelíes demostró que podían usar sólo us$ 300 de equipo de mano para extraer las claves de cifrado desde un computador mediante el control de las emisiones de radio filtradas por el uso de energía de su procesador.

En la Universidad de Michigan, un grupo de investigadores ha sido capaz de construir una puerta trasera secreta en una sola celda entre miles de millones en un microchip moderno. Cuando un hacker que sabe de la existencia de esta puerta trasera ejecuta un programa determinado, hace que la célula recoja la carga de transistores cercanos e induzca un cambio en un bit determinado. 

El resultado de todo ello es la existencia actual de técnicas de sabotaje físico ultra-sigiloso que es prácticamente imposible de detectar con las medidas de seguridad digitales habituales. Y ninguna actualización de software puede ayudar. (Adaptado de Wired, 31/08/2016).

2 de septiembre de 2016

La realidad virtual se amplía

"La RV es un concepto bajo el que se entiende la posibilidad de que el usuario se traslade a una dimensión ficticia y, a diferencia de un videojuego o una película tradicional, llegue a creer que está inmerso en ella. Realidad virtual son todos los kits del mercado, pero realidad virtual también son todos los avances que harán que lleguemos más y más rápido a ese mundo fictico, y que más pronto que tarde lleguemos a pensar que, de verdad, no hay distinción entre esa realidad y la que hay fuera del kit." (Hipertextual, 25/08/2016)
Esta nueva concepción de la RV implica mucho más que utilizar el sentido de la vista y "desplazarse" en un ambiente ficticio, lo cual también significa desarrollar múltiples técnicas novedosas.

Una de ella es el reconocimiento de la posición y los movimientos de las manos (y no solo del cuerpo, que es solo lo básico). Es lo que propone ya la compañía Leap Motion con su sistema "Interaction Engine" que integra, en su producto "Orion" para Oculus, las reglas físicas para permitir el seguimiento de las manos ylaq introducción e interacción con objetos virtuales.


Pero a ésto hay que agregar la experiencia del tacto, lo que lleva el nombre de tecnología háptica. Ésta recurre generalmente a guantes que actúan sobre la piel de las manos, permitiendo "sentir" los objetos. Se conocen proyectos como Manus VR, Gest y uno creado por The Control VR Team, pero bastante limitados (a veces con mandos dotados de botones, como en  HTC Vive).

Dexta Robotics, una startup china, va más allá con Dexmo, un guante exoesqueleto equipado con 11 grados de libertad de movimiento, capaz de proporcionar retroalimentación de fuerza variable para cada dedo, sientiendo en ellos los objetos virtuales. Es inalámbrico y su batería proporciona una autonomía cercana a las 6 horas. (Xataka, 25/08/2016)