19 de diciembre de 2019

2019: Cuando la tecnología se ve como el enemigo

"2019, el año que empezamos a ver la tecnología como el enemigo" ha titulado el diario El Mundo.

Sería en este año que termina que se habría tomado conciencia de los enormes defectos actuales de las comunicaciones digitales, desde la "vigilancia" de empresas de servicios como Google y Facebook hasta los nuevos "asistentes" auditivos como Alexa y Siri, pasando por las apps de los smartphones que transmiten innumerables datos sin nuestro conocimiento. Sin contar el uso malicioso de las redes sociales, la propaganda política, las noticias falsas, los videos "deepfakes", etc.

Pero hay otros efectos que no menciona este diario como los numerosos accidentes debidos a la imprudencia de los usuarios que caminan o conducen prestando más atención a sus celulares que a las condiciones del entorno. Un estudio realizado en los Estados Unidos ha mostrado que los accidentes ligados a esta situación empezaron a aparecer junto con el lanzamiento del primer iPhone en 2007 y se estima que unas 76.000 personas han sufrido en ese país lesiones en la cabeza o el cuello por el uso del teléfono celular. (MIT Tech Review, 6/12/2019)

Agreguemos también el robo de bases de datos de datos privados. Kaspersky acaba de informar que un tercio de las empresas que utilizan sus servicios han visto atacadas sus bases de datos biométricos, algo sumamente preocupante dado que es imposible para los usuarios modificar esta información. (Infosertec, 5/12/2019) 

Secuestro de datos (ransomware), robo de identidad, mensajes perturbadores son otros peligros constantes. La serie de Netflix  "No te metas con los gatos" muestra lo lejos que se puede llegar. 

6 de diciembre de 2019

El costo energético-ambiental de las comunicaciones

(A propósito ce la COP 25)

Ni la UIT ni la Internet Society han publicado estimaciones de la carga energética y ambiental que significan las telecomunicaciones. Solo en el caso de Ecuador hemos encontrado un dato al respecto: el uso de procesadores, centrales de almacenamiento, equipos de enfriamiento, entre otros aparatos, convierte a las telecomunicaciones en el sector que más energía consume en ese país. (El Telégrafo, 23/11/2018). En los Estados Unidos, el consumo de electricidad representaba, en 2015, el 39% del consumo total de energía (Wikipedia), pero no se especifica el porcentaje que corresponde a las telecomunicaciones.

Se sabe que estaciones de telecomunicaciones y los centros de datos son las infraestructuras que más consumen:
 "Las estaciones base de telecomunicaciones, tanto aisladas como conectadas a red (en entornos urbanos) cuentan con un elevado consumo energético, ya que los equipos de banda ancha, 3G o 4G y demás consumen mucha energía. (...) En los casos urbanos ... el uso de aire acondicionado de manera continua conllevaba un gasto energético elevado, además de ruidos, emisiones de CO2 y aumento de consumo energético, ya que estos sistemas necesitan una potencia energética elevada. (...) Las estaciones base de telecomunicaciones en entornos no urbanos ...  utilizan grupos electrógenos, principalmente de diésel, que ... supone vertidos y emisiones de CO2." (Interempresas.net, 31/01/2019)
En las estaciones no urbanas, se usan progresivamente energías renovables (solar y/o eólica) pero con grupos electrógenos para suplir la intermitencia de la generación natural. Estos sistemas híbridos permiten reducir significativamente la producción de CO2 (250 sistemas híbridos EcoCube permitieron reducir más de 9.000 toneladas de CO2 en 2018, según afirman en la web Interempresas. (ibidem)

"En los centros datos, donde residen los sistemas de almacenamiento, también hay que contar con el gasto energético de los sistemas de climatización, principalmente enfriamiento de los equipos electrónicos. Para reducir este gasto, donde, por una parte, los equipos producen calor y, por otra, se necesita más energía para contrarrestar este calor, se están produciendo interesantes movimientos orientados a facilitar la sostenibilidad de los centros de datos." Ahí, una vez más, no resultan apropiados los sistemas renovables, dado que no garantizan el suministro continuo, ni con el mismo nivel a lo largo del día. Pero "Dado que el principal “subproducto” es calor, la mejor manera de reducir el consumo es aprovechar este calor en otros usos, y evitar así el coste de la refrigeración. Los requisitos de refrigeración de un centro de datos que consuma unos 10 MW a plena carga, son equivalentes a las necesidades de calor de una población residencial de unos 20.000 habitantes. Claro que el problema, de nuevo es llevar ese calor de donde se produce a donde se requiere." Cosa que ya se hace en Estocolmo. (Almacenamiento.ituser.es, 9/04/2018).
 "A lo largo de 2018, la minería web – aplicaciones que se ejecutan en el navegador de un usuario y extraen criptomonedas con fines lucrativos – podría haber consumido hasta 18,8 gigavatios de energía eléctrica, de acuerdo con la investigación realizada por Kaspersky sobre el impacto económico y ambiental de esta actividad. Este dato evidencia que el impacto ambiental de la minería web ronda las 800 toneladas de emisiones de CO2" (Kaspersky Latam, via Infosertec, 8/10/2019). 
Hay que agregarle que cada "granja" de servidores dedicada a la minería ocupa una energía que podría servir una ciudad de 20.000 habitantes.

Según un proyecto europeo de investigación en el que participa la Universidad Carlos III de Madrid (UC3M), las Tecnologías de la Información y las Comunicaciones (TIC) pueden permitir reducir un 30 por ciento el consumo eléctrico en las ciudades, pero esto incluye el desarrollo de "redes eléctricas inteligentes", lo no releva directamente de las comunicaciones. (Portal uc3m.es, sin fecha)

Cargar un teléfono móvil implica un consumo promedio de 0,00095 kWh. Si lo hacemos cada día, implica 0,3475kWh. El total de usuarios únicos de redes móviles actualmente supone el 67 por ciento de la población mundial (GSMAIntelligence, 2019), o sea unos 5.100 millones de personas, y el número total de conexiones supera un 4 por ciento al de la población del planeta (Ericcson, 2018), lo cual significa 8.000 millones de aparatos. Si consideramos esta cantidad, obtenemos un gasto aproximativo de energía eléctrica de 2.780 mWh diarios, dedicados solamente a la carga de celulares.

Pero el uso del móvil solo representa el 19% de su huella ecológica. 73% corresponden a su manufactura según Green Alliance (2015). Y su vida útil es del orden de dos años, después de lo cual pasa a ser basura electrónico. Según un estudio publicado por los investigadores de la Universidad McMaster en Ontario, Canadá,  la industria tecnológica representaba el 3% de la huella de carbono global en 2007 (incluye PC, celulares, etc.). En 2015, se gastaron más de 246 billones de litros de agua, 39.360 millones de toneladas de combustible y 3.608 millones de toneladas de químicos para fabricar un portátil. Para producir 1 smartphone, se usan 44,4Kg de recursos naturales. Para 1 ordenador, más de 1 tonelada. (Tecnología libre de conflicto, 2015). La fabricación de un iPhone X produce unos 79 kilos de dióxido de carbono. (El Comercio.pe, 5/04/2018).

Un simple decodificador casero de televisión puede llegar a consumir 60W por hora incluso en stand-by, si es de los menos eficientes. (TopTen.cl, 11/01/1917)
"Un reciente estudio de 451 Research indica que los operadores de telecomunicaciones están cada vez más preocupados porque el despliegue de 5G causará un incremento de su factura de la luz, ya que esta tecnología consume más energía que 4G y las generaciones anteriores. (...) Lo mismo sucederá en los despliegues 5G en otros entornos fuera de las telecomunicaciones, como la industria conectada o los automatismos aplicados a infraestructuras críticas como el suministro de luz, gas, agua, etc. (...) Prevén que el gasto total de energía en las redes de comunicaciones podría incrementarse en un 150-170% para 2026." (itTrends.es, 8/03/2019)
Suplemento:
 "Según un estudio de Eon, plataformas como Netflix, Amazon Prime, Google o Youtube gastan cerca de 345000 millones de kilovatios por hora en electricidad en todo el mundo. Es el equivalente al 40% de todas las necesidades de eléctricas de Alemania. Además, los 4 gigantes consumieron el 58% de todo el consumo utilizado para Internet Según el estudio, sólo el 5G incrementará la demanda de electricidad hasta 3800 millones de kilovatios por hora para 2025." (Euronews, 16/12/2019)

10 de octubre de 2019

Lo que pueden hacer los titulares

Basta comparar titulares en diversos medios para darse cuenta de las mejores (y peores) formas de informar sintéticamente. Aprovecho el anuncio del nuevo premio Nobel de Física para una pequeña demostración:
  • "Un estadounidense y dos suizos obtuvieron el Premio Nobel de Física" (CNN Chile)
  • "El Nobel de Física recae en tres astrofísicos por sus trabajos sobre el Universo" (Euronews)
  • "Ganadores del Premio Nobel de Física 2019" (Hipertextual)
  • "Nobel de Física 2019: James Peebles, Michel Mayor y Didier Queloz ganan el premio por sus estudios sobre los exoplanetas y la evolución del universo" (BBC)
  • "La evolución del universo y el descubrimiento del primero de los exoplanetas se llevan el premio Nobel de Física 2019" (Xataka)
  • "Premio Nobel de Física 2019 para astrónomos que contribuyeron a la comprensión del Universo" (FayerWayer)
  • "Nobel al descubrimiento del primer planeta fuera del Sistema Solar, estudio que Nature dudó publicar" (Qué Pasa)
  • "James Peebles, el padre de la cosmología, recibe el Nobel de Física" (Qué Pasa)
  • "The Physics Nobel Goes to the Big Bang and Exoplanets" (Wired)
  • "The Nobel Prize in physics has gone to the discovery of an exoplanet orbiting a star" (MIT Tech review)
  • "Nobel prize in physics for discovery of exoplanet orbiting a star" (New Scientist)

¿Cual le parece mejor? (Para mí, corto y apuntando al significado central).

3 de octubre de 2019

Infografía en tiempos de smartphones

Las dificultades económicas de muchos medios de prensa desde el auge de los smartphones y las redes sociales han tenido muchas veces como consecuencia la reducción o eliminación de sus departamentos de gráfica, las dificultades para adaptar la gráfica a estos nuevos medios de recepción influyendo sin duda también en ello. El mismo tamaño de la pantalla obliga a utilizar una técnica muy diferente, esencialmente dinámica -dependiendo de acciones del receptor- en vez de estática.

Como dicen Ángel Vizoso & Xosé López-García *, la infografía es uno de los géneros periodísticos que más cambios ha experimentado en los últimos años. Una primera etapa fue la adaptación digital orientada a la pantalla del PC (1995 en adelante), que significó el paso de lo estático (la reproducción del gráfico impreso) a la interactividad ("infografía dinámica", ver mi artículo al respecto en Revista Latina, 1999), pasando por diversas combinaciones multimediales.

Por mucho tiempo la solución interactiva fue dada por la tecnología "Flash", que requería un "plug-in" agregado al navegador del cliente (abandonado con el desarrollo del HTML5). Este recurso se usó en la infografía periodística en diarios -por primera vez, al parecer- como El País, de España, cuando confeccionó un infográfico secuencial para explicar el accidente del Concorde (24 de julio 2000). [Aquí un screenshot estático]. En 2003, El Mundo hizo un excelente trabajo parecido para explicar el accidente del transbordar Columbia.

Los smartphones obligaron a una nueva transformación, aunque posiblemente menos radical -aunque obligatoria- en cuanto al diseño interactivo pero más exigente en cuanto a las dimensiones espaciales.

Algunos medios han optado por traspasar al móvil el gráfico destinado al PC (donde es legible), obligando al lector a agrandarlo y desplazarlo para poder leerlo, lo cual no solo es incómodo sino contrario muchas veces a una adecuada comprensión. Lo adecuado consiste en fragmentar la información en unidades informativas menores que se puedan "abrir" interactivamente en un orden que sea significativo para el lector. Un intento en este sentido ha sido realizado hace algún tiempo por el diario chileno "El Mercurio" en octubre 2018 con un análisis del cuadro "La primavera"de Boticelli: aquí, primero la página del diario impreso, luego un par de screenshots de la app.


El mes siguiente, hizo algo parecido por los 400 años de la iglesia de San Francisco. El infográfico gigante (una página entera, ver primera imagen) ha sido reducido a múltiples vistas parciales (ejemplo en segunda imagen) que, sin embargo necesitan algún deslizamiento.



Pero hace tiempo que no vemos nada parecido en diaros chilenos, al menos anunciado en sus páginas web.

En su estudio comparado de la versión en PC y en móvil de una serie de casos de los diarios El País y The New York Times, Vizoso "ha advertido que, en la versión móvil, El País opta por la eliminación de la infografía sustituyéndola por, por ejemplo, fotografía (ejemplo adjunto) mientras que en The New York Times se ha observado una clara voluntad de dar forma a los contenidos pensando tanto en los dispositivos móviles como en la pantalla del ordenador. Esta última idea redunda en la creación de contenidos estáticos y, especialmente, interactivos que aprovechan al máximo la capacidad de las nuevas pantallas mediante una adaptación mínima que no altera en absoluto la naturaleza del contenido publicado".

Medios internacionales nos proporcionan ejemplos más recientes, como cuando Euronews publica un artículo sobre la huelga mundial por el clima, que dice "para mover el mapa, utiliza dos dedos" (27/09/2019).

En su "mapa de la corrupción", marcando un país con el dedo aparece el porcentaje correspondiente, pero el mapa no se puede agrandar  (27/09/2019).

En algunos casos inserta un tuit propio, permitiendo ver una imagen más grande en Twitter o pasar a una página web referida el proyecto pero sin infografía.

A diferencia de Euronews que no lo permite, BBC News permite pasar a una vista horizontal, lo cual permite apreciar mejor sus histogramas.(11/06/2019). Ocasionalmente señala también que se puede ampliar una imagen pulsando sobre ella.

En Euronews también  pudimos ver este ejemplo sobre la corrupción en América Latina, donde se muestra el nombre del país y un porcentaje al pulsar sobre un país del mapa. (27/09/2019).


*Angel Vizoso: "Diferencias y similitudes en la presentación de infografía en las app y las versiones en línea de El País y The New York Times", en "Narrativas jornalísticas para dispositivos móveis", Editora LabCom.IFP, 2019, pp.280-301. 

26 de septiembre de 2019

PC: Las culpas de la complejidad

En julio de 2015, Microsoft lanzó Windows 10, con un nuevo sistema de actualizaciones "automáticas", mayores cada seis meses y menores ("parches") cada mes. Desde entonces, hemos visto las actualizaciones 1511, 1607, 1703, 1709, 1803, 1809 y 1903 (sin contar los parches mensuales). Según Microsoft, la "última importante" es la 1809, de octubre 2018.

Estas actualizaciones son acumulativas, lo cual quiere decir que hacen que el sistema operativo sea cada vez más complejo. Y, por lo tanto, más difícil de mantener evitando errores aleatorios. Pantallas negras, reinicios aleatorios e inesperados han estado a la orden del día. Generalmente no afectan a todos los usuarios: se sabe ya que dependen muchas veces de la versión del procesador del PC. Pero es obvio que la misma complejidad creciente del software (con millones de líneas de código) abre la puerta a estos errores. Como sabe todo programador, arreglar un error conduce muchas veces a la aparición de otro error; y esto es exponencial al crecer un programa. "La compañía sigue lanzando parches que corrigen problemas de cierta importancia, pero a la vez llegan con otros que a veces incluso afectan más que los anteriores." (Genbeta, 19/09/2019)

Aunque existe una herramienta que permite impedir la instalación de actualizaciones (StopUpdates10), en principio no es conveniente impedirlas, por razones de seguridad, sí puede ser útil para postergar alguna, hasta estar seguro de que no viene viciada.

19 de septiembre de 2019

Acumular y analizar datos sin afectar la privacidad

La inquietud - si no el disgusto - por la recopilación de datos personales por las empresas ha ido en aumento especialmente en los dos últimos años. La Comisión Europeo tomó cartas en el asunto y estableció un reglamento de protección de datos (GDPR). Pero también hay expertos que han abordado la problemática buscando satisfacer tanto los usuarios como las empresas.

Google también buscó este tipo de solución y liberó una librería de "privacidad diferencial", sistema que permite acumular y procesar más datos personales de todo tipo, sin poder siquiera identificar cuales son esos datos concretos corresponden a una persona en particular. Para ello no basta encriptar los datos de identificación, como lo demostró en 2007 un intento de Netflix de usar esta fórmula. Es necesario recurrir a un método más complejo, que consiste en "añadir más ruido estadístico a la respuesta cuanto más específica es la pregunta que se hace a la base de datos". Pero, como consecuencia,  "el ruido será mayor cuanto menor sea el tamaño de esta, y por tanto los resultados tenderán progresivamente a ser más y más inservibles a nivel práctico". (Hipertextual, 16/09/2019)

Esto significa que se pueden mantener las bondades de un análisis sobre grandes conjuntos (como todos los registrados en una base de datos masiva) pero es totalmente inútil para grupos reducidos o minorías poco numerosas. A pesar de ello, según comentan en Google, puede usarse con bases de datos de apenas un centenar de individuos porque "las grandes tendencias poblacionales se mantienen completamente".

El método "tradicional" consiste en utilizar bases relacionales, que se constituyen de diversas tables relacionadas entre sí por algún identificador. Se puede tener una tabla con la identidad de los usuarios, cada uno con un código único-  independiente de los demás datos -, y otra tabla con todos los demás datos (gustos, opciones, acciones, etc.) enlazada a la primera con dichos códigos, y luego se pueden realizar todas las operaciones estadísticas sobre la segunda tabla.´Esto, sin embargo, puede plantear otros problemas, como los de seguimiento individual, que puede ser importante para casos como las redes sociales y los servicios que dependen de la personalización. La identificación con fines de personalización es también un asunto clave para los medios de prensa que se ven forzados a financiarse mediante muros de pago: requieren saber qué es lo que atrae a cada lector para que se suscriban y mantengan su suscripción: no basta ya con contar las páginas vistas (cfr. D.Muñoz en Medium, 25/06/2019).

De cualquier modo, la encriptación de los datos de identidad es indispensable. La compañía de seguridad informática vpnMento reveló hace poco que la mayoría de los datos personales de casi todos los ecuatorianos fueron expuestos porque el servidor que contenía las bases de datos carecía de una protección adecuada. Pero, además, todos los datos podían ser leídos y relacionados, incluyendo nombres, domicilios, información financiera (los saldos de las cuentas de los clientes de un gran banco ecuatoriano) y datos como historial educativo y registro de trabajo. (BBC, 16/09/2019)

Pero no olvidemos que dejamos muchos rastros en Internet. Javier Lacort demostró hace unos días en Xataka lo fácil que es encontrar muchos datos personales de cualquiera incluso a partir de un mero número telefónico (Xataka, 15/09/2019).

5 de septiembre de 2019

La nube se fragmenta

No solo existen varias grandes plataformas que ofrecen su "nube" para servir a las empresas, permitiendo que estas se vean liberadas de los problemas y costos de desarrollar sus propios centros de datos (e instalar o renovar costosos equipos). Las mismas plataformas que ofrecen sus servicios "en la nube" se ven ahora obligadas a fragmentar esta nube, multiplicando sus centros de datos a distintos niveles (lo que explica, por ejemplo, que Amazon y Google instalen centros de datos en numerosos países). La tendencia es cada vez más a constituir sitios "en el borde de la red", es decir lo más cerca posible de los usuarios. Con ello, la latencia que se obtiene es menor, aumenta la fiabilidad, y la seguridad de la red inalámbrica mejora considerablemente. Ya existen  128.233 sitios en el borde de la red y se espera que crezcan a 418.803 en el 2025, lo cual representa un aumento del 226%. (DiarioTI, 15/08/2019)

Estos centros de datos locales son especialmente necesarios para "los casos de uso donde la cantidad de datos hace que no sea práctico transferirlos a través de la red, directamente a la nube, o desde la nube al punto de uso, debido a problemas relacionados con el ancho de banda, el volumen de datos o el costo." (ibidem) Las "ciudades inteligentes" y los gobiernos son casos típicos de ello, como también la entrega de contenido de alta resolución y la realidad virtual, para los cuales se espera un importe auge de aquí a 2025. También lo requerirán aplicaciones cruciales como las de los vehículos autónomos y la atención médica digital. La red 5G será fundamental para esto. Las expectativas en Latinoamérica para soportar las aplicaciones con uso intensivo de datos en el borde de la red fueron de 54% en un estudio de Vertiv. (ibidem)

En forma complementaria, se trata de desarrollar aplicaciones altamente compactas y eficientes que puedan operar con los datos en los equipos de los usuarios, descargando así los servidores de algunas tareas, permitiendo que se dediquen más eficientemente al envío y recepción de datos y repartiendo mejor el consumo de energía. Esto implica una mayor automatización, el desarrollo de una inteligencia artificial adecuada y una nueva combinación de hardware y software en distintos niveles: con un centro de datos de nube masivo, luego centros de datos de nube regionales, luego centros de datos de nube en el borde y algunas funciones a nivel de usuario. Se necesita un enfoque totalmente nuevo: para el almacenamiento, los servidores, la red y el sistema en su conjunto. (DiarioTI, 31/08/2019) ¡Una difícil combinación de jerarquía y descentralización!

También se trabaja en hacer más eficiente el reparto del trabajo en los servidores, algo altamente complejo dado que miles de usuarios pueden solicitar simultáneamente operaciones muy diferentes. para ello se recurre a la inteligencia artificial y el MIT ha desarrollo un modelo de aprendizaje automático de prueba y error que ayuda en las decisiones de programación de cargas de trabajo específicas en grupos de servidores específicos 30% más rápido que los mejores algoritmos de programación manuscrita. (IntelDig, 4/09/2019)

25 de julio de 2019

Los peligros de los juegos con selfies

El más famoso de este tipo de juego es probablemente FaceApp,  que utiliza inteligencia artificial para mostrar distintas apariencias de uno mismo y se ha transformado en viral. Pero ya se sabe que es de origen ruso y que recolecta datos privados del usuario presentes en su smartphone.
En el caso de FaceApp, la alerta es importante pues la información biométrica de cada persona se está convirtiendo en la llave a nuestro mundo digital. "La autenticación biométrica de reconocimiento facial es ahora una tecnología doméstica regular, pues tiene el potencial de proporcionar niveles increíbles de seguridad. Por ejemplo, algunos ya lo usamos diariamente para desbloquear el smartphone. Entonces imaginemos qué sucede si ponemos a disposición nuestros datos para facilitar el acceso a alguien más a algo tan personal como nuestro dispositivo móvil." (Cita de Fortinet en Infosertec, 23/07/2019)
Pero FaceApp no es la única app que "lee" y modifica los rostros: son varias. Para cada una de ellas, si las utilizamos (o las dejamos en manos de nuestros hijos, que gozan con ellas), ¿hemos verificado las condiciones del servicio y la política de privacidad? ¿O hemos "dejado la puerta abierta" a que utilicen nuestra cara (o la de parientes o amigos) para lo que sea, incluso penetrar en cuentas reservadas que requieren una cara a modo de password?

Existe por cierto un vacío legal en cuanto a normativas sobre reconocimiento facial y este es aún lejos de ser perfecto: un estudio del MIT determinó que "un índice de error de hasta un 34,4% más alto para las mujeres de piel más oscura que para los hombres de piel más clara a la hora de reconocer sus rostros" (Hpertextual, 17/06/2019), lo cual no quita que varios smartphones ya lo ofrezcan como clave de acceso.

Sin embargo, la policía de varios países y las compañías aéreas han empezado a crear bases de datos biométricos de la huella dactilar y la cara de los ciudadanos (como de los más de 500 millones de habitantes de la UE). (ibidem).

En otras palabras, nuestra cara está ya en muchas partes (partiendo por nuestra cuenta en Facebook o Google) y es mejor no pensar en ella como método de identificación de acceso a cuentas personales sensibles o a los smartphones.

Y no olvidemos que a todas nuestras fotos publicadas en Facebook esta empresa agrega un código de reconocimiento que le permite "seguir la pista" a todas las copias de las mismas que se pueden esparcir por la red, adquiriendo luego datos de quienes las reprodujeron. 

20 de junio de 2019

Big Brother quiere crecer: Facebook se ataca al mundo del e-dinero

Facebook, unido a Uber, Visa, Mastercard, PayPal y más de 20 otros  financistas -que formaron la Libra Association-, anunció el lanzamiento de su propia criptomoneda,la "Libra", que serviría para compras y transferencia entre todos sus usuarios. Desde entonces, no solo surgieron las inmediatas dudas y la alarma de los observadores en sitios web especializados sino también las de los legisladores. Desde el escándalo de Cambridge Analytica del año pasado, pocos confían en la privacidad de los datos y muchos se preguntan acerca de la nueva mezcla resultante de datos sociales y financieros. 

Las preguntas son muchas “¿Qué harán con esa información y qué van a implementar para mantener esa información a salvo?” se pregunta la analista Aurelie L’Hostis de Forrester.(AP, 18/06/2019)
"Hay preguntas sobre privacidad, seguridad y regulación; sobre el comercio de descentralización completa para la velocidad y escala de transacción; sobre cuánto poder ejercerá la Asociación Libra como resultado; sobre la estabilidad de monedas múltiples respaldada y la Reserva de Libra; sobre la mecánica de usar realmente la criptomoneda en todas las formas en que Facebook lo visualiza; y sobre lo que significa todo para el futuro de Facebook. Además, ¿cómo planean Calibra [la filial que lo administrará] y otras compañías ganar dinero con todo esto?" (PCmag, 19/06/2019)
En los Estados Unidos, "un demócrata de alto rango en la Comisión Bancaria del Senado dijo que la nueva moneda virtual de Facebook le daría a la red social ventajas competitivas injustas en cuanto a la recopilación de datos de transacciones financieras, así como el control sobre cuotas." “Facebook ya es demasiado grande y demasiado poderosa”, dijo el senador Sherrod Brown. (AP, 18/06/2019)
"Con el anuncio de su criptomoneda, Facebook continúa su expansión sin control y extiende su alcance en la vida de sus usuarios", dijo Maxine Waters, quien preside el Comité de Servicios Financieros de la Cámara de Representantes, en un comunicado. "El mercado de la criptomoneda actualmente carece de un marco regulatorio claro que brinde una protección sólida para los inversores, los consumidores y la economía. Los reguladores deben ver esto como una llamada de atención para tomar en serio los asuntos relacionados con la privacidad y seguridad nacional, los riesgos de ciberseguridad y los riesgos comerciales que se relacionan con las criptomonedas", agregó. (Cnet, 19/06/2019)
En Francia, "El ministro de Finanzas de Francia, Bruno Le Maire, insistió en que sólo los gobiernos pueden emitir monedas soberanas. Dijo que Facebook debe garantizar que Libra no perjudicará a los consumidores ni se utilizará en actividades ilegales." (AP, 18/06/2019)

El represengtante de Alemania ante el Parlamento Europeo, Markus Ferber, declaró que el proyecto necesitaba control regulatorio, advirtiendo que Facebook podría ser un “banco en la sombra”, agregando qjue "Las corporaciones multinacionales como Facebook no deben poder operar en un “nirvana” regulatorio cuando introducen monedas virtuales." (Tekcrispy, 18/06/2019)  
"A los funcionarios de la Unión Europea (UE) les preocupa que el crecimiento de Libra pueda amenazar la estabilidad de las monedas tradicionales. Teniendo en cuenta que Facebook planea llevar su nueva plataforma de pagos a más de 1.7 mil millones de usuarios no bancarizados en todo el mundo, se trata de una amenaza creíble."(Tekcrispy, 18/06/2019)
La Libra estaría disponible a mediados de 2020, acompañada de una cartera digital llamada Calibra, y permitiría pagos a través de sus plataformas WhatsApp y Messenger en todo el mundo.

En el futuro, con la Libra y Calibra, Facebook parece querer desplegar "un conjunto completo de servicios financieros para finalmente convertirse en un banco en sí mismo: transferencias globales de dinero, préstamos, crédito, comercio, y quién sabe, tal vez incluso cuentas de cheques y de ahorro de Libra o cuentas de inversión". (PCmag, 19/06/2019) ¿Y controlar financieramente todos los afiliados a su red? 

13 de junio de 2019

La IA cuestionada a pesar de que entusiasma a muchos

A la vista del desarrollo de la IA en los Estados Unidos, China y el Reino Unido, Francia y Alemania han formulado sus propios planes de desarrollo de la misma. Incluso Argentina dio a conocer este año un plan de IA para 2020-2030 (El Mercurio, 9/6/2019). Esto es una invitación para que Chile no se quede atrás, cosa en que coinciden investigadores y académicos del país. Pero, como bien dice Pablo Barcelo, subdirector del Instituto Milenio Fundamentos de Datos, "esto va más allá de la computación : necesitamos una estrategia que haga conversar, por ejemplo, a abogados con filósofos y personas de las ciencias sociales". (Ibidem)

La reflexión es indispensable, y es necesario definir bien de qué se trata, ya que los términos actuales "IA" cubren procedimientos y usos variados. 

Me siguen molestando los términos "inteligencia artificial". Aunque podemos cambiar "artificial" por "de máquina", lo cual sería más correcto y más claro, hablar de "inteligencia" sigue siendo controversial en relación a lo que hacen estas máquinas de cómputo.

La semana pasada tuvieron lugar dos eventos importantes en que se discutió esta materia: el "AI Everything" de Dubái,  que tuvo 20.000 asistentes, y el Foro de Comunicación Euroasiático en Almaty, Kazajistán, al que asistieron cientos de periodistas, investigadores, políticos y especialistas en tecnología.(Euronews, 30/05/2019) 

En Dubai, Kevin Dallas, Vicrepresidente de AI & Inteligent Cloud en Microsoft, subrayó que "Nosotros, como humanos que somos, tenemos capacidades únicas, tenemos un regalo, un don. Poseemos: creatividad, imaginación, estas capacidades que las máquinas no tendrán nunca. La pregunta es ¿Cómo emplear estas características únicas del ser humano junto al poder de la Inteligencia Artificial para ser capaces, así, de ofrecer beneficios a la sociedad?" La palabra clave es "creatividad". La verdadera inteligencia es la capacidad de adaptarse, lo cual implica imaginación y creatividad, "características únicas del ser humano". El análisis de big data, el reconocimiento de formas, no tienen relación alguna con este concepto de inteligencia. La inteligencia está en quienes diseñan los algoritmos y en quienes definen las categorías utilizadas para el análisis. ¡No es de la máquina! Aunque gracias a ello se mejoren los dignósticos en el campo de la salud, algo que se destacó ampliamente en Dubai y también se abordó en Almaty.

Ahí también se advirtió sobre los sesgos de los algoritmos. Muthoni Wanyoike, de Women in Data Science, que enseña a las mujeres de Nairobi los conocimientos necesarios para trabajar con la Inteligencia Artificial, hace una advertencia: "El problema de los prejuicios, es que actualmente sólo el 0,5% de la población mundial puede codificar o construir algoritmos. Eso significa que estamos confiando en un porcentaje muy pequeño de la población para crear sistemas que funcionen en todo el mundo". (Euronews, 30/05/2019). ¡Los cálculos de la máquina pueden ser correctos, pero la inteligencia humana detrás de ellos puede ser cuestionable!

Otro tipo de cuestionamiento también ha surgido: el entrenar a un solo modelo de IA puede emitir tanto carbono como cinco autos en sus vidas (fabricación incluida), el equivalente a 626.000 libras de CO2, según investigadores de la Universidad de Massachusetts, Amherst. (MIT Tech Review, 6/06/2019)

La extrema importancia que se está dando a la IA, sobre todo cuando se la confunde con el mero análisis de los big data, es una injusticia para la inteligencia humana. Por cierto, hay que reconocer la inteligencia de quienes trabajan en el desarrollo de la inteligencia de máquina, especialmente de los que crean redes neuronales artificiales. ¿Pero no es mayor la inteligencia del creador que la de su obra? Es posible que lleguemos alguna vez a una inteligencia de máquina más poderosa y eficiente que nuestra inteligencia humana, pero seguirá siendo un producto de nuestra inteligencia, lo que algunos parecen a veces olvidar. ¡No cedamos a esta tentación!

No olvidemos tampoco que el ser humano es más que su cerebro y que el pensamiento es más que una función fisiológica. Es una expresión del espíritu, de la conciencia, algo consubstancial al ser humano, que sería iluso esperar de la máquina. David Chalmers ha analizado este planteamiento en forma extensa y ha descartado que pueda existir espíritu en una copia artificial del cerebro humano. Podrá tener experiencias, pero no será en modo alguno el equivalente de la conciencia humana. (Chalmers, D.: La mente consciente, Gedisa, 1996). El mismo Ray Kurzweil, "gurú" de la futura "singularidad" recuerda que el tema de la conciencia -en relación a la reproducción artificial del cerebro humano- "no será el objeto solamente de educados debates filosóficos, sino que serán confrontados como cuestiones vitales, prácticas, políticas y legales”. (La singularidad está cerca, Lola Books 2012, p.373).

Referencias para profundizar:
Colle, R. (2015): ¿Ser digital o ser humano?", Ed.INCOM-Chile. 2a ed.2018 
Colle, R. (2016): La ciencia y el espíritu: Científicos en busca del alma, en ISSUU. ePub 
Penrose, R. (1994): Shadows of the Mind: A Search for the Missing Science of Consciousness, Oxford University Press‎.

30 de mayo de 2019

¿Balcanización de la tecnología?

Si Donald Trump continúa con sus ataques a las empresas tecnológicas chinas como Huawei y le siguen fabricantes o distribuidores de otros países (como ya ocurre en Japón), corremos el riesgo de que cada país ponga barreras comerciales que frenarán y balcanizarán el desarrollo tecnológico. Lo peor, para los usuarios de todo el mundo, es la exclusión de ciertos países y fabricantes de los acuerdos sobre estándares, como la anunciada prohibición para Huawei de usar el estándar de las tarjetas de memoria SD e incluso el Wi-Fi (aunque esto fue revertido por el momento). Se ha advertido de este peligro en el Foro Económico Mundial: 
"Ya estamos viendo la balcanización de la tecnología en muchos dominios", dice Zvika Krieger, jefe de política tecnológica en el Foro Económico Mundial. "Si esta tendencia continúa, las empresas tendrán que crear diferentes productos para diferentes mercados, lo que llevará a una mayor divergencia". Esto también tendrá un efecto escalofriante en la innovación, donde las empresas digitales ya no pueden asumir la capacidad de escalar globalmente con la misma facilidad y velocidad que ha definido la década pasada de innovación sin precedentes. (MIT Tech Review, 24/05/2019)
Las decisiones de Estados Unidos frente a China podrían costarle caro: es posible que China deje de venderle las "tierras raras", vitales para su industria electrónica (Importa el 80% desde China). Y EE.UU. no tiene instalaciones de procesamiento de estos materiales, lo cual limita sus posibilidades de recurrir a los escasos otros proveedores (Brasil, Australia y Rusia). (Teckcrispy, 29/05/2019).

23 de mayo de 2019

Facebook, todopoderoso

Facebook planea crear un "Consejo Asesor de Contenido", que "tendrá la última palabra sobre la eliminación de ciertos mensajes y podrá obligar a la empresa a restaurarlos" (El País, 18/05/2019). Obviamente, solo podrá decidir sobre una pequeñísima fracción de los casos en que se pediría revisar las decisiones de los 14.000 revisores de contenido que trabajan todos los días para bloquear los mensajes considerados ofensivos, complementando la operación del sistema de inteligencia artificial que ya revisa los mensajes. Dada la enorme cantidad de estos, proveniendo de los 2.000 millones de usuarios (1.490 milliones activos cada día, según Brandwatch.com), "algunas veces se eliminan mensajes inofensivos, y otras se dejan publicaciones como la retransmisión en vivo del terrorista que asesinó recientemente a 50 personas en una mezquita de Nueva Zelanda." (ibidem). 

Es difícil no ser escéptico. Más aún si se considera la política de la empresa que es posible deducir de sus anuncios - como integrar completamente a la red social sus subsidiarias WhatsApp e Instagram - y de sus dudosas declaraciones acerca de una "mejor" protección de la privacidad. Existen múltiples demandas para que WhatsApp e Instagram vuelvan a separarse, entre otros de varios políticos  candidatos a las elecciones presidenciales de EE.UU. en 2020, además del anuncio de que se le impondría una multa de US$5,000 millones por quebrantar la privacidad. Sheryl Sandberg, directora de operaciones de Facebook, en una reunión con legisladores estadounidenses, desvió el tema, afirmando que Facebook es una "fuerza compensatoria para las grandes compañías tecnológicas de China” (Tekcrispy, 17/05/2019). 

El anuncio de Zuckerberg de que Facebook estaría "girando hacia la privacidad" es solo un "volador de luces" para distraer a los críticos, dice The Guardian.
"El modelo para el futuro de su compañía es WeChat, que se utiliza en China para todo, desde enviar mensajes a la familia hasta leer noticias y opiniones, pedir comida, pagar en las máquinas expendedoras o pagar un taxi. Más allá de los abusos, Facebook tiene otro plan para hacerse esencial para la vida cotidiana de las personas en todo el mundo. Planea crear una nueva moneda criptográfica para sus usuarios. Los usuarios de WhatsApp pronto podrían usar la moneda para ordenar entregas de alimentos o comprar boletos de tren. Podría consolidar un poder global aún más inexplicable en Facebook. La última unificación de estas plataformas bajo la nave nodriza, Facebook, podría bloquear efectivamente cualquier intento gubernamental de separar a Instagram y WhatsApp de la compañía." (The Guardian, 10/05/2019).
El apetito de Zuckerberg para controlarlo todo ("Ya tiene demasiado poder", dice Alex Stamos, su antiguo director de seguridad) se ha hecho aún más patente con la inscripción en el Registro de Comercio de Ginebra de Libra Networks LLC por Facebook Global Holdings II LLC el 2 de mayo, para ofrecer servicios de tecnología financiera y desarrollo y producción de software. Entre sus campos de aplicación se encuentra la tecnología blockchain, big data, inversiones, análisis de datos, y gestión de identidad. la marca a marca comercial “Libra" ya había sido registrada por Facebook en la Oficina de Patentes y Marcas de los Estados Unidos en junio (Coincrispy, 17/05/2019). 

Con este monopolio mundial entraríamos no solo en un "capitalismo de la vigilancia" (cfr. Shoshana Zuboff, The Age of Surveillance Capitalism) sino en una esclavitud orweliana. ¿Se aceptará?

11 de abril de 2019

Más dudas y advertencias sobre la IA

Considéranse los algoritmos utilizados para el análisis de "big data", algo que para muchos requiere "inteligencia artificial". Llevan a tomar decisiones sobre la base de cierta visión del momento, categorizar temas y personas, y -consecuentemente- reforzar tales temas, opiniones y conductas por la vía de la repetición. ¿Se detienen alguna vez los analistas a estudiar series históricas para revisar las predicciones en función del contexto histórico? Es tal la cantidad de información que es difícil que ocurra (aunque es muy probable que las mayores empresas -con grandes presupuestos- lo hagan... pero no lo publicarán, porque será "información estratégica").

Como ya señalé en mi post del 7 de febrero, los algoritmos que emplea la IA responden bien en términos binarios o de clasificación, algo del tipo “blanco-negro”, pero el trabajador humano es el único capaz de trabajar con elementos que se mueven en “grises” o no son tan evidentes. Aún así, se pretende "democratizar la IA" gracias a las técnicas de análisis más avanzadas como el "aprendizaje profundo" de la inteligencia artificial, lo cual permitiría al cualquiera (sin formación especializada) "evitar sesgos", como pretende Amazon Web Service (según TICbeat, 10/04/2015), algo que Karen Hao, del MIT, considera extremadamente difícil. 

Según el premio Nobel Richard Feynman, el grave problema asociado al uso de este tipo de análisis es que el análisis de datos masivos para detectar patrones sin ninguna idea preconcebida de lo que uno busca es el talón de Aquiles de los estudios basados en el análisis de datos masivos. Es seguro que se encontrarán patrones, y es probable que sean engañosos, absurdos o algo peor. (MIT Technology Reviews, 5/02/2019).

Además, un grupo de matemáticos ha puesto en evidencia los límites de la IA, desarrollando un problema matemático que los algoritmos inteligentes no pueden resolver, demostrando que la capacidad de aprendizaje de estos sistemas no es infinita. El ejemplo utilizado es el de un sitio web que muestra publicidad dirigida a los visitantes que naveguen por la web con mayor frecuencia, pero no se puede saber de antemano cuál de los visitantes volverá a visitar la página. (Computer Hoy, 14/01/2019)  La Neural Information Processing Systems Conference (NeurIPS) también advirtió recientemente del problema asociado a la reproducibilidad de los resultados obtenidos del análisis mediante IA, la validez de los resultados quedando muchas veces sin demostrar:
"En febrero, un estadístico de la Universidad de Rice advirtió que las técnicas de aprendizaje automático probablemente alimentan esa crisis porque los resultados que producen son difíciles de auditar. Es un problema preocupante ya que el aprendizaje automático se está aplicando cada vez más en áreas importantes como la atención médica y la investigación de medicamentos. La lista de verificación de reproducibilidad de NeurIPS trata de abordar el problema. Entre otras cosas, los investigadores deben proporcionar una descripción clara de su algoritmo; una descripción completa de su proceso de recolección de datos; un enlace a cualquier entorno de simulación que usaron durante el entrenamiento; y un recorrido completo de los datos que guardaron, arrojaron y por qué. La idea es crear un nuevo estándar de transparencia para que los investigadores muestren cómo llegaron a sus conclusiones." (MIT technology Review, 10/04/2019) 
Nuria Oliver, directora de Investigación en Ciencia de Datos en Vodafone, doctorada en el MIT Media Lab, miembro de la Real Academia Española de Ingeniería (RAI) y de su versión europea (Euro-CASE) y otras asociaciones norteamericanas y europeas, se dice "muy preocupada" por el desconocimiento general acerca de las posibilidades y riesgos de la IA entre la población", porque laa IA "otorga un poder sin precedentes a quienes tengan la capacidad" de usarla. Propone que los sistemas de IA estén sujetos a controles de calidad igual que otros productos y bienes que utilizamos.
"Oliver cree que es urgente que expertos y expertas de distintos campos (no solo tecnológicos sino también de ámbito del derecho, la economía, la ética, la informática, la filosofía y las ciencias políticas) inventen, evalúen y validen en el mundo real diferentes métricas de justicia algorítmica para diferentes tareas. También apunta la necesidad de proponer un marco de modelado teórico que ayude a los usuarios de dichos algoritmos a asegurarse de que las decisiones tomadas son lo más justas posible." (Xataka, 3/04/2019)

28 de marzo de 2019

¿La prensa embelesada por Facebook?

"Estábamos embelesados con las maravillas de plataformas como Google, Facebook… pero realmente nos habían comprado con bastante falta de sentido crítico, y de repente nos damos cuenta de que muchas de las características de estas empresas entran en conflicto con nuestra razón de ser social." (E. Arriagada, en entrevista de José Gonzáles en Medium, 29/08/2018)
Por mi parte, desconfié de Facebook desde el primer momento. No encontrarán ahí ninguna cuenta a mi nombre. Quizás me haya perdido algunas cosas y me las siga perdiendo, pero me parece que no valdrían el precio. Y, en mi propios textos, he tenido más de una oportunidad de denunciar los desaguisados de Facebook y su escaso nivel ético.

También he demostrado el grave error que sería basar la política en las opiniones vertidas en la redes sociales, dominadas y manipuladas por activistas que no representan en modo alguno el sentir real de una población. La "mayoría silenciosa" sigue siendo silenciosa en estos medios, así que hacen falta otros mecanismos para conocer su sentir. Ahí es, sin duda, donde ha de intervenir el buen periodismo, y no hacerse eco o dependiente de las redes y de los "trending topics". Como agrega Arriagada: "los medios tradicionales se están dando cuenta de que lo digital, como herramienta, puede hacer mucho daño". Y aunque preconiza seguir usando estas plataformas para llegar a los lectores - ¿al menos como vía complementaria o para atraerlos? -, yo veo este proceder como una perversión del recurso (¡Que me disculpen!).

"¿Cambiarle la vida a la gente a través del móvil?": una propuesta algo exagerada para la prensa, aunque quizás sea más bien una observación de lo ya ocurrido para una parte de la población a un nivel más global. ¿Puede una app "resolver la vida a la gente"? ¡Otra pregunta muy lejana de las posibilidades reales (aunque entiendo que pueda ser más bien simbólica).

No discuto en absoluto que lo que se requiere es un periodismo de excelente calidad, efectivamente adaptado al nuevo medio de lectura (con un "empaquetamiento atractivo"), e igualmente sujeto a cobro, como lo era el papel. Pocos han descubierto, aún, cómo hacerlo (¡y no he descubierto aún una app convincente!).

Nota: Mi escepticismo y preocupación es sin duda fruto de que hace años que entré en la categoría de "senior". Pero enseñé sistemas digitales en una escuela de periodismo desde la década de los 80, es decir desde el nacimiento de los computadores personales, adentrándome fuertemente en las comunicaciones digitales en los 90, administrando cursos por web y sitios web institucionales por varios años. Algunos me consideraron demasiado adelantado en esa época y no creyeron en mi visión de futuro. Sin embargo, no preví, después, el auge de las redes sociales, pero no me dejé "embelesar" por ellos. ¿Estaré ahora "atrasado"? ¡Que se me conceda el beneficio de la edad! (¡Pocos pueden decir que vieron, como yo, un primer computador -dedicado- en 1958, siendo un colegial!)

21 de marzo de 2019

Opiniones, política y gobernanza en el futuro digital

"Ya Umberto Eco decía que Internet le había dado voz a una sarta de estúpidos." (UnoCero, 10/03/2019). Cualquiera puede hoy publicar su opinión y, más grave aún, crear una noticia falsa. Y noticia y opinión pueden ser reproducidas casi hasta el infinito en las redes sociales, generando movimientos sociales que no tienen ninguna justificación, como está ocurriendo en Chile a propósito del reemplazo de los antiguos medidores domiciliarios del consumo eléctrico con medidores "inteligente". Aunque se ha demostrado científicamente que ambos miden lo mismo, está creciendo un movimiento a favor del rechazo del cambio (obligatorio por ley).

"Aunque estas notas falsas, estas “fake news”, son descalificadas rápidamente, mucha gente no tiene ni interés ni investiga al respecto. Se queda con la primera opinión que lee. [...] Entonces caemos en la tiranía de la opinión, en donde las redes sociales incluso pueden hacer mofa del que no está de acuerdo con las mayorías." (UnoCero, 10/03/2019). O donde parece haber una mayoría que, en realidad, está equivocada (los que no opinan siendo, muchas veces, más numerosos).

El problema es que este tipo de situación puede influenciar cada vez más la política. Incluso Daniel Innerarity, catedrático de Filosofía Política en la UPV, asegura que "Tal vez la única certeza política que tenemos hoy en día es que la política en el futuro será muy diferente de la política en el pasado." Pero la política basada en las opiniones vertidas en las redes es solo una parte del problema: recordemos que TODO lo que hacemos en internet termina acumulándose en grandes bases de datos (big data) controladas por la grandes plataformas (Google, Facebook, etc.) donde es analizado y donde pueden recurrir los gobiernos para orientar sus políticas.
"Los seres humanos hemos ido generando a lo largo de la historia dispositivos para organizar nuestra relación con el mundo y esos dispositivos han planteado a su vez problemas inéditos, como efectos secundarios o descontrol. La tecnología digital no es sólo más potente que otras tecnologías, sino también mas disruptiva frente a la concepción que teníamos del mundo. Lo que en relación con tecnologías menos sofisticadas era una disfunción ocasional, ahora aparece como una posible pérdida masiva de control sobre nosotros mismos y una transferencia de nuestra capacidad de autogobierno hacia unos algoritmos opacos, unas máquinas irresponsables y una destrucción del trabajo que desmonta nuestro ya precario contrato social. [...] Las revoluciones políticas más importantes no se están produciendo en los parlamentos, las fábricas y las calles sino en los laboratorios y las empresas tecnológicas." (Innerarity) 
¿Será la democracia de los datos más representativa que otro modelo de democracia? ¿Los datos reemplazarán las urnas? Dependerá de decisiones también políticas... en que deberíamos poder participar. ¿Pero de qué modo podremos hacerlo? ¿Serán oscuros algoritmos que finalmente decidirán? ¿Decidirán (indirectamente) las plataformas las políticas públicas? Podrían hacerlo si no se toman medidas que limiten su uso y poder. Y en esto, también han de intervenir los políticos. Al menos una senadora norteamericana (Elisabeth Warren) ya levantó la voz (El Mundo, 11/03/2019). Hace falta que otros, tanto en ese país como en otros, tomen conciencia de esta nueva realidad.

Referencias:
Innerarity, D.: Lo digital es lo político, La Vanguardia, 11/03/2019. https://www.lavanguardia.com/opinion/20190311/46959863101/lo-digital-es-lo-politico.html
López, M.: Una sociedad de opiniones, casi siempre desinformadas, UnoCero, 10/03/2019. https://www.unocero.com/noticias/sociedad-de-opiniones-internet/

14 de marzo de 2019

Las complejas redes de académicos

Los académicos son parte de una estructura formal, su facultad o instituto, que es una red jeráquica. Es posible que tenga varios niveles y divisiones -aun que no muchos- como un consejo de facultad y diversos departamentos. Dentro de estas divisiones, la red es esencialmente informal pero un estudio sociométrico mostraría que los vínculos no son todos equivalentes ni de "todos con todos" fuera de las obligaciones académicas estructurales: puede haber varios subgrupos "en estrella" (todos con todos) -de amigos-, con algunos que conectan estos subgrupos entre si, y también algunos marginados. E incluso las relaciones de amistad pueden tener niveles, de mayor a menor intimidad. Una debilidad de las redes informales en el seno de una red jerárquica es que la aparición de un nuevo miembro puede perturbarlas grandemente y producir una reorganización, lo cual puede ser incluso fuente de graves problemas de orden interno. Tanto los despidos como las contrataciones son muestran una debilidad de la estructura jerárquica, tanto como la sustitución de la autoridad.
Fuera de su unidad académica, los miembros también tendrán muchas veces relaciones con algunos de otras unidades, más estrechas o más laxas. Y este mismo fenómeno aparecerá entre académicos de diversas universidades. 

A estas redes propias y específicas de cada persona, se suman las redes profesionales: asociaciones gremiales nacionales e internacionales. Y cada académico puede pertenecer a varias de estas. La complejidad aumenta por el hecho de que existen asociaciones de asociaciones, algunas veces interconectadas e incluso conectadas con otras de otra naturaleza (como de asociaciones de profesionales con asociaciones de facultades).
Ejemplos:
  • INCOM Chile (Asociación gremial de investigadores)
  • CONFIBERCOM Confederación Iberoamericana de Asociaciones Científicas y Académicas de Comunicación
  • ALAIC Asociación Latinoamericana de Investigadores en Comunicación
  • FELAFACS Federación Latinoamericana de Facultades de Comunicación Social

Siguen las relaciones que cada académico mantiene con los editores de sus publicaciones y, aunque no los conozca, vínculos difusos con sus lectores.
Entre estos dos conjuntos surge el de las redes "bibliográficas", que une un autor con los que cita en sus publicaciones. En algunos casos puede haber algún vínculo personal, pero lo más probable es que se trate solo de un conocimiento intermediado por la lectura de lo publicado, un vínculo más bien "fantasmal" - del que los citados pueden, incluso, no estar enterados - aunque importante en materia de difusión del conocimiento.
Se combinan así muchos de los modelos de redes que señala Niall Ferguson:
"Consideremos todas las formas en que una red puede diferir de la versión aleatoria (véase la figura). Una red puede ser altamente determinista y no aleatoria, como una celosía acristalada o una malla, donde cada nodo posee el mismo número de aristas que todos los demás (parte inferior izquierda). También puede ser modular, es decir, que puede dividirse en una serie de racimos separados, vinculados no obstante por unas pocas aristas que actúan como puentes (parte inferior derecha). Asimismo puede ser heterogénea: cada nodo difiere sobremanera de los demás en términos de centralidad, como ocurre en las redes libres de escala que caracterizan las comunidades online (parte superior izquierda). Algunas redes son a la vez jerárquicas y modulares, como los complejos sistemas genéticos que regulan el metabolismo, sometiendo a ciertos subsistemas al control de otros (parte superior derecha)." (p. 67; gráfico a continuación)


Como menciona A.J. Flanagin, la evolución tecnológica y los medios digitales han introducido no solo una mayor facilidad de acceso, sino también de contacto "personal" aunque a través de las redes sociales digitales, todo lo cual introduce diferencias en la direccionalidad, la escala de la comunicación, el tamaño de la audiencia y la identificación de los miembros de estas redes, que hacen necesarios nuevos métodos e instrucciones para el examen de la influencia social en línea. J.B. Whalter también recalca que esta nueva combinación de relaciones interpersonales directas y mediadas obliga a considerar en las manifestaciones proporcionadas por los nuevos medios nuevos metaconstructos que pueden afectar la comunicación de manera importante.

Las redes muy densas tienden a ser refractarias al cambio y a la innovación (es lo que ocurre en una red jerárquica como una facultad), pero los puntos de contacto entre redes son una excelente fuente de introducción de innovación, según apunta N.Ferguson (p70).

Referencias
Ferguson, N. (2018): La plaza y la torre, Barcelona, Penguin Random House, Colección Debate.
Flanagin, A.J. (2017): Online Social Influence and the Convergence of Mass and Interpersonal Communication, Human Communication Research, Vol.43, Issue 4.
Walther, J.B. (2017): The Merger of Mass and Interpersonal Communication via New Media: Integrating Metaconstructs, Human Communication Research, Vol.43, Issue 4. 

7 de febrero de 2019

Trampas y engaños del análisis automático de datos

De acuerdo con una encuesta de Xplenty, el tiempo medio que dedican los científicos de datos sólo en depurar los datos antes de analizarlos ocupa entre el 50 y el 90% de su tiempo (TICbeat, 9/08/2016). Por esta razón muchas compañías optan por herramientas de inteligencia artificial para realizar esta tarea. Pero si bien los algoritmos que emplea la IA responden bien en términos binarios o de clasificación entre “blanco-negro”, el trabajador humano es el único capaz de trabajar con elementos que se mueven en “grises” o no son tan evidentes. Se trata aquí de entrenar la IA para que clasifique correctamente los datos y es una primera fuente de distorsión.

Sin embargo, se pretende que es posible evitar la intervención humana y sus sesgos gracias a las técnicas de análisis más avanzadas como el "aprendizaje profundo" de la inteligencia artificial. Se pretende que estas técnicas pueden ser utilizadas para "hacer predicciones muy precisas" incluso sin tener conocimiento experto. Así, desde hace varios años, Amazon Web Services ofrece un servicio de Machine Learning dirigido a "democratizar absolutamente el acceso a la hasta ahora cara y compleja tecnología analítica, ya que, aseveran desde la compañía, su uso no requiere ser un experto en estadística, en análisis de datos o en machine learning" (TICbeat, 10/04/2015). 

En 2015 el MIT dio a conocer su "Data Science Machine":
"La necesidad de intervención humana puede haberse visto superada gracias a un nuevo sistema desarrollado por ingenieros del Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés) al que han bautizado Data Science Machine o DSM. Se trata de un software capaz de encontrar patrones en las relaciones entre los datos y realizar predicciones a partir de las mismas mejor que la mayoría de los humanos y en un periodo de tiempo mucho menor." (El País, 26/11/2015) 
El MIT siguió perfeccionando su técnica, más conocida ahora como  "aprendizaje profundo" (deep learning) automático. Recurre a técnicas de comparación y a la estadística para identificar automáticamente patrones en los datos (pero estos patrones pueden ser totalmente inútiles como veremos más adelante). El aprendizaje profundo representa una manera fundamentalmente diferente de programar computadoras. "Es un problema que ya es relevante, y va a ser mucho más relevante en el futuro", dice Tommi Jaakkola, profesor del MIT que trabaja en estas aplicaciones (MIT Technologya Review, 12/04/2017). Lo que confirma un estudio elaborado por Gartner, que predice que en el 2019 el Deep Learning será la tecnología estrella que se impondrá a la inteligencia artificial (PC World en Español, 21/09/2017). 

Pero el aprendizaje automático no dirigido es un espejismo. 
"El Deep Learning necesita muchos conocimientos y ayuda humana. Gran cantidad de datos. Como mínimo 100.000. Esa es la cifra que ha dado Jeff Dean, Google Senior Fellow y líder de Google Brain, en una charla en el escenario del VB Summit 2017 en Berkeley, California. Los humanos continúan siendo necesarios: para etiquetar los ejemplos y escribir algo de procesamiento de datos para producir el dataset que luego se utilizará y reglas que permitan extraer los patrones que interesan." (Genbeta, 24/10/2017)
Y Karen Hao, del mismo MIT, advierte sobre la dificultad de evitar la introducción de sesgos en el análisis "automático". La introducción del sesgo no siempre es obvia durante la construcción de un modelo, requerido como base de partida. Muchas de las prácticas estándar en aprendizaje profundo no están diseñadas teniendo en cuenta tal detección de sesgos. Los problemas son múltiples: incógnitas desconocidas (como las diferentes interpretación de ciertos conceptos en diferentes lugares, por ejemplo), procesos imperfectos, desconocimiento del contexto social, y falta de definiciones imparciales. El sesgo puede aparecer mucho antes de que se recopilen los datos, así como en muchas otras etapas del proceso de aprendizaje profundo: 
1. El marco el problema. Lo primero que hacen los científicos informáticos cuando crean un modelo de aprendizaje profundo es decidir qué es lo que realmente quieren lograr. 
2. La recolección de los datos: o los datos recopilados no son representativos de la realidad, o reflejan prejuicios existentes. 
3. La preparación de los datos: es posible introducir sesgos durante la etapa de preparación de los datos, lo que implica seleccionar qué atributos se desea que el algoritmo considere. (MIT Technology Reviews, 5/02/2019)
El premio Nobel Richard Feynman ha demostrado el grave problema asociado al uso de este tipo de análisis para hacer predicciones sobre la base del descubrimiento de patrones. Feynman muestra que el análisis de datos masivos para detectar patrones sin ninguna idea preconcebida de lo que uno busca, es el talón de Aquiles de los estudios basados en el análisis de datos masivos. Encontrar algo inusual o sorprendente después de que ya haya ocurrido no es inusual ni sorprendente. Es seguro que se encontrarán patrones, y es probable que sean engañosos, absurdos o algo peor. Cuando miramos hacia atrás en el tiempo a cualquier grupo de cosas, podemos encontrar siempre algunas características comunes, por lo que encontrarlas no prueba nada en absoluto ni permite hacer predicciones.
"En 2011, Google creó un programa de inteligencia artificial llamado Google Flu que utilizaba consultas de búsqueda para predecir los brotes de gripe. El programa de minería de datos de Google examinó 50 millones de consultas de búsqueda e identificó las 45 que estaban más estrechamente relacionadas con la incidencia de la gripe. Es otro ejemplo más de la trampa de extracción de datos: un estudio válido especificaría las palabras clave de antemano. Después de emitir su informe, Google Flu sobreestimó el número de casos de gripe durante 100 de las siguientes 108 semanas, en un promedio erróneo de casi el 100 por ciento. Google Flu ya no hace predicciones de gripe.
Un comercio de Internet pensó que podría aumentar sus ingresos cambiando el color de su página web azul tradicional a un color diferente. Después de varias semanas de pruebas, la compañía encontró un resultado estadísticamente significativo: al parecer, Inglaterra ama el verde azulado. [...] Al final resultó que, cuando el color de la página web de Inglaterra se cambió a verde azulado, los ingresos cayeron." (G.Smith, Wired, 11/01/2019)
¡Se podrían comparar los precios del Bitcoin a lo largo de su historia con una guía telefónica y se encontrarían correlaciones! "Una buena investigación comienza con una idea clara de lo que uno está buscando y espera encontrar. La minería de datos solo busca patrones e inevitablemente encuentra algunos." ¡Y estos son totalmente inútiles! "Encontrar un patrón inusual en Big Data no es más convincente (o útil) que encontrar una matrícula inusual fuera del aula de Feynman." (ibidem). "No se trata de obtener bases de datos al por mayor y luego ver qué es lo que se encuentra dentro de ese cúmulo de información. Eso es como buscar una aguja en un pajar sin saber que se busca una aguja." (Xataka, 6/02/2019).

Manejarse correctamente en el ámbito del análisis de big data puede ser tan complicado como subir por la torre de Pisa sin hacerla caer.

Referencias
Barbuzano, J.: "El ‘big data’ ya no necesita a los humanos", El País, 269/11/2015.  [Una afirmación claramente errónea]
Castillo, T.: "El Deep Learning necesita 100.000 ejemplos para funcionar y ayuda de humanos", Genbeta, 24/10/2017.
Hao, K.: "This is how AI bias really happens—and why it’s so hard to fix", MIT Technology Reviews, 5/02/2019.
Macías, E.: "Amazon democratiza la generación de modelos predictivos con Machine Learning", TICbeat, 10/04/2015.
Smith, G.: "The Exaggerated Promise of So-Called Unbiased Data Mining", Wired, 11/01/2019.

24 de enero de 2019

Tecnologías de Comunicación: Estudio evolutivo-comparativo

Sería un error creer que las "nuevas tecnologías" de comunicación son inventos totalmente originales. Una revisión más detallada de la historia humana puede traer algunas sorpresas que han pasado por alto los historiadores de la comunicación. Tratamos aquí de identificado lo que permanece estable y lo que las nuevas tecnologías han heredado de técnicas antiguas, algunas incluso milenarias.
Lo que sigue aquí es solamente el texto que acompaña una selección de imágenes especialmente seleccionadas para poner en evidencia lo permanente y lo heredado, cuya versión integral (ilustrada) puede ser descargada del sitio web de la Asociación Chilena de Investigadores en Comunicación, INCOM-Chile.

Evolución histórica
1836 es el principal punto de inflexión, producto de la aparición de la electricidad (aunque no lo parezca en el gráfico histórico).

Las herramientas han dependido siempre de la mano y de la voz.
La memoria ha dependido de la tradición oral hasta que la escritura tomó el relevo.

Herramientas para el sonido
La conservación del sonido fue por largo tiempo un problema sin solución.
Hubo que esperar el invento de los organillos y órganos mecánicos, al  parecer a fines del siglo XVIII, con un sistema que ya fue digital (utilizando hoyos o púas).

El micrófono es sin duda la herramienta que menos ha cambiado desde su invento (los cambios son solo de apariencia y calidad).
El fonógrafo (1877) fue el primer artefacto capaz de grabar y reproducir sonido, pronto reemplazado por el gramófono. Recurría a la vibración de una púa siguiendo un surco en un disco (método aún utilizado en tocadiscos modernos).

La transmisión a distancia era otro problema, que se solucionó inicialmente mediante sonidos codificados en instrumentos básicos como tambores, campanas y trompetas.
El teléfono apareció en 1857 (Bell en 1876), y fue seguido de la radio. Todo termina en el smartphone.

El teléfono y sus redes
En la central telefónica se conectaban dos clientes con un cable uniendo sus líneas. (Los primeros computadores se inspiraron de esta central para su programación.)

La red forma parte de la estructura computacional de Von Neumann. El “modelo de Von Neumann” es similar a la estructura del sistema nervioso (cognitivo) humano. Con ella, teniendo a la vista las redes telefónicas, se pudo pensar en utilizar el computador en las comunicaciones ya que los periféricos se unían por cables y podían estar a gran distancia.
Las conexiones (redes) siguen siendo fundamentales.

La red digital
En 1969 se realizó la primera conexión remota entre computadores y en 1972 se creó el primer programa de correo electrónico. Se utilizaban los “terminales” (pantalla heredada de la televisión y teclado, heredero de la máquina de escribir) de grandes computadores y conexiones de cables telefónicos, mediante un “módem” (modulador-demodulador de las señales, inventado en 1943 por IBM para la transmisión de datos de tarjetas perforadas usadas en “tabuladoras”).

Herramientas para el sonido
La modulación eléctrica permitió las grabadoras analógicas de cinta (abierta o en cassette), que tuvieron un gran auge, compitiendo con los discos de acetato, y fueron reemplazadas por el registro digital magnético en cintas y óptico en CD y DVD.
El disco óptico (CD/DVD) heredó la idea básica del disco de música Herophon.
El smartphone es ahora un importante instrumento de transmisión del sonido.
El último avance parece ser la introducción de comandos de voz para utilizar las máquinas y también para consultar información o, incluso, ordenar compras.  

Herramientas manuales para el texto
El cincel se transformó en pluma, y -con Gutenberg- se empezaron a fabricar tipos móviles que se colocaban en “galeras” (marcos).
La máquina vino en ayuda de la mano en 1874, inventada por Sholes & Glidden y fabricada por Remington. En 1961, IBM introdujo su Selectric, eléctrica y con cabezal de tipos intercambiable.

La transmisión del texto
El telégrafo inició la era de la transmisión instantánea a distancia, recurriendo a la codificación del texto en la primera forma digital moderna: el código Morse.

El texto móvil
Imprenta: Escribir era colocar tipos móviles en la galera, luego tipear línea por línea, las que se fundían en la linotipia, inventada en 1885.
Computación: Programar fue primero colocar cables móviles, luego perforar tarjetas y luego tipear texto visible en pantalla y memorizado magnéticamente. Con cables uniendo las máquinas se hizo posible transmitir el texto.

La programación
La programación es una forma de registrar datos que determinan acciones sucesivas. Se inició con los organillos y órganos mecánicos y ya fue digital (con hoyos o púas), al parecer desde el siglo XVIII.
Luego se utilizaron tarjetas perforadas en máquinas de tejer (Jacquard, 1804) y en la tabulación del censo de Estados Unidos de 1890 (Hollerith), tarjeta que adaptó IBM para programar sus computadores entre 1960 y 1970.

Herramientas de comunicación visual
La comunicación visual, salvo los gestos, implica el desarrollo de técnicas de conservación.
De lo analógico a lo digital: el cincel, lápiz o pincel siguió dominando por siglos (aún con medios digitales).

Los gestos, sin embargo, están adquiriendo una nueva relevancia en el mundo digital. Tuvimos primero las pantallas táctiles con un solo contacto luego con gestos de varios dedos en la pantalla.
Google empezó en 2015 a desarrollar el Project Soli, recientemente aceptado por la FCC, gracias al cual ya no será necesario tocar la pantalla ya que utilizará una radiofrecuencia como la del radar.

La conservación pasó por una multiplicidad de soportes analógicos hasta llegar a los ópticos y magnéticos digitales, combinándose texto e imagen.
El registro de la imagen se facilitó con la fotografía y 
dio un enorme salto con la digitalización y los “smartphones”.

La digitalización de la imagen recurrió a un procedimiento ya adoptado para imprimir fotografías en los periódicos: la matriz de puntos.
Y el registro del movimiento también pasó de lo analógico a lo digital, aunque manteniendo el sistema de cuadros sucesivos, y surgiendo el 3D, producto de una multiplicación de cámaras.

Un nuevo procedimiento de registro y reproducción en 3D implica nuevos recursos técnicos, basados en el laser, la holografía, que sigue siendo experimental desde su invento en 1962.

La comunicación digital
Si todo es digital, todo puede ser transmitido por señales eléctricas, ópticas (cables de cobre y de fibra óptica) o de radio (satélites, celulares, WiFi, etc.).
La fibra óptica actualiza una técnica conocida y utilizada desde muy antiguo, cuando se usaba el fuego como medio de advertencia (aún presente en los faros). La luz también es utilizada para la comunicación entre barcos, con los reflectores de señales. 

La versión ilustrada de este texto puede ser descargada aquí.