23 de mayo de 2019

Facebook, todopoderoso

Facebook planea crear un "Consejo Asesor de Contenido", que "tendrá la última palabra sobre la eliminación de ciertos mensajes y podrá obligar a la empresa a restaurarlos" (El País, 18/05/2019). Obviamente, solo podrá decidir sobre una pequeñísima fracción de los casos en que se pediría revisar las decisiones de los 14.000 revisores de contenido que trabajan todos los días para bloquear los mensajes considerados ofensivos, complementando la operación del sistema de inteligencia artificial que ya revisa los mensajes. Dada la enorme cantidad de estos, proveniendo de los 2.000 millones de usuarios (1.490 milliones activos cada día, según Brandwatch.com), "algunas veces se eliminan mensajes inofensivos, y otras se dejan publicaciones como la retransmisión en vivo del terrorista que asesinó recientemente a 50 personas en una mezquita de Nueva Zelanda." (ibidem). 

Es difícil no ser escéptico. Más aún si se considera la política de la empresa que es posible deducir de sus anuncios - como integrar completamente a la red social sus subsidiarias WhatsApp e Instagram - y de sus dudosas declaraciones acerca de una "mejor" protección de la privacidad. Existen múltiples demandas para que WhatsApp e Instagram vuelvan a separarse, entre otros de varios políticos  candidatos a las elecciones presidenciales de EE.UU. en 2020, además del anuncio de que se le impondría una multa de US$5,000 millones por quebrantar la privacidad. Sheryl Sandberg, directora de operaciones de Facebook, en una reunión con legisladores estadounidenses, desvió el tema, afirmando que Facebook es una "fuerza compensatoria para las grandes compañías tecnológicas de China” (Tekcrispy, 17/05/2019). 

El anuncio de Zuckerberg de que Facebook estaría "girando hacia la privacidad" es solo un "volador de luces" para distraer a los críticos, dice The Guardian.
"El modelo para el futuro de su compañía es WeChat, que se utiliza en China para todo, desde enviar mensajes a la familia hasta leer noticias y opiniones, pedir comida, pagar en las máquinas expendedoras o pagar un taxi. Más allá de los abusos, Facebook tiene otro plan para hacerse esencial para la vida cotidiana de las personas en todo el mundo. Planea crear una nueva moneda criptográfica para sus usuarios. Los usuarios de WhatsApp pronto podrían usar la moneda para ordenar entregas de alimentos o comprar boletos de tren. Podría consolidar un poder global aún más inexplicable en Facebook. La última unificación de estas plataformas bajo la nave nodriza, Facebook, podría bloquear efectivamente cualquier intento gubernamental de separar a Instagram y WhatsApp de la compañía." (The Guardian, 10/05/2019).
El apetito de Zuckerberg para controlarlo todo ("Ya tiene demasiado poder", dice Alex Stamos, su antiguo director de seguridad) se ha hecho aún más patente con la inscripción en el Registro de Comercio de Ginebra de Libra Networks LLC por Facebook Global Holdings II LLC el 2 de mayo, para ofrecer servicios de tecnología financiera y desarrollo y producción de software. Entre sus campos de aplicación se encuentra la tecnología blockchain, big data, inversiones, análisis de datos, y gestión de identidad. la marca a marca comercial “Libra" ya había sido registrada por Facebook en la Oficina de Patentes y Marcas de los Estados Unidos en junio (Coincrispy, 17/05/2019). 

Con este monopolio mundial entraríamos no solo en un "capitalismo de la vigilancia" (cfr. Shoshana Zuboff, The Age of Surveillance Capitalism) sino en una esclavitud orweliana. ¿Se aceptará?

11 de abril de 2019

Más dudas y advertencias sobre la IA

Considéranse los algoritmos utilizados para el análisis de "big data", algo que para muchos requiere "inteligencia artificial". Llevan a tomar decisiones sobre la base de cierta visión del momento, categorizar temas y personas, y -consecuentemente- reforzar tales temas, opiniones y conductas por la vía de la repetición. ¿Se detienen alguna vez los analistas a estudiar series históricas para revisar las predicciones en función del contexto histórico? Es tal la cantidad de información que es difícil que ocurra (aunque es muy probable que las mayores empresas -con grandes presupuestos- lo hagan... pero no lo publicarán, porque será "información estratégica").

Como ya señalé en mi post del 7 de febrero, los algoritmos que emplea la IA responden bien en términos binarios o de clasificación, algo del tipo “blanco-negro”, pero el trabajador humano es el único capaz de trabajar con elementos que se mueven en “grises” o no son tan evidentes. Aún así, se pretende "democratizar la IA" gracias a las técnicas de análisis más avanzadas como el "aprendizaje profundo" de la inteligencia artificial, lo cual permitiría al cualquiera (sin formación especializada) "evitar sesgos", como pretende Amazon Web Service (según TICbeat, 10/04/2015), algo que Karen Hao, del MIT, considera extremadamente difícil. 

Según el premio Nobel Richard Feynman, el grave problema asociado al uso de este tipo de análisis es que el análisis de datos masivos para detectar patrones sin ninguna idea preconcebida de lo que uno busca es el talón de Aquiles de los estudios basados en el análisis de datos masivos. Es seguro que se encontrarán patrones, y es probable que sean engañosos, absurdos o algo peor. (MIT Technology Reviews, 5/02/2019).

Además, un grupo de matemáticos ha puesto en evidencia los límites de la IA, desarrollando un problema matemático que los algoritmos inteligentes no pueden resolver, demostrando que la capacidad de aprendizaje de estos sistemas no es infinita. El ejemplo utilizado es el de un sitio web que muestra publicidad dirigida a los visitantes que naveguen por la web con mayor frecuencia, pero no se puede saber de antemano cuál de los visitantes volverá a visitar la página. (Computer Hoy, 14/01/2019)  La Neural Information Processing Systems Conference (NeurIPS) también advirtió recientemente del problema asociado a la reproducibilidad de los resultados obtenidos del análisis mediante IA, la validez de los resultados quedando muchas veces sin demostrar:
"En febrero, un estadístico de la Universidad de Rice advirtió que las técnicas de aprendizaje automático probablemente alimentan esa crisis porque los resultados que producen son difíciles de auditar. Es un problema preocupante ya que el aprendizaje automático se está aplicando cada vez más en áreas importantes como la atención médica y la investigación de medicamentos. La lista de verificación de reproducibilidad de NeurIPS trata de abordar el problema. Entre otras cosas, los investigadores deben proporcionar una descripción clara de su algoritmo; una descripción completa de su proceso de recolección de datos; un enlace a cualquier entorno de simulación que usaron durante el entrenamiento; y un recorrido completo de los datos que guardaron, arrojaron y por qué. La idea es crear un nuevo estándar de transparencia para que los investigadores muestren cómo llegaron a sus conclusiones." (MIT technology Review, 10/04/2019) 
Nuria Oliver, directora de Investigación en Ciencia de Datos en Vodafone, doctorada en el MIT Media Lab, miembro de la Real Academia Española de Ingeniería (RAI) y de su versión europea (Euro-CASE) y otras asociaciones norteamericanas y europeas, se dice "muy preocupada" por el desconocimiento general acerca de las posibilidades y riesgos de la IA entre la población", porque laa IA "otorga un poder sin precedentes a quienes tengan la capacidad" de usarla. Propone que los sistemas de IA estén sujetos a controles de calidad igual que otros productos y bienes que utilizamos.
"Oliver cree que es urgente que expertos y expertas de distintos campos (no solo tecnológicos sino también de ámbito del derecho, la economía, la ética, la informática, la filosofía y las ciencias políticas) inventen, evalúen y validen en el mundo real diferentes métricas de justicia algorítmica para diferentes tareas. También apunta la necesidad de proponer un marco de modelado teórico que ayude a los usuarios de dichos algoritmos a asegurarse de que las decisiones tomadas son lo más justas posible." (Xataka, 3/04/2019)

28 de marzo de 2019

¿La prensa embelesada por Facebook?

"Estábamos embelesados con las maravillas de plataformas como Google, Facebook… pero realmente nos habían comprado con bastante falta de sentido crítico, y de repente nos damos cuenta de que muchas de las características de estas empresas entran en conflicto con nuestra razón de ser social." (E. Arriagada, en entrevista de José Gonzáles en Medium, 29/08/2018)
Por mi parte, desconfié de Facebook desde el primer momento. No encontrarán ahí ninguna cuenta a mi nombre. Quizás me haya perdido algunas cosas y me las siga perdiendo, pero me parece que no valdrían el precio. Y, en mi propios textos, he tenido más de una oportunidad de denunciar los desaguisados de Facebook y su escaso nivel ético.

También he demostrado el grave error que sería basar la política en las opiniones vertidas en la redes sociales, dominadas y manipuladas por activistas que no representan en modo alguno el sentir real de una población. La "mayoría silenciosa" sigue siendo silenciosa en estos medios, así que hacen falta otros mecanismos para conocer su sentir. Ahí es, sin duda, donde ha de intervenir el buen periodismo, y no hacerse eco o dependiente de las redes y de los "trending topics". Como agrega Arriagada: "los medios tradicionales se están dando cuenta de que lo digital, como herramienta, puede hacer mucho daño". Y aunque preconiza seguir usando estas plataformas para llegar a los lectores - ¿al menos como vía complementaria o para atraerlos? -, yo veo este proceder como una perversión del recurso (¡Que me disculpen!).

"¿Cambiarle la vida a la gente a través del móvil?": una propuesta algo exagerada para la prensa, aunque quizás sea más bien una observación de lo ya ocurrido para una parte de la población a un nivel más global. ¿Puede una app "resolver la vida a la gente"? ¡Otra pregunta muy lejana de las posibilidades reales (aunque entiendo que pueda ser más bien simbólica).

No discuto en absoluto que lo que se requiere es un periodismo de excelente calidad, efectivamente adaptado al nuevo medio de lectura (con un "empaquetamiento atractivo"), e igualmente sujeto a cobro, como lo era el papel. Pocos han descubierto, aún, cómo hacerlo (¡y no he descubierto aún una app convincente!).

Nota: Mi escepticismo y preocupación es sin duda fruto de que hace años que entré en la categoría de "senior". Pero enseñé sistemas digitales en una escuela de periodismo desde la década de los 80, es decir desde el nacimiento de los computadores personales, adentrándome fuertemente en las comunicaciones digitales en los 90, administrando cursos por web y sitios web institucionales por varios años. Algunos me consideraron demasiado adelantado en esa época y no creyeron en mi visión de futuro. Sin embargo, no preví, después, el auge de las redes sociales, pero no me dejé "embelesar" por ellos. ¿Estaré ahora "atrasado"? ¡Que se me conceda el beneficio de la edad! (¡Pocos pueden decir que vieron, como yo, un primer computador -dedicado- en 1958, siendo un colegial!)

21 de marzo de 2019

Opiniones, política y gobernanza en el futuro digital

"Ya Umberto Eco decía que Internet le había dado voz a una sarta de estúpidos." (UnoCero, 10/03/2019). Cualquiera puede hoy publicar su opinión y, más grave aún, crear una noticia falsa. Y noticia y opinión pueden ser reproducidas casi hasta el infinito en las redes sociales, generando movimientos sociales que no tienen ninguna justificación, como está ocurriendo en Chile a propósito del reemplazo de los antiguos medidores domiciliarios del consumo eléctrico con medidores "inteligente". Aunque se ha demostrado científicamente que ambos miden lo mismo, está creciendo un movimiento a favor del rechazo del cambio (obligatorio por ley).

"Aunque estas notas falsas, estas “fake news”, son descalificadas rápidamente, mucha gente no tiene ni interés ni investiga al respecto. Se queda con la primera opinión que lee. [...] Entonces caemos en la tiranía de la opinión, en donde las redes sociales incluso pueden hacer mofa del que no está de acuerdo con las mayorías." (UnoCero, 10/03/2019). O donde parece haber una mayoría que, en realidad, está equivocada (los que no opinan siendo, muchas veces, más numerosos).

El problema es que este tipo de situación puede influenciar cada vez más la política. Incluso Daniel Innerarity, catedrático de Filosofía Política en la UPV, asegura que "Tal vez la única certeza política que tenemos hoy en día es que la política en el futuro será muy diferente de la política en el pasado." Pero la política basada en las opiniones vertidas en las redes es solo una parte del problema: recordemos que TODO lo que hacemos en internet termina acumulándose en grandes bases de datos (big data) controladas por la grandes plataformas (Google, Facebook, etc.) donde es analizado y donde pueden recurrir los gobiernos para orientar sus políticas.
"Los seres humanos hemos ido generando a lo largo de la historia dispositivos para organizar nuestra relación con el mundo y esos dispositivos han planteado a su vez problemas inéditos, como efectos secundarios o descontrol. La tecnología digital no es sólo más potente que otras tecnologías, sino también mas disruptiva frente a la concepción que teníamos del mundo. Lo que en relación con tecnologías menos sofisticadas era una disfunción ocasional, ahora aparece como una posible pérdida masiva de control sobre nosotros mismos y una transferencia de nuestra capacidad de autogobierno hacia unos algoritmos opacos, unas máquinas irresponsables y una destrucción del trabajo que desmonta nuestro ya precario contrato social. [...] Las revoluciones políticas más importantes no se están produciendo en los parlamentos, las fábricas y las calles sino en los laboratorios y las empresas tecnológicas." (Innerarity) 
¿Será la democracia de los datos más representativa que otro modelo de democracia? ¿Los datos reemplazarán las urnas? Dependerá de decisiones también políticas... en que deberíamos poder participar. ¿Pero de qué modo podremos hacerlo? ¿Serán oscuros algoritmos que finalmente decidirán? ¿Decidirán (indirectamente) las plataformas las políticas públicas? Podrían hacerlo si no se toman medidas que limiten su uso y poder. Y en esto, también han de intervenir los políticos. Al menos una senadora norteamericana (Elisabeth Warren) ya levantó la voz (El Mundo, 11/03/2019). Hace falta que otros, tanto en ese país como en otros, tomen conciencia de esta nueva realidad.

Referencias:
Innerarity, D.: Lo digital es lo político, La Vanguardia, 11/03/2019. https://www.lavanguardia.com/opinion/20190311/46959863101/lo-digital-es-lo-politico.html
López, M.: Una sociedad de opiniones, casi siempre desinformadas, UnoCero, 10/03/2019. https://www.unocero.com/noticias/sociedad-de-opiniones-internet/

14 de marzo de 2019

Las complejas redes de académicos

Los académicos son parte de una estructura formal, su facultad o instituto, que es una red jeráquica. Es posible que tenga varios niveles y divisiones -aun que no muchos- como un consejo de facultad y diversos departamentos. Dentro de estas divisiones, la red es esencialmente informal pero un estudio sociométrico mostraría que los vínculos no son todos equivalentes ni de "todos con todos" fuera de las obligaciones académicas estructurales: puede haber varios subgrupos "en estrella" (todos con todos) -de amigos-, con algunos que conectan estos subgrupos entre si, y también algunos marginados. E incluso las relaciones de amistad pueden tener niveles, de mayor a menor intimidad. Una debilidad de las redes informales en el seno de una red jerárquica es que la aparición de un nuevo miembro puede perturbarlas grandemente y producir una reorganización, lo cual puede ser incluso fuente de graves problemas de orden interno. Tanto los despidos como las contrataciones son muestran una debilidad de la estructura jerárquica, tanto como la sustitución de la autoridad.
Fuera de su unidad académica, los miembros también tendrán muchas veces relaciones con algunos de otras unidades, más estrechas o más laxas. Y este mismo fenómeno aparecerá entre académicos de diversas universidades. 

A estas redes propias y específicas de cada persona, se suman las redes profesionales: asociaciones gremiales nacionales e internacionales. Y cada académico puede pertenecer a varias de estas. La complejidad aumenta por el hecho de que existen asociaciones de asociaciones, algunas veces interconectadas e incluso conectadas con otras de otra naturaleza (como de asociaciones de profesionales con asociaciones de facultades).
Ejemplos:
  • INCOM Chile (Asociación gremial de investigadores)
  • CONFIBERCOM Confederación Iberoamericana de Asociaciones Científicas y Académicas de Comunicación
  • ALAIC Asociación Latinoamericana de Investigadores en Comunicación
  • FELAFACS Federación Latinoamericana de Facultades de Comunicación Social

Siguen las relaciones que cada académico mantiene con los editores de sus publicaciones y, aunque no los conozca, vínculos difusos con sus lectores.
Entre estos dos conjuntos surge el de las redes "bibliográficas", que une un autor con los que cita en sus publicaciones. En algunos casos puede haber algún vínculo personal, pero lo más probable es que se trate solo de un conocimiento intermediado por la lectura de lo publicado, un vínculo más bien "fantasmal" - del que los citados pueden, incluso, no estar enterados - aunque importante en materia de difusión del conocimiento.
Se combinan así muchos de los modelos de redes que señala Niall Ferguson:
"Consideremos todas las formas en que una red puede diferir de la versión aleatoria (véase la figura). Una red puede ser altamente determinista y no aleatoria, como una celosía acristalada o una malla, donde cada nodo posee el mismo número de aristas que todos los demás (parte inferior izquierda). También puede ser modular, es decir, que puede dividirse en una serie de racimos separados, vinculados no obstante por unas pocas aristas que actúan como puentes (parte inferior derecha). Asimismo puede ser heterogénea: cada nodo difiere sobremanera de los demás en términos de centralidad, como ocurre en las redes libres de escala que caracterizan las comunidades online (parte superior izquierda). Algunas redes son a la vez jerárquicas y modulares, como los complejos sistemas genéticos que regulan el metabolismo, sometiendo a ciertos subsistemas al control de otros (parte superior derecha)." (p. 67; gráfico a continuación)


Como menciona A.J. Flanagin, la evolución tecnológica y los medios digitales han introducido no solo una mayor facilidad de acceso, sino también de contacto "personal" aunque a través de las redes sociales digitales, todo lo cual introduce diferencias en la direccionalidad, la escala de la comunicación, el tamaño de la audiencia y la identificación de los miembros de estas redes, que hacen necesarios nuevos métodos e instrucciones para el examen de la influencia social en línea. J.B. Whalter también recalca que esta nueva combinación de relaciones interpersonales directas y mediadas obliga a considerar en las manifestaciones proporcionadas por los nuevos medios nuevos metaconstructos que pueden afectar la comunicación de manera importante.

Las redes muy densas tienden a ser refractarias al cambio y a la innovación (es lo que ocurre en una red jerárquica como una facultad), pero los puntos de contacto entre redes son una excelente fuente de introducción de innovación, según apunta N.Ferguson (p70).

Referencias
Ferguson, N. (2018): La plaza y la torre, Barcelona, Penguin Random House, Colección Debate.
Flanagin, A.J. (2017): Online Social Influence and the Convergence of Mass and Interpersonal Communication, Human Communication Research, Vol.43, Issue 4.
Walther, J.B. (2017): The Merger of Mass and Interpersonal Communication via New Media: Integrating Metaconstructs, Human Communication Research, Vol.43, Issue 4. 

7 de febrero de 2019

Trampas y engaños del análisis automático de datos

De acuerdo con una encuesta de Xplenty, el tiempo medio que dedican los científicos de datos sólo en depurar los datos antes de analizarlos ocupa entre el 50 y el 90% de su tiempo (TICbeat, 9/08/2016). Por esta razón muchas compañías optan por herramientas de inteligencia artificial para realizar esta tarea. Pero si bien los algoritmos que emplea la IA responden bien en términos binarios o de clasificación entre “blanco-negro”, el trabajador humano es el único capaz de trabajar con elementos que se mueven en “grises” o no son tan evidentes. Se trata aquí de entrenar la IA para que clasifique correctamente los datos y es una primera fuente de distorsión.

Sin embargo, se pretende que es posible evitar la intervención humana y sus sesgos gracias a las técnicas de análisis más avanzadas como el "aprendizaje profundo" de la inteligencia artificial. Se pretende que estas técnicas pueden ser utilizadas para "hacer predicciones muy precisas" incluso sin tener conocimiento experto. Así, desde hace varios años, Amazon Web Services ofrece un servicio de Machine Learning dirigido a "democratizar absolutamente el acceso a la hasta ahora cara y compleja tecnología analítica, ya que, aseveran desde la compañía, su uso no requiere ser un experto en estadística, en análisis de datos o en machine learning" (TICbeat, 10/04/2015). 

En 2015 el MIT dio a conocer su "Data Science Machine":
"La necesidad de intervención humana puede haberse visto superada gracias a un nuevo sistema desarrollado por ingenieros del Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés) al que han bautizado Data Science Machine o DSM. Se trata de un software capaz de encontrar patrones en las relaciones entre los datos y realizar predicciones a partir de las mismas mejor que la mayoría de los humanos y en un periodo de tiempo mucho menor." (El País, 26/11/2015) 
El MIT siguió perfeccionando su técnica, más conocida ahora como  "aprendizaje profundo" (deep learning) automático. Recurre a técnicas de comparación y a la estadística para identificar automáticamente patrones en los datos (pero estos patrones pueden ser totalmente inútiles como veremos más adelante). El aprendizaje profundo representa una manera fundamentalmente diferente de programar computadoras. "Es un problema que ya es relevante, y va a ser mucho más relevante en el futuro", dice Tommi Jaakkola, profesor del MIT que trabaja en estas aplicaciones (MIT Technologya Review, 12/04/2017). Lo que confirma un estudio elaborado por Gartner, que predice que en el 2019 el Deep Learning será la tecnología estrella que se impondrá a la inteligencia artificial (PC World en Español, 21/09/2017). 

Pero el aprendizaje automático no dirigido es un espejismo. 
"El Deep Learning necesita muchos conocimientos y ayuda humana. Gran cantidad de datos. Como mínimo 100.000. Esa es la cifra que ha dado Jeff Dean, Google Senior Fellow y líder de Google Brain, en una charla en el escenario del VB Summit 2017 en Berkeley, California. Los humanos continúan siendo necesarios: para etiquetar los ejemplos y escribir algo de procesamiento de datos para producir el dataset que luego se utilizará y reglas que permitan extraer los patrones que interesan." (Genbeta, 24/10/2017)
Y Karen Hao, del mismo MIT, advierte sobre la dificultad de evitar la introducción de sesgos en el análisis "automático". La introducción del sesgo no siempre es obvia durante la construcción de un modelo, requerido como base de partida. Muchas de las prácticas estándar en aprendizaje profundo no están diseñadas teniendo en cuenta tal detección de sesgos. Los problemas son múltiples: incógnitas desconocidas (como las diferentes interpretación de ciertos conceptos en diferentes lugares, por ejemplo), procesos imperfectos, desconocimiento del contexto social, y falta de definiciones imparciales. El sesgo puede aparecer mucho antes de que se recopilen los datos, así como en muchas otras etapas del proceso de aprendizaje profundo: 
1. El marco el problema. Lo primero que hacen los científicos informáticos cuando crean un modelo de aprendizaje profundo es decidir qué es lo que realmente quieren lograr. 
2. La recolección de los datos: o los datos recopilados no son representativos de la realidad, o reflejan prejuicios existentes. 
3. La preparación de los datos: es posible introducir sesgos durante la etapa de preparación de los datos, lo que implica seleccionar qué atributos se desea que el algoritmo considere. (MIT Technology Reviews, 5/02/2019)
El premio Nobel Richard Feynman ha demostrado el grave problema asociado al uso de este tipo de análisis para hacer predicciones sobre la base del descubrimiento de patrones. Feynman muestra que el análisis de datos masivos para detectar patrones sin ninguna idea preconcebida de lo que uno busca, es el talón de Aquiles de los estudios basados en el análisis de datos masivos. Encontrar algo inusual o sorprendente después de que ya haya ocurrido no es inusual ni sorprendente. Es seguro que se encontrarán patrones, y es probable que sean engañosos, absurdos o algo peor. Cuando miramos hacia atrás en el tiempo a cualquier grupo de cosas, podemos encontrar siempre algunas características comunes, por lo que encontrarlas no prueba nada en absoluto ni permite hacer predicciones.
"En 2011, Google creó un programa de inteligencia artificial llamado Google Flu que utilizaba consultas de búsqueda para predecir los brotes de gripe. El programa de minería de datos de Google examinó 50 millones de consultas de búsqueda e identificó las 45 que estaban más estrechamente relacionadas con la incidencia de la gripe. Es otro ejemplo más de la trampa de extracción de datos: un estudio válido especificaría las palabras clave de antemano. Después de emitir su informe, Google Flu sobreestimó el número de casos de gripe durante 100 de las siguientes 108 semanas, en un promedio erróneo de casi el 100 por ciento. Google Flu ya no hace predicciones de gripe.
Un comercio de Internet pensó que podría aumentar sus ingresos cambiando el color de su página web azul tradicional a un color diferente. Después de varias semanas de pruebas, la compañía encontró un resultado estadísticamente significativo: al parecer, Inglaterra ama el verde azulado. [...] Al final resultó que, cuando el color de la página web de Inglaterra se cambió a verde azulado, los ingresos cayeron." (G.Smith, Wired, 11/01/2019)
¡Se podrían comparar los precios del Bitcoin a lo largo de su historia con una guía telefónica y se encontrarían correlaciones! "Una buena investigación comienza con una idea clara de lo que uno está buscando y espera encontrar. La minería de datos solo busca patrones e inevitablemente encuentra algunos." ¡Y estos son totalmente inútiles! "Encontrar un patrón inusual en Big Data no es más convincente (o útil) que encontrar una matrícula inusual fuera del aula de Feynman." (ibidem). "No se trata de obtener bases de datos al por mayor y luego ver qué es lo que se encuentra dentro de ese cúmulo de información. Eso es como buscar una aguja en un pajar sin saber que se busca una aguja." (Xataka, 6/02/2019).

Manejarse correctamente en el ámbito del análisis de big data puede ser tan complicado como subir por la torre de Pisa sin hacerla caer.

Referencias
Barbuzano, J.: "El ‘big data’ ya no necesita a los humanos", El País, 269/11/2015.  [Una afirmación claramente errónea]
Castillo, T.: "El Deep Learning necesita 100.000 ejemplos para funcionar y ayuda de humanos", Genbeta, 24/10/2017.
Hao, K.: "This is how AI bias really happens—and why it’s so hard to fix", MIT Technology Reviews, 5/02/2019.
Macías, E.: "Amazon democratiza la generación de modelos predictivos con Machine Learning", TICbeat, 10/04/2015.
Smith, G.: "The Exaggerated Promise of So-Called Unbiased Data Mining", Wired, 11/01/2019.

24 de enero de 2019

Tecnologías de Comunicación: Estudio evolutivo-comparativo

Sería un error creer que las "nuevas tecnologías" de comunicación son inventos totalmente originales. Una revisión más detallada de la historia humana puede traer algunas sorpresas que han pasado por alto los historiadores de la comunicación. Tratamos aquí de identificado lo que permanece estable y lo que las nuevas tecnologías han heredado de técnicas antiguas, algunas incluso milenarias.
Lo que sigue aquí es solamente el texto que acompaña una selección de imágenes especialmente seleccionadas para poner en evidencia lo permanente y lo heredado, cuya versión integral (ilustrada) puede ser descargada del sitio web de la Asociación Chilena de Investigadores en Comunicación, INCOM-Chile.

Evolución histórica
1836 es el principal punto de inflexión, producto de la aparición de la electricidad (aunque no lo parezca en el gráfico histórico).

Las herramientas han dependido siempre de la mano y de la voz.
La memoria ha dependido de la tradición oral hasta que la escritura tomó el relevo.

Herramientas para el sonido
La conservación del sonido fue por largo tiempo un problema sin solución.
Hubo que esperar el invento de los organillos y órganos mecánicos, al  parecer a fines del siglo XVIII, con un sistema que ya fue digital (utilizando hoyos o púas).

El micrófono es sin duda la herramienta que menos ha cambiado desde su invento (los cambios son solo de apariencia y calidad).
El fonógrafo (1877) fue el primer artefacto capaz de grabar y reproducir sonido, pronto reemplazado por el gramófono. Recurría a la vibración de una púa siguiendo un surco en un disco (método aún utilizado en tocadiscos modernos).

La transmisión a distancia era otro problema, que se solucionó inicialmente mediante sonidos codificados en instrumentos básicos como tambores, campanas y trompetas.
El teléfono apareció en 1857 (Bell en 1876), y fue seguido de la radio. Todo termina en el smartphone.

El teléfono y sus redes
En la central telefónica se conectaban dos clientes con un cable uniendo sus líneas. (Los primeros computadores se inspiraron de esta central para su programación.)

La red forma parte de la estructura computacional de Von Neumann. El “modelo de Von Neumann” es similar a la estructura del sistema nervioso (cognitivo) humano. Con ella, teniendo a la vista las redes telefónicas, se pudo pensar en utilizar el computador en las comunicaciones ya que los periféricos se unían por cables y podían estar a gran distancia.
Las conexiones (redes) siguen siendo fundamentales.

La red digital
En 1969 se realizó la primera conexión remota entre computadores y en 1972 se creó el primer programa de correo electrónico. Se utilizaban los “terminales” (pantalla heredada de la televisión y teclado, heredero de la máquina de escribir) de grandes computadores y conexiones de cables telefónicos, mediante un “módem” (modulador-demodulador de las señales, inventado en 1943 por IBM para la transmisión de datos de tarjetas perforadas usadas en “tabuladoras”).

Herramientas para el sonido
La modulación eléctrica permitió las grabadoras analógicas de cinta (abierta o en cassette), que tuvieron un gran auge, compitiendo con los discos de acetato, y fueron reemplazadas por el registro digital magnético en cintas y óptico en CD y DVD.
El disco óptico (CD/DVD) heredó la idea básica del disco de música Herophon.
El smartphone es ahora un importante instrumento de transmisión del sonido.
El último avance parece ser la introducción de comandos de voz para utilizar las máquinas y también para consultar información o, incluso, ordenar compras.  

Herramientas manuales para el texto
El cincel se transformó en pluma, y -con Gutenberg- se empezaron a fabricar tipos móviles que se colocaban en “galeras” (marcos).
La máquina vino en ayuda de la mano en 1874, inventada por Sholes & Glidden y fabricada por Remington. En 1961, IBM introdujo su Selectric, eléctrica y con cabezal de tipos intercambiable.

La transmisión del texto
El telégrafo inició la era de la transmisión instantánea a distancia, recurriendo a la codificación del texto en la primera forma digital moderna: el código Morse.

El texto móvil
Imprenta: Escribir era colocar tipos móviles en la galera, luego tipear línea por línea, las que se fundían en la linotipia, inventada en 1885.
Computación: Programar fue primero colocar cables móviles, luego perforar tarjetas y luego tipear texto visible en pantalla y memorizado magnéticamente. Con cables uniendo las máquinas se hizo posible transmitir el texto.

La programación
La programación es una forma de registrar datos que determinan acciones sucesivas. Se inició con los organillos y órganos mecánicos y ya fue digital (con hoyos o púas), al parecer desde el siglo XVIII.
Luego se utilizaron tarjetas perforadas en máquinas de tejer (Jacquard, 1804) y en la tabulación del censo de Estados Unidos de 1890 (Hollerith), tarjeta que adaptó IBM para programar sus computadores entre 1960 y 1970.

Herramientas de comunicación visual
La comunicación visual, salvo los gestos, implica el desarrollo de técnicas de conservación.
De lo analógico a lo digital: el cincel, lápiz o pincel siguió dominando por siglos (aún con medios digitales).

Los gestos, sin embargo, están adquiriendo una nueva relevancia en el mundo digital. Tuvimos primero las pantallas táctiles con un solo contacto luego con gestos de varios dedos en la pantalla.
Google empezó en 2015 a desarrollar el Project Soli, recientemente aceptado por la FCC, gracias al cual ya no será necesario tocar la pantalla ya que utilizará una radiofrecuencia como la del radar.

La conservación pasó por una multiplicidad de soportes analógicos hasta llegar a los ópticos y magnéticos digitales, combinándose texto e imagen.
El registro de la imagen se facilitó con la fotografía y 
dio un enorme salto con la digitalización y los “smartphones”.

La digitalización de la imagen recurrió a un procedimiento ya adoptado para imprimir fotografías en los periódicos: la matriz de puntos.
Y el registro del movimiento también pasó de lo analógico a lo digital, aunque manteniendo el sistema de cuadros sucesivos, y surgiendo el 3D, producto de una multiplicación de cámaras.

Un nuevo procedimiento de registro y reproducción en 3D implica nuevos recursos técnicos, basados en el laser, la holografía, que sigue siendo experimental desde su invento en 1962.

La comunicación digital
Si todo es digital, todo puede ser transmitido por señales eléctricas, ópticas (cables de cobre y de fibra óptica) o de radio (satélites, celulares, WiFi, etc.).
La fibra óptica actualiza una técnica conocida y utilizada desde muy antiguo, cuando se usaba el fuego como medio de advertencia (aún presente en los faros). La luz también es utilizada para la comunicación entre barcos, con los reflectores de señales. 

La versión ilustrada de este texto puede ser descargada aquí.

10 de enero de 2019

¿Nueva prensa?

Es evidente que la prensa que conocemos responde aún, la mayoría de las veces, a la mentalidad de la revolución industrial de hace más de 100 años, un modelo de producción repetitiva y masiva. Y es también evidente que este modelo ya no funciona. "El problema {es] que muchos mantienen el modelo mental antiguo y obsoleto que al final mantiene las personas en movimiento pero sin avance", dice A.Osorio (1). Noah Yubal Harari ya advertía que "Cuanto más duro han trabajado en la construcción de algo, más difícil es dejarlo ir y hacer espacio para algo nuevo." (citado por A. Osorio, 2)

Con la digitalización y los nuevos equipos móviles, es necesario cambiar la forma de pensar, la organización, el modo de operar de la empresa. Y esto significa abandonar el modelo de pensamiento lineal actual, asegura Osorio, lo cual es evidentemente sumamente complicado para la prensa, donde la linealidad parece ser lo propio y natural, de por la historicidad de los hechos, aunque un análisis más profundo mostraría la multidimensionalidad y el caos (en sentido matemático) de la "globalidad" que todos reconocen. ¡El mundo ya no tiene nada de lineal!

"Uno de los temas más recurrentes en equipos de emprendedores y equipos de empresas es no entender qué están haciendo y para qué lo están haciendo." (A.Osorio, 3) Entre las razones que cita Osorio: "Muchos equipos pierden completamente de vista qué quieren lograr. No tienen ese objetivo central que los debe guiar. Y si existe nadie lo conoce. En general están inmersos en culturas donde no se comparte o francamente no se tiene una visión, propósito y objetivo central. Conocen la idea inicial de hacia donde ir pero se han perdido entre algunos éxitos y fracasos, pero no han entendido el valor de avanzar experimentalmente, por lo tanto no han aprovechado los aprendizajes para ir iterando o francamente pivotear (cambiar drásticamente de curso)." Deben hacerse la pregunta "¿Cuál diablos es el reto hoy aquí?" y buscar las respuestas, dice.

¿Cuales son los cambios desafiantes?
No solo la digitalización y la comunicación móvil, como sabemos desde hace tiempo. Hoy es también la revolución de la inteligencia aumentada y predictiva, producto del análisis de big data y del aprendizaje de máquina, que es diametralmente diferente de la revolución industrial. (Osorio, 1) Ya tenemos ejemplos: Google-Alphabet, Tesla, Amazon, Netflix, "empresas enfocadas en crear el futuro y escapar de lo establecido". 

La nueva empresa informativa ha de ser ahora multi-canal. Ya mostré en mi libro "Sistémica de los medios de comunicación" (PDF) como la digitalización lleva a este tipo de estructura. 

"El centro de la futura redacción tendrá un moderno puente de mando que reunirá perfiles periodísticos, de desarrollo tecnológico, de edición gráfica y de video, de diseño, de producción, de medición de audiencias, de redes sociales, de SEO y de control de calidad." (Clases de Periodismo, 4/03/2016)
Múltiples experimentos han mostrado ya lo que es posible hacer, como el "periodismo inmersivo" que ha sido exhibido en diversas ocasiones en radiodifusoras europeas. (Pérez y Campos) 

Pero no es necesario citar estas innovaciones. Aunque sin duda se multiplicarán, lo necesario es poder integrarlas en un modelo computacional adecuado, tanto para el equipo de redacción como para los destinatarios. Vocativ a tenido una experiencia interesante en este sentido: "Fue pionera en una nueva forma de periodismo digital mediante el despliegue de nuestra tecnología única de contar historias en una variedad de formatos, incluidas en nuestro sitio web, las redes sociales y la televisión. Hemos tenido un gran éxito y nuestra industria ha tomado nota." (Clases de periodismo, 15/6/2017). Pero dicho éxito los ha conducido a tomar un camino que los aleja de la integración de los formatos: optaron por cambiar a un formato único el del video, con contenido de video desde los mini-documentales para docu-series y películas de largo metraje.

Algunas innovaciones técnicas podrían también distraer a los medios informativos, como ocurre con la realidad virtual que, en realidad, se encuentra frenada por la tecnología, como opina la analista de eMarketer Victoria Petrock. No logra salir de los ámbitos de los videojuegos y del entrenamiento de personal. Petrock agrega que "la RV no es demasiado sociable": su uso es en solitario, los equipos aíslan del entorno y, además, son incómodos y costosos (FayerWayer, 9/01/2019). Así, es cada vez menos probable que se use en medios informativos. La RV no tiene relación alguna con el interés de la audiencia que apunta más a seguir noticias en un equipo de bolsillo como el celular.
El contenido
Y, en cuanto a los contenidos, cada noticia debería tener su propia forma de presentación según su propia naturaleza, con múltiples enlaces de profundización y conexiones que la sitúen, según corresponda (algo que también vengo sugiriendo desde mis primeros textos sobre documentación periodística). 

Como han reconocido ya varios académicos y editores de medios, la calidad del producto también es esencial: "You can stand out with the help of well designed and crafted visuals. Put your efforts into delivering quality over quantity, and users will start recognizing you as an authentic and valuable resource, relevant to their interests." (Social Media, 6/6/2017)


El rol de la audiencia
"Los medios ya no deciden por sí solos los temas de la agenda pública ni el tratamiento de la información. Los y las periodistas no pueden ignorar la demanda creciente de las audiencias que buscan visibilizar sus preocupaciones, opiniones y datos a través de las redes sociales y de los espacios de interacción que ofrecen las instituciones informativas. Tampoco pueden obviar los hábitos de consumo de noticias de los usuarios que se fragmentan en diversos soportes." (Laboratorio Transmedia de la Patagonia, 25/5/2017)

Referencias
Pérez, S. y Campos, F. (2017): "Las técnicas inmersivas en las televisiones públicas europeas", Revista Latina de Comunicaicón Social (PDF