9 de diciembre de 2021

Metaverso por aquí, metaverso por allá

 Facebook hizo noticia el junio pasado, cuando anunció a la vez su cambio de nombre y el proyecto de "dar vida al metaverso". Zuckerberg lo presentó como una plataforma en la que participarán las grandes y pequeñas empresas de Internet, y sería "la máxima expresión de la tecnología social". Pretende con ello que interactuar en línea sea "mucho más parecido a la experiencia de interactuar en persona". Así, el metaverso sería "la próxima revolución digital después de la del Internet móvil". (Euronews, 18/10/2021). Ofrecería toda la experiencia de Internet, pero "de una forma más natural e inmersiva" (¿?) (Hipertextual, 30/08/2021)

El concepto de metaverso no era ninguna novedad: lo introdujo Neal Stephenson en 1992, en su novela Snow Crash. Antes, William Gibson ya había lanzado la idea de unh mund virtual en Neuromance (1984). El metaverso es un ciberespacio donde las personas pueden interactuar en forma de avatares, y puede fusionar la realidad física con la realidad virtual por medio de la realidad aumentada.

Es "quizá el acercamiento más genuino a algo similar a lo que propone Facebook haya sido Second Life", creado por Philip Rosedale en 2003 en su empresa Linden Lab (Hipertextual, 7/11/2021). 

Rosedale advierte que el "punto crítico" para Facebook será un sistema de moderación que permita una coexistencia equitativa a la vez que se garantice la identidad de los participantes (detrás de su avatar) junto con su derecho a mantenerse anónimos. (Hipertextual, 30/11/2021)

Los juegos de realidad virtual empezaron a popularizarse al principio de los años 2000. Roblox y Fortnite son los que concentran actualmente más usuarios-jugadores. Y otras empresas han creado mundo virtuales que, ahora, están atrayendo nuevos inversores.

"La última semana se han gastado más de 100 millones de dólares en terrenos virtuales. Esto incluye 2,43 millones de dólares por un terreno en Decentraland, y un récord de 4,3 millones de dólares por un inmueble en The Sandbox." (Decrypt, 6/12/2021). Decentraland busca promover una calle como sede de tiendas virtuales de marcas de lujo. Un bolso virtual de Gucci fue vendido en la plataforma Roblox por un precio más elevado que la versión real. Y Barbados anunció un plan para abrir una “embajada de metaverso” en dicha plataforma. (Unocero, 6/12/2021)

Detrás de estos bienes virtuales está la tecnología de blockchain y gran parte del dinero es también virtual, ya que se trata de tokens de criptomonedas.

Los premios The Game Awards, este 9 de diciembre,  también serán dentro del metaverso pero será visible por medio de YouTube y Twitch (Unocero, 7/12/2021). 

Jeff "Jiho" Zirlin, cofundador de Sky Mavis y cocreador del  juego Axie Infinity basado en Ethereum, cree que "estamos entrando en una batalla por el futuro de Internet". Y es que empresas centralizadas como Facebook están tratando de "comprar el alma de Internet". Aunque también "muchas startups del sector blockchain están trabajando en la infraestructura y los activos que formarán parte del metaverso propuesto" (Decrypt, 2/12/2021).

El metaverso parece haberse convertido ahora en una moda no solo en Silicion Valley sino también para algunos inversionistas y para grandes empresas que ven ahí una oportunidad para ampliar sus negocios. Estar presente en el metaverso parece una necesidad para ellas y para quienes ven ahí el futuro de internet. ¿Pero querrán los usuarios "vivir" en este mundo virtual? No solo está el problema de la necesidad de usar lentes de realidad virtual para aprovecharlo plenamente, también - señalan algunos pioneros - "está en riesgo un cambio inminente en el comportamiento del consumidor si no se permite la propiedad digital" de las creaciones que se pongan en este universo virtual. Existen dudas sobre si Facebook está listo "para abrazar el espíritu que impulsa esta creatividad". Su metaverso podría terminar en un "metaflop" (Unocero, 1/12/2021) .

Y si este universo se desarrolla a la manera de Facebook, podría evidentemente replicar todos los defectos de esta red social, "dividiendo la sociedad empujando a los individuos mediante algoritmos a burbujas de información que refuerzan los puntos de vista más extremos" como advierte John Hanke, director de Niantic. Y Manuela Battaglini, experta en ética digital, se pregunta si es un tipo de mundo en que quisieramos realmente vivir.

"¿Queremos vivir en el universo de Zuckerberg? Porque tal vez, y sin darnos cuenta, nos estemos adentrando como sociedad en un mundo donde en realidad no queremos vivir. ¿Acaso a alguien le hubiese parecido idóneo en los noventa que casi la totalidad de los contenidos subidos a Internet dependieran de no más de una decena de compañías? [...]

Tal vez, los diferentes universos virtuales que podrían cobrar vida en el futuro resulten ser poco más que una caverna en la que no se observan más que sombras; una caverna donde se promete al consumidor disfrutar de un sinfín de posibilidades y entretenimiento sin par donde el primer requisito es que tapes tus ojos; un universo donde el sol es de marca registrada; un universo donde, ineludiblemente, acabarás siendo vigilado." (Ibidem).

Así, no solo hay que preguntarse si el objetivo de Facebook es realista pero también - y sobretodo - si es sano.

23 de noviembre de 2021

Algoritmos, sesgos y framing

 1. Los algoritmos

Los algoritmos son las secuencias de órdenes que conforman la base de la programación de los sistemas digitales. pero lo que nos interesa particularmente aquí son los que utilizan las plataformas y las empresas para analizar y aprovechar los datos que recogen.

"Los sistemas algorítmicos sirven para categorizar a los individuos y prever sus preferencias a partir de una gran cantidad de datos acerca de ellos.  El modelo de negocio de muchas empresas digitales se apoya en el hecho de que conocen a los usuarios mejor que ellos mismos." (Innerarity)

Los algoritmos son diseñados por seres humanos y los seres humanos son parciales. Y las empresas que los ocupan también tienen un sesgo.

Podemos distinguir dos tipos de algoritmos: los que son definidos completamente por un "científico de datos" y los que se generan por vía de aprendizaje automático (en el marco de la inteligencia artificial), para analizar grandes conjuntos de datos (big data). Los primeros surgen de la minería de datos y recurre a herramientas analíticas que operen sobre el conjunto de los datos para obtener nueva información (“datos agregados”) más valiosa que si se tomase esos datos de manera individual. Los segundos recurren generalmente a redes neuronales artificiales que pretenden simular lo que ocurre en el cerebro y permiten el "aprendizaje automático", es decir por medio de la repetición (aprendizaje por refuerzo, al estilo del perro de Pavlov). Son también programadores, evidentemente, que diseñan estas redes y las "afinan". El aprendizaje automático puede ser supervisado o no-supervisado. Lo común es la supervisión, pero ya existen compañías que se centran completamente en enfoques de aprendizaje automático no supervisado, en que la máquina “decidiría” lo que es importante ¿En base a qué criterios? Se habla de "algoritmos capaces de aprender", pero es un programador quien debe determinar el qué y el cómo.

En todos los casos el entrenamiento (puesta a prueba y supervisión) es indispensable y numerosos errores se producen por falta de ello. Hace unos años, Google exhibió fotos de mujeres afroamericanas en respuesta a una búsqueda de fotos de gorilas. Facebook censuró la célebre foto titulada “The terror of war”, de Nick Ut, tapando a la niña desnuda quemada con napalm, considerando que esta era una violación de la tradicional política contra los desnudos de niños (Xataka, 23/11/2016). Son sin duda casos extremos, pero también una muy buena demostración de lo que puede pasar con cualquier algoritmo si no se somete a un amplio proceso de entrenamiento y verificación. Lo más grave, especialmente en el caso de Google, es que se altera de este modo el conocimiento a nivel global. 

El verdadera problema: "El pequeño secreto del Big Data es que ningún algoritmo puede decirte lo que es relevante o desvelarte su significado." (TicBeat, 19 de mayo 2013).

"Si no sometemos a esos filtros más veloces, baratos y eficaces al estricto escrutinio ético que merecen, corremos el riesgo de caer en una de las tantas falacias del solucionismo y celebrar avances relacionados con problemas menos importantes, al tiempo que desatendemos cuestiones más acuciantes aunque menos obvias. (Morozov, p.174)

"Tú deberías tener el derecho de preguntar qué está haciendo o decidiendo un algoritmo por ti, cómo ha llegado a esta conclusión." (Hilbert, en Bastarrica)

Más detalles en Colle, R.: Algoritmos, grandes datos e inteligencia en la red – Una visión crítica

2. Los principales sesgos algorítmicos

Sesgo 1: El "futurismo"

Si bien el fin del análisis mediante algoritmos puede sermeramente descriptivo, en muchísimos casos se pretende  predecir el resultado de determinadas acciones o situaciones y ofrecer de antemano sugerencias sobre lo que se puede hacer al respecto.

"El problema estriba en que la mayor parte de las previsiones algorítmicas se basan en la idea de que el futuro será lo más parecido al pasado, de que nuestras preferencias futuras representarán una continuidad de nuestro comportamiento anterior tal y como queda registrado en los datos de nuestra movilidad o consumo." (Innerarity)

Los expertos en inteligencia artificial que desarrollan estos sistemas predictivos fantasean con la posibilidad de tener todos los datos y creen que una vez que los tengan podrían predecirlo todo (Marta García Aller, experta en tecnología, entrevistada por J.C.López).

Sesgo 2: La cultura

Microsoft creó Tay, un robot de inteligencia artificial, como parte de un ejercicio de aprendizaje automático. Lo tuvo que desactivar rápidamente y pedir disculpas.

"Tay, quien había venido aprendiendo y “creciendo” en ambientes controlados fue “introducida” al mundo real por medio de Twitter. La idea era que el bot interactuara con personas entre los 18 y 24 años, aprendiera de esas interacciones y madurara. El resultado? Un desastre! En menos de 24 horas Tay se convirtió en racista, amante de Hitler y de Donald Trump y expresó sentimientos antisemitas y denigrantes encontra de personas de color (como el Presidente Obama), inmigrantes y demás. Sus twits fueron tornándose cada vez más oscuros y denigrantes."  (Techcetera, 28/03/2016)  

Sesgo 3: El interés comercial

"Ahora cuando tú te vas a Instagram, cuando vas a hacer una búsqueda en Google o te vas a Youtube, estos canales no son neutrales, son distorsionados al final con fines comerciales." (Hilbert, en Bastarrica)

No todos los datos son iguales ni tienen el mismo valor o la misma calidad, y la empresa define los datos que le pueden resultar útiles. Y este interés puede pasar por alto los valores morales como se ha demostrado en el caso de Facebook. Lo han denunciado Frances Haugen y una investigación reciente de la revista de tecnología del MIT.

"An MIT Technology Review investigation, based on expert interviews, data analyses, and documents that were not included in the Facebook Papers, has found that Facebook and Google are paying millions of ad dollars to bankroll clickbait actors, fueling the deterioration of information ecosystems around the world. []

Posting the same article on multiple pages could as much as double the number of users who clicked on it and generated ad revenue. Clickbait farms around the world seized on this flaw as a strategy—one they still use today. []

Google is also culpable. Its AdSense program fueled the Macedonia- and Kosovo-based farms that targeted American audiences in the lead-up to the 2016 presidential election. And it’s AdSense that is incentivizing new clickbait actors on YouTube to post outrageous content and viral misinformation." (Hao)

Sesgo 4: Seguridad (Vigilancia) y censura

"Las mentes más brillantes en este negocio de la comunicación digital están dedicados a dos tareas: Silicon Valley, optimizando la publicidad, y los otros en las famosas agencias de tres letras: NSA, de la seguridad nacional." (Hilbert, en Bastarrica)

Las redes sociales han pasado a ser un objetivo estratégico para el Pentágono si desea desequilibrar a una nación. Y le interesa seguir de cerca a los activistas que se comunican a través de Twitter para intervenir en el momento adecuado. (FayerWayer, 9/07/2014).

En culturas en donde existe la censura "es muy posible, que los mismos algoritmos sean programados para seguir esos parámetros y evitar términos que puedan incitar a la insurrección" (Editorial Techcetera, 6/02/2021

3. ¿Es aplicable la teoría de framing?

 "El término frame, que nació en la psicología de Gregory Bateson como un concepto de carácter psíquico y fue retomado más tarde por el sociólogo Erving Goffman, quien le aportó su dimensión social. Los estudios sobre movimientos sociales y comunicación son herederos de esta perspectiva." (Koziner, p.1).

Bateson propuso el encuadre (frame) para referirse a la  interpretación en la recepción de los mensajes, donde se atienden determinados aspectos de la realidad y se ignoran otros. El término surgió por analogía con el marco de un cuadro, que lo separa de su entorno (contexto, en el caso de la comunicación). (Koziner, p.12).

Dice Ardèvol-Abreu que "Los encuadres llaman la atención de algunos aspectos de la realidad en detrimento de otros, por lo que para definirlos hay que tener en cuenta tanto lo que describe como lo que omite" (p.425). Y Entman ya señalaba (1993) que encuadrar es "seleccionar algunos aspectos de la realidad percibida, y hacerlos más relevantes en un texto comunicativo, de modo que se promueva una determinada definición del problema, una interpretación causal, una evaluación moral y/o una recomendación de tratamiento para el asunto descrito" (Entman, p.52). Pero Ardèvol-Abreu advierte que "el término frame carece de una conceptualización clara" y que "una gran disparidad de definiciones del concepto, que en ocasiones resultan contradictorias" (p.425).

La teoría del framing ha sido muy utilizada en investigaciones sobre medios de comunicación, en relación al tratamiento de los temas, y especialmente de las noticias en la prensa, es decir a los procesos informativos (Cfr. censo de la publicado en España en Ardèvol-Abreu, 2015, y en los estudios chilenos, en Porath, 2021).

Pero no es lo relativo a los medios de comunicación tradicionales lo que nos interesa aquí. Nos interesa el manejo de informaciones (normalmente "big data") para fines que van desde la comunicación digital, como en redes sociales y publicidad "personalizada", hasta el análisis empresarial de uso interno.

Para este fin podemos volver a la idea original de Bateson: atender determinados aspectos de la realidad e ignorar otros. Y también puede ser interesante la definición de Tankard: el encuadre es "una idea organizadora central del contenido informativo que ofrece un contexto y sugiere cuál es el tema mediante el uso de la selección, el énfasis, la exclusión y la elaboración" (Tankard, p.3).

Un algoritmo se aplica a un contexto predeterminado, representa (o más bien, extrae, en este caso) una "una idea organizadora central" vía "selección, énfasis, exclusión y elaboración".

Nos alejamos así de las concepciones del framing relativas a la formulación o recepción de las noticias u otros contenidos de los medios clásicos pero, según el mismo Entman, la diversidad de concepciones del framing permite "integrar teorías y conocimientos que, de otro modo, permanecerían disgregados en otras disciplinas" (Entman, p.51). Por lo tanto, abordar la problemática de la formulación y de los sesgos de los algoritmos podría hacerse desde la teoría del encuadre. En efecto, Entman "propone hacer del framing un paradigma de investigación en comunicación, entendido como una teoría general que reporta información acerca del funcionamiento y los resultados de cualquier sistema particular de pensamiento y acción" (Koziner, pp.3-4).

Para abordar desde este punto de vista los algoritmos, podremos encontrarnos con diversos grados de dificultad. Conocer el contexto y los objetivos generales puede ser relativamente fácil, pero acceder a los criterios de análisis y selección puede ser mucho más difícil. Se trata generalmente de secretos empresariales. Pero nada impide realizar experimentos orientados a detectar los sesgos.

En conclusión, el análisis de sesgos de los algoritmos, como hizo el MIT, puede ser - me parece - una forma de aplicación de la teoría del framing.

Referencias

Ardèvol-Abreu, A. (2015): “Framing o teoría del encuadre en comunicación. Orígenes, desarrollo y panorama actual en España”, Revista Latina de Comunicación Social, 70, pp.423 a 450.

Bastarrca, D. (2019): Martin Hilbert: El algoritmo es tan peligroso como una medicina o una comida tóxica para la salud, FayerWayer, 1/07/2019. 

Colle, R. (2017): Algoritmos, grandes datos e inteligencia en la red – Una visión crítica, Colección Mundo Digital, Revista Mediterránea de Comunicación, Universidad de Alicante (España).

Entman, R. (1993). Framing: toward clarification of a fractured paradigm. Journal of Communication, 43 (3), pp.51-58.

Hao, K. (2021): How Facebook and Google fund global misinformation, MIT Technology Review.  

Innerarity, D. (2021): Gobernanza algorítmica, La Vanguardia,  31 de julio 2021. @LaVanguardia @danllnnerarity

Koziner, N.S. (2013): Antecedentes y fundamentos de la teoría del framing en comunicación, CONICET, Vol. 2 n.1.

López, J.C. (2020): Una máquina no entendería por qué si tenemos el algoritmo perfecto no le hacemos caso, Xataka 11/07/2020, 

Morozov, E. (2015): La locura del solucionismo tecnológico, Buenos Aires, Katz Editores.

Porath, W. (2021): El concepto Frame y la teoría del framing en la investigación de medios de comunicación en Chile, Ponencia en el VII Congreso INCOM-Chile.

Tankard, J. (2001): “The empirical approach to the study of media framing” (p. 95-106). En: Reese, S; Gandy, Oscar; Grant, A. (eds.). Framing public life: perspectives on media and our understanding of the social world. Mahwah NJ: Lawrence Erlbaum Associates.


1 de septiembre de 2021

Del ser digital al ser, la sociedad y el universo red

 El ser humano es un ser en red. En 1996, el neurobiólogo Giacomo Rizzolatti reveló su descubrimiento de las neuronas espejo: se activan en el cerebro cuando se observa la ejecución de una acción por otra persona o cuando se representa mentalmente esta misma acción en el propio cerebro. Gracias a ellas, podemos deducir lo que los demás piensan, sienten o hacen. Explican los comportamientos empáticos, sociales e imitativos. "La capacidad de una persona para interpretar y responder a otra como si fuera ella es la clave de que el ser humano participe en el mundo, forme una identidad individual, aprenda a razonar, se haga social, desarrolle el lenguaje, establezca narraciones culturales y defina la realidad y la existencia."  (Rifkin, p.142)

Es la existencia del otro que me llama a una existencia propia y personal pero imbuída y enriquecida de alteridad. O sea, tengo personalidad propia solamente gracias a mi “enfrentamiento” (entendido solamente como “estar frente a”) con otras personas. Ya lo habían señalado Humberto Maturana y Francisco Varela en 1984, introduciendo el concepto de "acoplamiento social". 

Ésto nos obliga también a reconocer la genialidad de la "teoría del actor-red" (TAR) desarrollada por Bruno Latour, Michael Callon y John Law en los años ochenta (ver referencias al final). La teoría del actor-red concibe la sociedad como el producto dinámico de cadenas de asociaciones, constantemente actualizadas. Por ello, Latour preferiría llamarla “teoría de las asociaciones”, las cuales son producto de acciones que generan efectos, y Callon "sociología de las traducciones", siendo las "traducciones" el producto de las acciones de las personas. (Ver post sobre este tema en "Comunicación y conocimiento").

Latour, Callon y Law ponen el énfasis en el rol del sujeto humano y ven la sociedad como el producto del entrelazamiento de las acciones de las personas (lo social es el producto del "ensamblaje" de las relaciones). Latour se distanció de la “sociología clásica”, proponiendo redefinir la sociología como “el rastreo de las asociaciones", que toma en cuenta no solo las personas involucradas sino aspectos tecnológicos, legales, organizativos, políticos y científicos, incluyendo personas y objetos, pero a través de las acciones realizadas y los instrumentos utilizados.

El "modelo canónico" de la sociología deja de lado este tipo de "mediaciones intermedias", cuya investigación se exige en la TAR, prefiriendo "descripciones de la realidad de mayor envergadura y menor fidelidad" (Muriel, p.116). En efecto, "no resulta posible seguir todos esos desplazamientos, asociaciones y conexiones porque, de llevarlo al extremo, y con la dificultad añadida de que son movimientos efímeros, estaríamos siguiendo hasta cómo se enlazan las partículas al nivel subatómico antes de pasar a los siguientes niveles" dice Muriel, llegando a cierta exageración (ibidem).

Manuel Castells se inscribe en esta tradición clásica y concibe la estructura de la sociedad en sí-misma como un conjunto interconectado de nodos, o sea una red, considerando que hay una preeminencia de la morfología sobre la acción. Las tecnologías digitales, y en particular internet, son las facilitadoras y sostenedores del nuevo "tejido" de las actividades humanas, un tejido que es reconfigurable en función de las interacciones y donde se pueden distinguir diversos sectores (económico, cultural, etc. (Day, pp.70-71). 

Internet, y especialmente las redes sociales (social media), han modificado las formas de organización de la sociedad,  señalaba Manuel Castells en 2001:

 "Asistimos en la sociedad, fuera de Internet, a una crisis de las organizaciones tradicionales estructuradas, consolidadas, tipo partidos, tipo asociaciones de orientación directamente política, y además se produce la emergencia de actores sociales, fundamentalmente a partir de coaliciones específicas sobre objetivos concretos: vamos a salvar a las ballenas, vamos a defender tal barrio, vamos a proponer nuevos derechos humanos en el mundo, vamos a defender los derechos de la mujer, pero no con una asociación, sino con campañas concretas. Es decir, en general, en la sociedad hay un salto de los movimientos sociales organizados a los movimientos sociales en red en base a coaliciones que se constituyen en torno a valores y proyectos. Internet es la estructura organizativa y el instrumento de comunicación que permite la flexibilidad y la temporalidad de la movilización, pero manteniendo al mismo tiempo un carácter de coordinación y una capacidad de enfoque de esa movilización." (Castells, p.16)

Y tanto como basados en temáticas específicas, tienden a basarse en valores compartidos: "Son movimientos de ideas y de valores". (ibidem)

Castells ve internet como un medio masivo, continuo e interactivo, un medio de interacción y de organización, y condición del desarrollo. Como consecuencia, las sociedades se estructuran cada vez más en torno a una posición bipolar entre la “red” y el “yo” (Alcalá, comentando "La Galaxia Internet" de M.Castells). 

 "Los sujetos se constituyen creando significado, y se asocian con otros buscando identidades de resistencia al poder de la red global (Castells, 2012). Dicha construcción de significado empieza por los individuos, pero para que suceda, deben asociarse con otros, lo cual sucede en el espacio de los flujos (Castells, 2005), en las redes virtuales." (Day, p.72)

Ésto vuelve a marcar la importancia de las conexiones personales, que pone en primer plano la teoría del actor-red.

El ser humano no es ni será un "ser digital" como se tituló la obra de Nicholas Negroponte en 1995. Pretender que el ser humano se vuelva digital, incluso tomando la afirmación como una metáfora, sería renegar de su naturaleza y reducirlo, prácticamente, a la condición de androide, como expliqué latamente en mi obra "¿Ser digital o ser humano?" (2015). 

Ampliando el panorama

En 2004, el neurocientífico y psiquiatra Giulio Tononi, catedrático de Estudios de la Consciencia en la Universidad de Wisconsin, publicó en la revista BMC Neuroscience su propuesta de "Teoría de la Información Integrada" (IIT) que describe tanto la calidad como la cantidad de la experiencia consciente de un sistema físico, como el cerebro, en un estado particular. El año pasado, Johannes Kleiner, matemático y físico teórico del Centro de Filosofía Matemática de Munich, y Sean Tull, matemático de la Universidad de Oxford, partiendo de esta propuesta, han sugerido que la consciencia está en todas partes a lo largo y ancho del universo, pero que se acumula en los lugares donde se necesita para ayudar a unir diferentes sistemas relacionados. Dicen que "la consciencia no es biológica en absoluto, sino que es simplemente un valor, phi, que se puede calcular si conocemos la complejidad de lo que estamos estudiando. [...] Si el cerebro humano tiene casi innumerables sistemas interrelacionados, entonces el universo entero debe tenerlos también." (Martínez). Así, los niveles de consciencia varían según la complejidad y el número de las interrelaciones. Ésto se parece a lo que postuló Teilhard de Chardin ya en 1919: todas las cosas tendrían dos aspectos íntimamente ligados: el “interior” (espiritual, que corresponde a la consciencia) y el “exterior” (material). La ley de la evolución sería que el desarrollo de la complejidad material (“exterior”) conlleva el crecimiento paralelo del aspecto interior. (cfr. “El potencial espiritual de la materia”, publicado en 1919, conceptos que aparecen luego en varias obras posteriores, especialmente "La energía humana", 1962).

¿Cuál es el punto que nos interesa? No es que Kleiner y Tull estén "trabajando para convertir IIT en un complejo algoritmo matemático" que mediría los niveles de consciencia, sino que todo se basa en la existencia de relaciones y que todo el universo - y no solo el ser humano o la sociedad - se basa en este "tejido de relaciones", es decir en redes dentro de redes.

Referencias

Alcalá, M.G. (2017): La Galaxia Internet: Reflexiones sobre Internet, empresa y sociedad, de Manuel Castells, Revista Mexicana de Ciencias Políticas y Sociales, vol.62 no.231. 

Callon, M. (1984). Some Elements of a Sociology of Translation: Domestication of the Scallops and the Fishermen of St Brieuc Bay. The Sociological Review, Vol. 32 issue: 1_suppl, 196-233. https://doi.org/gc6wfc 

Castells, M. (2001): Internet y la sociedad red, Universitat Oberta de Catalunya. 

Colle, R. (2015): ¿Ser digital o ser humano?, INCOM-Chile. 2a edición 2018

Day, M. (2019): El concepto de red en Manuel Castells y Bruno Latour, Universidad Nacional de Cuyo. 

Latour, B. (1983): Give me a laboratory and I will raise the world, en K.D. Knorr-cetina & M. Mulkay (Ed.), Science Observed, 141-169. London, Sage.

Martínez de la Fe, E. (2021): Nueva revolución en las teorías científicas sobre el origen de la consciencia, Tendencias 21

Maturana, H. & Varela, F. (1984): El árbol del conocimiento, Santiago de Chile, OEA.

Rifkin, J. (2010): La civilización empática, Barcelona, Paidos

Ure, M. (2017): De la alteridad a la hiperalteridad: la relación con el otro en la Sociedad Red, Sophia no.22 Cuenca ene./jun. 2017. https://doi.org/10.17163/soph.n22.2017.08 


24 de agosto de 2021

El avance de la IA en las comunicaciones

 Se utiliza cada vez más la inteligencia artificial para recomendar productos a partir del análisis de los intereses reflejados en los datos de usuarios de la web y las redes sociales (big data y machine learning). Así, la IA transforma cada vez más la manera de interactuar con el cliente, especialmente a través de la hipersegmentación. Y se empieza a ir más lejos aún: a orientar el desarrollo de nuevos productos, que respondan aún mejor a tales intereses. (Túñez, p.16)

En este campo dominan cinco grandes empresas:  Google, Amazon, Facebook, Apple y Microsoft, a las cuales algunos se refieren utilizando el acrónimo GAFAM, formado por sus iniciales. Pero éstas 

"imitan  la  capacidad  de  acción  y  constriñen  la  capacidad de generación de nuevas industrias culturales y la circulación de productos y propuestas de comunicación en un cuestionable pulso a la universalización de la cultura y el conocimiento" (ibidem, p.15)

Esta evolución de las comunicaciones y sus diversos aspectos han sido recogidos en una exhaustiva investigación plasmada en un artículo publicado en la revista Fonseca, cuyo autor es José Miguel Túñez López, Profesor de la Universidad de Santiago de Compostela. En el, 

 "Se identificaron los documentos que han incidido en definir el impacto tecnológico en la comunicación, especialmente los que se derivan de aplicar inteligencia artificial y se buscaron respuestas a preguntas como  ¿cuáles son los temas recurrentes en las publicaciones?, ¿cuáles son los campos de mayor impacto?, ¿cuáles  son  las  principales  transformaciones  se  han  producido?,  ¿qué  previsiones  de  evolución se pueden identificar?" (Túñez, p.6).

¿Hasta donde llegará el progreso de la IA es lo que se preguntó Santiago Sánchez-Migallón, siguiendo al filósofo de Oxford Nick Bostrom. ¿Los sistemas de IA se seguirán perfeccionando, incluso usando su propia capacidad para ello, dando origen a nuevas generaciones cada vez más capaces? ¿Escaparían entonces al control de los humanos? ¿Podrían ser una amenaza? 

Pero Sánchez-Migallón hace ver que, si bien la IA está experimentando actualmente un gran avance, este tipo de avance es función de la capacidad de cómputo más que de avances en la concepción de los algoritmos. "Aunque una tecnología pudiera avanzar en un momento muy corto de su desarrollo a un ritmo exponencial, ese ritmo termina por decrecer rápidamente y quedarse estancado en un techo. Las tecnologías suelen progresar en forma de función logística y no de función exponencial." Quienes creen en un avance geométrico o exponencial olvidan "que el avance tecnológico no es algo tan fácil de conseguir" y olvidan también que la inteligencia no es una función simple sino compleja, tanto que existen múltiples definiciones de la misma y ninguna ha podido abarcarla en su totalidad. En suma, la posibilidad de que sistemas de IA lleguen a dominarnos (o que perdamos el control de algunas aplicaciones) es una ilusión. Ciertamente algunas tareas podrán mejorarse, pero todas llegan a un "techo" más allá del cual toda mejora es imposible.

"La inteligencia artificial es el logro científico de nuestro tiempo y, en cuanto a tal, supone una revolución del pensamiento." (ibidem). Pero, en cuanto a superarnos o desplazarnos, "no hay razones ni evidencia científica suficiente para sustentar si quiera que algo así vaya a suceder alguna vez en la historia". (ibidem).

¡Los comunicadores pueden estar tranquilos!

Se plantea también otro tipo de problema: asegurar la ética de los sistemas, llamada también "higiene de los algoritmos". Casos en que personas han sido identificadas como animales son emblemáticos y ponen en evidencia la necesidad de múltiples pruebas y supervisión (Techcetera, 16/08/2021).

 También es, evidentemente, indispensable en las aplicaciones de comunicación como en la generación automática de resúmenes de prensa, el envío automático de mensajes e incluso la identificación de intereses. Los principios de ética se exponen en la siguiente imagen:


Referencias

Sánchez-Migallón, S. (2021): El mito de la singularidad o por qué la inteligencia artificial no va a heredar la Tierra, Xataka, 15/08/2021.

Túñez López, J.M. (2021): Tendencias e impacto de la inteligencia artificial en comunicación: cobotización, gig economy, co-creación y gobernanza, Fonseca, Journal of Communication, 22, 2021, pp. 5-22, https://doi.org/10.14201/fjc-v22-25766  


12 de marzo de 2021

El diario impreso: ¿una muerte imprevista?

El primer periódico del mundo que tuvo un ordenador en su redacción fue el estadounidense Daily Oklahoma, en 1963. Para algunos expertos, el primer diario en internet fue el 'San José Mercury News', mientras que otros dan ese título al californiano 'Palo Alto Weekly', en 1993. En 1994, de hecho, casi todos los grandes medios estadounidense tenían ya versión en internet, entre ellos 'The New York Times', 'Los Angeles Times' y 'The Washington Post'. Ese año, en España,  'El Periódico de Cataluña' y 'El Mundo' también presentaron sus primeras versiones en internet (Información de Heraldo.es).
En Argentina la primera publicación digital como diario fue en la ciudad de Rosario, 'RosarioNet', en 1994. Otros consideran que, en ese país, el primer diario online fue 'Los Andes' (en Mendoza). En Chile, el 1 de marzo de 2000 se presentó "El Mostrador" como el primer periódico en línea del país (sin versión impresa) (Wikipedia).

Es probable que el ejemplo norteamaericano haya influido en la decisión de los demás para ofrecer una versión en la Web. Parecía ser un canal más para atraer lectores y publicidad. ¿Pero fue una decisión acertada o, por el contrario, una sentencia de muerte (suicidio) a largo plazo para el impreso?

Obviamente, no se podía prever el auge de los smartphones y las redes sociales que, actualmente, están desafiando los medios tradicionales. En 2019, más del 70% de los lectores de los diarios digitales españoles más relevantes llegaban exclusivamente desde dispositivos móviles. Ahí, desde 2007, año de la aparición del primer iPhone, la venta de ejemplares impresos bajó 70%. En los primeros nueve meses de 2019, el diario El País perdió 23,2% de sus ventas y El Mundo 9,9%. En los primeros 3 meses de 2020, El País perdió otros 15,8% (7,8% interanuales) y El Mundo 12,8%. Por el contrario, acumulan millones de lectores digitales (El Mundo 21,1 millones y El País 19,8 millones en 2019) (El Español, 8/11/2019 y 29/04/2020). En Argentina, las ventas del matutino Clarín se derrumbaron un 32,5 por ciento entre 2003 y 2012, pero la baja se venía produciendo desde 1983 según datos del Instituto Verificador de Circulaciones. Otros medios, sin embargo, no sufrieron una baja tan pronunciada en ese período (Telam).
 

El informe de 2020 del Reuters Institute señala que, a nivel internacional, la demanda por la lectura en medios de prensa digitales (“mainstream media”) aumentó sustancialmente mientras bajó en medios impresos (ver gráfico). Pero la Generación Z (18-24 años) prefiere los medios sociales (38%) y solo 16% se dirigen directamente a la prensa. 
 



Los "mainstream media" tratan de defenderse mediante "muros de pago". The Wall Street Journal comenzó a cobrar por el contenido en su web en 1996. Poco a poco, otros lo siguieron. En 2018, The New York Times y The Wall Street Journal contaban con una base 3,7 y 2,5 millones de suscriptores digitales respectivamente (Xataka, 28/08/2019). Las suscripciones o pagos por artículos a los medios de prensa digitales han aumentado en los últimos años, pero la proporción de gente que no se suscribe sigue alta (40% en los Estados Unidos y 50% en el Reino Unido), y la media de suscritos – en 9 países – ha sido solo de 13% en 2020.

En España, según el Estudio de Uso y Actitudes de Consumo de Contenidos Digitales, el 68,7% de los usuarios de Internet está dispuesto a pagar por consumir este tipo de contenidos (Pedriza). Además, "en la actualidad, las ediciones impresas de los periódicos españoles han reducido el número de páginas de sus ejemplares a la mitad (los editores emplearon en 2015 casi un 47% menos de papel que en 2001", sin que bajaran los precios (Pedriza). ¿Quién está dispuesto a pagar más para recibir menos? En 2017 cerca del 60% de los lectores digitales de ese país afirmó no comprar este tipo de contenido impreso (Statista).

Es evidente que el smartphone ha sido el principal "culpable" del retroceso de la prensa analógica, pero no el único. Como señala Pedriza, hay que tener en cuenta que sus lectores habituales han envejecido, mientras los más jóvenes prefieren los medios digitales. "Los usos y costumbres de lectura propios del siglo pasado han dejado de ser prácticos en un nuevo estilo de vida caracterizado por la velocidad a la que se desarrollan las actividades de la vida cotidiana." (Pedriza). Agrega que "Un signo más de los tiempos es la actitud indolente manifestada por la actual opinión pública de algunos países occidentales ante la inminente desaparición de su prensa escrita nacional. [...] En el modelo de cultura vigente, los nuevos lectores abandonan en masa los usos tradicionales de lectura en favor de otros exclusivamente digitales. El consumo de información a través de teléfonos inteligentes es la primera (y en muchas ocasiones, la única) opción de lectura."

¿Podría salvarse la prensa escrita analógica? Para Pedriza, quizás pueda subsistir gracias a crónicas, tribunas y artículos de opinión, aunque "favoreciendo la convergencia entre las ediciones impresas y las electrónicas de un mismo medio, con el fin de fortalecer su imagen de marca, su relevancia informativa y su reputación dentro y fuera del ciberespacio" aunque, de todos modos, "el modelo de audiencia del siglo XX ha quedado superado por una nueva generación de consumidores".

Referencias

Pedriza, S.B. (2019): Medios impresos versus digitales: de la agónica lectura de periódicos a los nuevos consumos de información digital, El Argonauta español, 16. DOI : https://doi.org/10.4000/argonauta.3855

Reuters Institute (2020): Executive Summary and Key Findings of the 2020 Report.  https://www.digitalnewsreport.org/survey/2020/overview-key-findings-2020/