Se anuncia que 2016 se convertirá en el año de los bots inteligentes (software con inteligencia artificial que se puede programar para hacer todo tipo de cosas).(Capital.cl, 5/04/2016). Es decir que los algoritmos, especialmente los de aprendizaje de máquina, se multiplicarán. Satya Nadella (CEO de Microsoft) es uno de sus promotores y anunció que su compañía, a pesar del fracaso de Tay, se propone ofrecer lo que denomina Microsoft Bot Framework: un conjunto de herramientas de código y programas de aprendizaje de máquina para que cada cual pueda construir su propio sistema, desde motores de búsqueda hasta asistentes personales que respondan al nombre del usuario y sus intereses (The Verge, 30/03/2016).
Se podría considerar que los algoritmos de recopilación y análisis de intereses personales -individuo por individuo- (tratados así son los llamados "little data") podrían ser una real ayuda para los usuarios y es posible que, efectivamente, puedan facilitar servicios personalizados, como muchos creen con cierta razón. Pero sigue siendo dudoso que sean legítimos si se imponen sin consultar al usuario como ocurre actualmente en la gran mayoría de los casos.
Siempre he sido partidario de la personalización en el caso de los periódicos digitales pero también he recalcado la importancia de seguir incluyendo información sobre otros temas, especialmente los que pueden ser relevantes para toda la población, para asegurar una adecuada participación ciudadana. Establecer las prioridades en este campo más general ha sido siempre y deberá seguir siendo el rol de los equipos editoriales de cada medio.
En otras palabras, el tema de la personalización no puede ser tratado al margen del tema de la vida social, del bien común. Se trata, en esencia, de un tema de ética de las comunicaciones, algo que -desgraciadamente- parece ser ignorado por la concepción actual del mercadeo digital influenciado, como señalado en el post anterior, por la fe ciega en la "objetividad" de los algoritmos. Y si ésto ya es éticamente cuestionable, no olvidemos lo fácil - y perverso - que es introducir un pequeño factor que favorezca (invisiblemente) los intereses de una empresa o una facción política.
Podemos creer que estamos en nueva "era del conocimiento" y es obvio que tenemos más que nunca acceso a innumerables fuentes de información. ¿Pero tenemos realmente acceso a lo más significativo y lo más beneficioso (para nosotros y para la comunidad)? ¿O solo a lo que algunos parecen preferir y a lo que los creadores de algoritmos creen más "adecuado" o más "representativo" según sus propios (y desconocidos) criterios?
Se dice -sin duda correctamente- que permitir a las empresas el acceso a los datos personales es la forma adecuada de remunerar los servicios que presentan como "gratuitos". ¿Pero no sería más correcto que cada uno pudiera decidir qué datos liberar y qué intereses priorizar en vez de obligarnos a "abrir completamente la puerta" para que una empresa analice todo nuestro comportamiento en línea (incluidos los contenidos de nuestros mensajes personales, e.d. violando sistemáticamente el secreto de la correspondencia)? Y si rehusamos, actualmente, nos condenamos al ostracismo. ¿No es ésta una nueva forma de esclavitud?
Debemos considerar también que compañías como Facebook han comenzado a utilizar algoritmos para predecir qué usuarios podrían cometer delitos haciendo uso de sus servicios. En 2012, Reuters informó que Facebook, provisto de sus algoritmos predictivos, descubrió a un hombre de edad media que mantenía conversaciones de contenido sexual con una niña de trece años y hacía planes para encontrarse con ella al día siguiente. Avisó a la policía y ésta lo detuvo. Es difícil cuestionar la aplicación de tales métodos para la aprehensión de este tipo de delincuentes. Pero también podría detectar traficantes de drogas y hasta posibles infractores de derecho de autor. ¿Las redes sociales convertidas en policías?
"No sabemos si Facebook tiene algún tipo de Pedofilómetro, pero teniendo en cuenta el amplio análisis de usuarios que ya realiza, no le resultaría muy difícil crear uno, y no solo para hacer un ranking de pedófilos. ¿Qué tal un Drogómetro? ¿Y un Comunistómetro?, a Joseph McCarthy encantaría la idea. Con los datos suficientes y los algoritmos correctos, todos corremos el riesgo de ser sospechosos. ¿Qué sucederá cuando Facebook nos entregue a la policía sin que hayamos cometido ningún delito?" (Morozov, p.216)
Se ha sugerido la creación de agencias especializadas e independientes encargadas de auditar los algoritmos. La idea es sin duda interesante pero plantea varias interrogantes, no siendo la menor quienes las financiarían.
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.