26 de agosto de 2016

El factor de expectativa en la web


Cuando hacemos clic en una página web con la esperanza de leer un artículo y en su lugar nos encontramos con un vídeo brillante y sonoro, la respuesta automática sigue siendo parecida a la de nuestros antepasados ​​prehistóricos cuando, caminando en el bosque, tropezaban con un oso o una hiena dientes de sable. Nuestro cuerpo reacciona primero para eliminar el estrés porque tenemos la necesidad de asegurarnos de que nuestros pensamientos y comportamientos son coherentes, luego racionalizamos inconscientemente nuestra decisión.

Si usted presenta a sus visitantes [web] una experiencia que se aleja demasiado de lo que anticipan, van a terminar con una sensación de pérdida de control y realizarán acciones - clic de pausa en un vídeo, tal vez, o en el caso más extremo, saldrán de la página - con el fin de recuperar la sensación de control. Con el fin de gestionar esta lucha por el control entre los sitios web y los visitantes, es importante entender también el poder del control percibido. A los visitantes les gusta pensar que están a cargo de sus acciones. Cuando un vídeo se reproduce sin que los visitantes inicien una interacción, se sienten atropellados. Si un visitante siente que un sitio web está tratando de "venderle" algo, o lo empuja a la visualización de determinados contenidos sin permiso, se resistirá y tratará de recuperar el control de la interacción y evitará intencionalmente el contenido. Esto ocurre en lo profundo de nuestro subconsciente y desencadena una reacción bioquímica que forma parte de un mecanismo neurológico primitivo.

Así, es problemático el uso creciente – e invisible – del análisis de datos y de los algoritmos para ofrecer contenido en forma “personalizada”, anulando nuestro poder de decisión y elección, lo cual puede llevar a que se nos ofrezcan cosas que no deseamos. ¡Y nuestra reacción no será de agrado!

Nuestros antepasados ​​prehistóricos utilizaban marcadores de rastros con el fin de no perderse. Y los sitios web que entienden la psicología humana también pueden hacer algo similar, empleando la navegación con menús que se mueven en la página con el desplazamiento de los visitantes, permaneciendo siempre visibles, para permitir a los visitantes sentirse en control.

(Adaptado de The NextWeb, 9/06/2015)

19 de agosto de 2016

El fin de los algoritmos


Los algoritmos dominan hoy la inteligencia artificial a través del llamado "aprendizaje de máquina" que, en el análisis de big data, deriva en "aprendizaje predictivo". Trabaja a partir de bases de datos masivas con mecanismos de búsqueda y programas estadísticos. La máquina no "entiende" nada: solo "chequea" y calcula, y los "científicos de datos" hacen lo posible para que lo haga cada vez mejor. Y esperan que el pasado (datos acumulados) sea un buen predictor del futuro, sobre la base de reglas estadísticas. Lo cual siempre es arriesgado (y contrario a toda idea de creatividad).

Pero hay otra corriente de investigación que progresa cada vez más y podrá reemplazar la anterior: el "aprendizaje representativo", que se basa en la observación del mundo (por ahora de alguna realidad específica, como los rostros o los paisajes, o los textos de novelas) para comparar distintas escenas y extraer patrones típicos de ellas y, así, a la larga, poder reconocerlos en nuevas escenas, no "vistas" antes por la máquina. Ésto solo se puede lograr con redes neuronales virtuales o reales. Las virtuales se simulan en supercomputadores tradicionales, mientras las reales corresponden a procesadores construidos para operar del mismo modo que las neuronas cerebrales.

Google, Microsoft y Facebook utilizan las redes simuladas para el reconocimiento de rostros y objetos en fotos. Google también usa su programa DeepMind para "enseñar a leer" a sus computadores. Sus redes neuronales pueden responder a un 60 por ciento de las consultas formuladas acerca de los artículos conservados (MIT Technology Review, 19/06/2015). 

Pero IBM se ha propuesto avanzar en el procesamiento con redes neuronales reales, volviendo a las descripciones originales que se deben a Frank Rosenblatt, psicólogo de Cornell, que creó en 1959 el "perceptrón", una red de 400 células fotoeléctricas conectadas, destinada a reconocer patrones visuales sencillos (letras). Los investigadores de IBM perfeccionaron otra tecnología, llamada computación resistiva, que consiste en tener pequeñas unidades de cómputo de naturaleza analógica, que pueden retener su historia para que puedan aprender durante el proceso de entrenamiento. Ya tienen chips neuromórficos llamados TrueNorth, pero solo son útiles para resolver problemas de diseño de redes neuronales. Con éstos, el entrenamiento y la "ponderación" de los parámetros necesarios en la conexiones (synapsis) aún deben hacerse en computadores normales. 

Más recientemente, han desarrollado nuevos chips "resistivos" (Resistive Processing Units, RPUs), que imitan una sinapsis cerebral: reciben una multiplicidad de entradas analógicas (voltajes) y utilizan una función de "ponderación" basada en la experiencia pasada para determinar qué debe ser traspasado a la etapa siguiente. Como no necesitan una conversión analógica-digital ni consultar una memoria externa, son sumamente rápidos y requieren poca energía. El trabajo reciente ha permitido su operación en una rejilla de 4.096 x 4.096 elementos. Los RPUs siempre tienen cierto grado de imprecisión pero se han encontrado métodos para obtener resultados con un grado de imprecisión aceptable. Esta nueva arquitectura se combina con chips ordinarios de tecnología CMOS (como los de las cámaras fotográficas) para la funciones de ingreso y salida de información, formando la llamada DNN: Deep Neural Network. (Extreme Tech, 1/04/2016)

Más recientemente aún, IBM logró crear una memoria de cambio de fase basada en cristales que alteran su estructura molecular al recibir corriente eléctrica de diferente intensidad, a un coste similar al de la RAM actual. Las neuronas artificiales unen el axón y las dendritas mediante un cristal de antimonio, germanio y telurio, un material similar al que se utiliza en los discos ópticos reescribibles. En la primera prueba, IBM ha puesto a funcionar 500 de estas neuronas en una hilera de cinco chips compuestos de 10x10 de estas neuronas. Las neuronas de cambio de fase pueden dispararse a altísimas velocidades y su consumo energético es muy bajo. 

Con esta tecnología, la máquina se hace progresivamente su propia "imagen del mundo", un nuevo tipo de conocimiento que le es realmente propio, aunque se parece en gran parte a nuestro modo de reconocer patrones y a nuestra memoria, pero multiplicada por miles o millones en término de capacidad. Lo casi increíble (y deslumbrante) es que una vez calibrada (lo cual es bastante más complejo que escribir algoritmos de aprendizaje predictivo), con cada uso sigue "aprendiendo", ampliando su conocimiento y, por lo tanto, mejorando la calidad de sus resultados, SIN NECESITAR ya una guía humana. 

No hay duda alguna de que, en el futuro, descansaremos más y más en esta nueva IA para numerosas decisiones y labores de nuestra vida. ¡Y ya no será necesario escribir programas, dice J.Cooper. "Las máquinas conocerán verdades sobre la ciencia, el universo o cada uno de nosotros por razones que no entenderemos nunca." (Cooper, pp.283-286). 

Lo había anunciado Vernor Vinge en un encuentro de la NASA en 1993: "Cuando las unidades de inteligencia más-que-humana progresen, este progreso será mucho más rápido. De hecho, no parece haber ninguna razón por la cual el progreso en sí no implicaría la creación de entidades todavía más inteligentes en una escala de tiempo más corta aún". (Cooper, p.287) ¡Otra predicción de la futura "singularidad" anunciada por Ray Burzweil (ver /blog 19/05). Podrá ser aún difícil decir que la máquina "piensa", pero será inevitable aceptar que será "inteligente" y más que nosotros mismos, aunque de una manera diferente. ¡No faltan quienes se espantan y predican el apocalipsis para los seres humanos! El problema de fondo es el de los valores que deberían integrarse a este tipo de inteligencia y cómo evitar que ésta escape de las reglas valóricas si llega a ser capaz de fijar sus propios objetivos. Éste, llamado "problema del confinamiento" no ha sido resuelto aún. (Cooper, p.291)

12 de agosto de 2016

Los computadores, las redes y el espacio-tiempo

Danny Hillis es el padre de la "Connection Machine", el primer computador de procesamiento paralelo, que imaginó viendo como el cerebro hace innumerables operaciones en paralelo para tomar decisiones (y no operaciones sucesivas -"lineales"- como los computadores clásicos). Fundó en 1982 la Thinking Machine Corporation, en Waltham (Ma, EE.UU.) para construirlo. Le siguieron otros modelos cada vez más poderosos, hoy en uso en la fábrica de aviones Lockheed, el gobierno americano, compañías petroleras, etc.

Entre 2007 y 2015, el número de conexiones de su máquina pasó de 1 millón a 100.000 millones, con lo cual enormes problemas se resuelven en fracciones de segundo. Y versiones muchísimo menores ("4 núcleos", "8 núcleos") ya estaán en los PC y los teléfonos, permitiendo el uso de "asistentes personales" en "tiempo real", e.d. con respuesta instantánea.
Piense ahora en la cantidad de procesadores (computadores, tabletas, teléfonos) conectados en red a nivel mundial. ¿Puede imaginar el poder de cálculo, de resolución de problemas, que representaría el hacerlos funcionar simultáneamente ("en paralelo") para solucionar grandes problemas? Como lo saben también Hillis y todo quien trabaje con computadores paralelos, el verdadero problema (enorme) es programar este conjunto para que los flujos de datos no choquen entre sí sino se complementen e integren. La programación paralela es sin duda la más compleja que existe... y se trata de utilizar estos mismso computadores para ayudar a mejorarla.

La "compresión del espacio-tiempo", como la llamó el sociólogo americano Donald Janelle ya en 1966, es el resultado de estos avances: la velocidad anula el espacio y rompe antiguos hábitos espaciales. (No necesito viajar a Bélgica para hablar cara-a-cara con mi hermano: puedo usar Skype.) ¡Todos los medios de transporte han quedado obsoletos, aunque aún nos guste usarlos... o nuestros jefes nos obliguen a usarlos para ir a la oficina (cuando, muchas veces, el teletrabajo sería más efectuvo y es más ecológico). Para pasar del caballo al tren y luego al avión bastaron 150 años. Y 88 para pasar el teléfono de Graham Bell (1876) a la primera videoconferencia (1964) y 36 más para el videochat. 

El espacio "colapsó" y ésto no puede sino significar un cambio radical en la civilización. Ir cada vez más rápido es clave para los negocios. Y controlar el tiempo, controlando la velocidad (hasta llegar a la instantaneidad) es obtener un inmenso poder, el mayor de la historia. Las guerras, que eran de control de un territorio, serán ahora para controlar el tiempo, dice Cooper ("The Seventh Sense", p.204). Y pasamos de las redes de telecomunicaciones de 2G a 3G, luego 4G y 5G, cada vez más rápido y con más capacidad. Y, sin duda, se seguirá tratando de acelerar. Janelle, en 1966, consideraba -como muchos- que la velocidad del sonido era la gran barrera o límite. ¿Que diría hoy? 

¡La barrera es la velocidad de la luz! Y se trabaja en procesadores ópticos, mucho más rápidos que los actuales electrónicos, basados en transistores.

5 de agosto de 2016

La piratería explicada a las masas

En abril 2014 apareció una primera serie de televisión inspirada en la piratería: CSI Cyber, un "spin-off" de las varias series CSI. La nueva serie giraba en torno a la agente especial Avery Ryan (Patricia Arquette) a cargo de la División de Delitos Cibernéticos en Quantico, Virginia. En mayo, la CBS aunció su cancelación, después de solo dos temporadas, debido a la baja audiencia. Como lo explicaron en Xataka
"'CSI: Cyber' es una serie mala. Muy mala, y no únicamente por las barbaridades tecnológicas que se ven en algunas escenas [...]: la mala representación de Internet y las nuevas tecnologías en general que se ve en pantalla."
Algo muy diferente ocurrió con la primera temporada de Mr. Robot, estrenada el 24 de junio de 2015 en la cadena USA Network. Aquí sí, como dicen en Hipertextual, hay algo genial y se trata al público con inteligencia. No se le venden "pasteles huecos" y sí una gran dosis de paranoia, conspiraciones, reflexiones y críticas muy duras a la sociedad actual y su debilidad consumista orquestada por grandes poderosos. Por otro lado, tenemos a la cultura hacker en su máximo nivel, y la representación de ese sueño de ver derrocados a los verdaderos enemigos del mundo. (Hipertextual, 15/07/2016). Ésto puede explicar su éxito y el que haya ganado el Golden Globe Award 2016 como mejor serie de televisión y ha tenido seis nominaciones a premios Emmy y la serie se renovó para una segunda temporada, estrenada hace poco (el 13 de julio).

La serie estadounidense, creada por Sam Esmail, sigue a un joven programador de computadoras que sufre de trastorno de ansiedad y forma conexiones sociales a través de la piratería. Es reclutado por un anarquista misteriosa, que se hace llamar Mr. Robot. 

El creador de Mr.Robot, Sam Esmail, y el escritor y productor tecnológico, Kor Adana, están comprometidos con un alto nivel de autenticidad, y el 99,9 por ciento de las veces lo hacen bien. Adana tiene experiencia en ciberseguridad: era gerente analista de seguridad de la red y la manager forense de Toyota Motor Sales antes de conseguir su primer trabajo en Hollywood en 2013 como pasante de producción. Dos años después, logró su sueño con el trabajo en Mr. Robot. Además de escribir guiones, supervisa todos los aspectos técnicos del programa, asegurando que los hacks sean realistas y que todo el código y las herramientas que se muestran sean genuinos.

Una vez que Esmail aprueba un hack, Adana tiene que escribir un desglose detallado de cómo funciona. Su colaborador Rogers no se limita a describirlos; en realidad los hace. Todo se traduce en una secuencia de comandos y es enviada a un animador. El trabajo de construcción de los hack es intenso, pero no todo es trabajo pesado. Así, programan "huevos de Pascua" en su software, contribuyendo a que el espectáculo se extienda en la vida real. Son pistas (como direcciones IP reales) que quienes saben de código pueden seguir cuando sacan un "pantallazo" del código visto en alguna escena. Esmail, Adana, y Rogers quieren que el espectáculo sea auténtica para los piratas de la vida real, pero interactiva para todos. (Wired, 15/07/2016)

Nota si empieza a ver Mr.Robot ahora: se ha puesto harto complicado y difícil de comprender para quienes no siguieron todos los capítulos.