27 de junio de 2014

Novedades en procesadores

Procesar como lo hacen las neuronas

Un equipo de investigadores de la Universidad de Pennsylvania ha desarrollado una tecnología de procesadores que va más allá de la lógica booleana, acercando la posibilidad de resolver problemas de gran complejidad utilizando apenas un 1% de la energía que consumen los chips actuales más capaces. El sistema se basa en el material “óxido extravagante”, capaz de oscilar bajo ciertas frecuencias. En el nuevo procesador hay numerosos grupos de oscilantes “óxidos extravagantes”, cada uno de ellos oscilando de un modo diferente según el tipo de información que se almacena. Cuando un grupo oscila de forma similar a otro, se sincronizan; y ese grado de sincronización puede ser leído. Se parece de este modo a lo que ocurre con las neuronas en el cerebro y, por ello, podría ser un importante recurso en el desarrollo de la inteligencia artificial. (Más información en TICbeat, 21/05/2014)

Núcleos unidos en red

Investigadores del MIT han creado el primer procesador experimental de 36 núcleos cuyo funcionamiento se inspira en la arquitectura de Internet. En lugar de estar conectados individualmente, los núcleos de este chip están interconectados entre sí formando una red interna dentro del propio chip. La idea podría hacer viable construir procesadores con decenas de núcleos, algo hasta ahora muy complejo.
En los procesadores actuales, los núcleos se comunican a través de un único cable llamado bus y a medida que se aumenta el número de núcleos éstos acaban esperando la mayor parte del tiempo a que se libere el cable que los interconecta, en lugar de realizar operaciones de computación. Se necesita por lo tanto otro sistema de conexión, como la arquitectura de red desarrollada en el MIT. Podría ser el comienzo de una nueva generación de chips para nuevos PC y móviles. (Gizmodo, 23/06/2014) - Informe del MIT.

20 de junio de 2014

¿Un nuevo salto computacional?

La máquina del futuro

HP, una de las mayores empresas de tecnología del mundo, acaba de anunciar otro de esos grandes saltos en el mundo de la informática, al que han llamado "The Machine". Se trata de un dispositivo que podría revolucionar el mundo de la computación tal y como lo conocemos en la actualidad. Según han comunicado desde HP, no se trata de un ordenador personal, ni de un servidor, ni de un teléfono, sino que es una combinación de todas estas cosas.
El dispositivo estaría perfectamente preparado para ser capaz de trabajar con enormes masas de datos. Estaría fabricado haciendo uso de la tecnología de la fotónica de silicio, en lugar de utilizar los tradicionales cables de cobre que observamos en cualquier dispositivo electrónico. Gracias a ello, se aumentaría en gran medida la velocidad del sistema, además de reducir el consumo de energía. En HP han apostado también por los memristores, unos elemento capaces de almacenar información de forma permanente, incluso aunque el dispositivo haya sido desconectado. Por todo ello, es un dispositivo seis veces más potente que cualquier servidor actual, y consume ocho veces menos energía. The Machine o ‘La Máquina’, como ha sido denominado de forma acertada este dispositivo, podría procesar cantidades de datos de 160 petabytess en 250 nanosegundos. Lo mejor de todo es que se trata de un producto que se espera poder aplicar a dispositivos de uso común, como smartphones o portátiles, por lo que podría ser aprovechado por el gran público. De hecho, en el discurso de presentación del producto se afirmó que si se lograsen reducir el tamaño de la tecnología presente en The Machine, podrían llegar a fabricar smartphones con 100 terabytes de almacenamiento. (Wwwhatsnew.com, 18/06/2014)

Avanza el reconocimiento automático de formas asociadas a conceptos como base del conocimiento

Ingenieros informáticos de la Universidad de Washington y el Instituto Allen de Seattle han desarrollado el software LEVAN (Learning Everything about Anything), que se propone enseñarnos todo acerca de cualquier cosa a partir de la búsqueda de imágenes y de los conceptos asociados a ellas. LEVAN busca la información en los millones de libros disponibles en Google Books, así como en imágenes de Internet, con el fin de "comprender" los diferentes tipos de variaciones de un mismo concepto. Una vez recibida una consulta, muestra los resultados en una lista llena de imágenes, con el fin de que sea fácil explorar el contenido y aprender sobre el tema asociado en profundidad de una forma muy rápida y sencilla. Para ello, el programa aprende a relacionar conceptos teóricos con imágenes, para que de este modo, si le mostramos una imagen en concreto, sea capaz de reconocer este objeto y muestre todo lo que "sabe" acerca del mismo. La diferencia respecto a una búsqueda convencional reside en que LEVAN "entiende" qué es lo que le estamos preguntando y su objetivo es enseñárnoslo. Ya cuenta con 13 millones de imágenes diferentes relacionadas con 65.000 diferentes frases y, para los términos que no reconoce, iniicia una nueva búsqueda como antes explicado. (De Wwwhatsnew.com, 2014/06/14)
Aquí el video en Youtube.

¿Amazon en esta línea?
Amazon lanzó esta semana su primer smartphone, el Fire Phone, con dos grandes apuestas: un sistema de búsqueda llamado FireFly que permite reconocer desde textos a objetos, sonidos o productos comerciales, y su pantalla 3D Dynamic Perspective, con cuatro cámaras que siguen el rostro del usuario para definir cómo mostrarle la imagen 3D, sin necesidad de gafas especiales. (Gizmodo, 19/06/2014)

Curioso: ¡Microsoft gana una fortuna con los smartphones Android!
El Ministerio Chino de Comercio (MOFCOM) ha publicado una lista de 310 patentes sobre las que Microsoft puede exigir pagos de derechos en concepto de licencias a los fabricantes de smartphones. De éstas, 127 son patentes  que, según la compañía, están implementadas en móviles Android. Se desconoce cuánto ingresa Microsoft por estas patentes, pero algunas estimaciones apuntan a unos 1.000 millones anuales mientras que otras sitúan la cifra en 2.000 millones/año. (Gizmodo, 16/06/2014)

Nota histórica
Charles W. Hull (Estados Unidos) fue premiado por la Oficina Europea de Patentes en calidad de inventor de la impresión 3D, una tecnología que ha provocado una verdadera revolución en la industria manufacturera. Aunque ahora existen multitud de técnicas de impresión 3D, todas se han desarrollado a partir del trabajo de Hull, que data de 1983.

13 de junio de 2014

Sobre Inteligencia Artificial e implantes cerebrales

Un ordenador supera el famoso Test de Turing: ¿hito o engaño?


Hasta ahora ningún ordenador ha conseguido pasar definitavemente el Test de Turing, una prueba en la que un juez intenta descubrir cuál de dos participantes es humano y cuál es máquina. Con una serie de preguntas inteligentes siempre había sido fácil descubrir a la máquina. Pero ahora la Royal Society de Londres anunció que lo había logrado con un programade la Universidad de Reading que engañó al 33% de los jueces durante un 30% del tiempo (de 5 minutos). El programa de ordenador pretendía ser un chico de 13 años de Ucrania hablando en inglés.

Varios investigadores y científicos señalan ahora que la noticia de la Universidad de Reading es puro marketing. ¿Por qué 5 minutos y no 10, o un día entero? ¿Basta con el 30% en ese corto tiempo? ¿Quién asegura que los evaluadores seleccionados tienen las cualificaciones necesarias para realizar el test? ¿Qué comunidad científica (y proceso) asegura que los resultados del test de la Universidad de Reading son, efectivamente, correctos?
Otro de los puntos más discutidos de este test: Si los evaluadores saben que al otro lado hay un niño que se comunica en un idioma que no es el suyo propio (el supuesto niño ucraniano de 13 años hablando en inglés), se introduce un sesgo a la hora de analizar la validez y complejidad de sus respuestas.
Stevan Harnad, profesor de ciencias cognitivas de la Universidad de Quebec, en Canadá, coincide en que "Es una completa tontería. No hemos pasado el test de Turing. No estamos ni siquiera cerca", ha dicho a The Guardian. Ningún programa de computador -orientado a la conversación- es capaz, hoy día, de interpretar correctamente una oración como "Pablo trató de llamar a Jorge por teléfono, pero no estaba disponible" deduciendo que la persona no disponible es Jorge, mientras que en la oración "Pablo trató de llamar a Jorge por teléfono, pero no tuvo éxito" fue Pablo el aludido. Necesita para ello dominar el significado de "llamar por teléfono" y todas las situaciones que pueden ocurrir. Aunque se ha trabajado en el desarrollo de "modelos de tareas" de este tipo, queda mucho por hacer. Watson, el superordenador de IBM, sabe más que Deep Blue (el que venció en ajedrez) sobre el mundo de los humanos de bebidas, ciudades y películas, pero sólo puede responder a UN tipo de pregunta acerca de esas cosas. Y, por cierto, un simple test de conversación, aunque exitoso, no es ninguna prueba de inteligencia humana. El test de Turing es ante todo un desafío teórico para la informática pero en modo alguno un test de inteligencia, como tampoco lo han sido los partidos de ajedrez entre humanos y computadora.
Además, en 1964, el programa Eliza, diseñado por el MIT, hizo ya algo muy parecido. (Añlgunos de estos comentarios provienen de Gizmodo).

Dudas frente a la Inteligencia Artificial

Pero hay científicos que sienten cierto reparo hacia la idea de construir una máquina inteligente capaz de pensar por si misma. Es el caso del físico Stephen Hawking, que no ha dudado en calificar a la Inteligencia Artificial como el peor error que podría cometer la humanidad. Ésto es parte de lo que dice:
"Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza. No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos. (...) Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones. (...) Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor." (Gizmodo, 5/03/2014)

El control mental de la tecnología

Un adolescente parapléjico, usando un exoesquelto cibernético, chutea la pelota con el mero pensamiento en la inauguración del Mundial de futbol. Lo ha preparado el líder del proyecto "Volver a caminar", Miguel Nicolelis, neurocientífico brasileño que ha coordinado equipos de la Universidad de Duke, EE.UU., desde el año 2000 para lograr esta demostración. "Los sensores del exoesqueleto le enviarán al joven señales de la rugosidad, de la temperatura, de la conformación del terreno, de tal modo que él no tendrá que andar mirando el suelo, lo sentirá. Ojo fijo en el balón, disparará, y su cerebro sentirá el impacto. El sistema retroalimenta el cerebro. "Estamos ante un hito evolutivo, como cuando el caballo aceleró nuestros viajes." dice el periodista científico Nicolás Luco (El Mercurio, 09/06/2014).

Y la tecnología de la comunicación mental

"Lo que creo que veremos dentro de poco tiempo son implantes que te darán la posibilidad de comunicarte con otros seres humanos. La forma en la que nos comunicamos hoy es absurda. Para hacerlo, en el cerebro se producen complejas señales eléctricas que hay que trasladar a una red de señales mecánicas, es decir, las líneas celulares, escribir algo en un ordenador, en un papel… Es una locura. ¡Es estúpido! ¿Cómo es posible que sigamos comunicándonos de una forma tan anticuada? Es un tema de interfaces. En cuanto entendamos cómo comunicarnos directamente entre señales eléctricas cerebrales, así lo haremos. (...) Pronto tendremos la habilidad de controlar la tecnología con el pensamiento y probablemente luego descubramos cómo comunicarnos directamente entre nosotros, conectando los cerebros directamente y a distancia." dice Kevin Warwick, Profesor de Cibernética en la Universidad de Reading (Gran Bretaña). (Gizmodo, 20/04/2013)

La orientación de la investigación

(Agregado 17/06/2014)
Marvin Minsky, catedrático emérito de Media Arts and Sciences en el Instituto Tecnológico de Massachusetts (MIT), ha expresado este lunes en rueda de prensa su desacuerdo con el enfoque actual de los grandes programas de investigación sobre el cerebro humano, como los puestos en marcha por EE UU y la UE: “Esa gente no sabe qué buscar en el cerebro. Va a ser una pérdida de dinero, y producirá teorías erróneas que tardaremos muchos años en borrar”. “Vale más dedicar menos dinero a muchos proyectos pequeños, que mil millones de dólares a un único programa para investigar el cerebro humano”, ha añadido este padre de la inteligencia artificial, quien plantea su alternativa: “Lo que deberíamos hacer es estudiar cómo funciona el cerebro de animales pequeños, como una libélula, por ejemplo”. (SINC, 17/06/2014)

6 de junio de 2014

La internet del futuro?

A futuro "La red va a cambiar de manera sustancial, desaparecerá y será sustituida por una nueva forma de ciberesfera, porque en la práctica solo existen, básicamente, dos opciones para organizar la información, y la red eligió la equivocada." dice David Gelernter, doctor en Ciencias Informáticas (en 'C@mbio', BBVA, 2014, p. 48). La información se acumula hoy según un esquema espacial, habitual al manejar bases de datos. Pero en internet, dice, lo que más interesa es la información reciente y, por lo tanto, un modelo cronológico podría ser más apropiado.

En realidad, el problema de mejorar el manejo de la información en la web ha sido abordado hace ya varios años y la propuesta, que data de 2004, ha sido la "web semántica". Se basa en la idea de añadir metadatos semánticos y 'ontológicos'* a las páginas web, describiendo su contenido en una forma que pueda ser fácilmente interpretado por las máquinas. Desde el 2004 existe para ello un estándar llamado OWL, pero requiere que el creador de cada página web traduzcan "a mano" su contenido en marcas OWL, lo que es inviable debido al gran volumen que tiene la web y su imparable crecimiento. Las bases de datos también deberían ajustarse a un modelo específico, el RDF.

Últimamente, sin embargo, los flujos RSS (como las que muchos diarios y revistas ofrecen como modo de acceso rápido) y las secuencias ordenadas por el tiempo o lifestreams tienen una presencia cada vez mayor en la red. El lifestream puede ser una secuencia narrativa heterogénea y puede consultarse por contenidos y en orden cronológico.  Los lifestreams se inventaron a principios de la década de 1990 como un sistema de gestión de datos que integrara documentos y mensajes en sistemas de archivos y aplicaciones de memoria en tiempo real. Los encontramos hoy en nuestros correos electrónicos, en secuencias de chat, en Twitter y en los "muros" y biografías de Facebook. Acumulados en la "nube", nos son accesibles en todas las plataformas y podemos recorrerlos en forma inversa (hacia el pasado) o mediante sistemas de búsquedas de contenidos. En materia de procesamiento informático, se basan en un álgebra de flujos mientras la acumulación y las bases de datos tradicionales operan sobre la base del álgebra de gráficos ("espacio de tuplas" y álgebra de conjuntos) que es en realidad más compleja.

Nos encontramos aquí, en realidad, frente a dos modelos de tratamiento de datos que son los mismos que se encuentran en la memoria humana: uno es semántico y el otro es episódico (es decir histórico). La memoria semántica se visualiza como espacial porque se estructura en forma de árbol: en cada concepto (su unidad básica) existe una información "por defecto" que corresponde a las propiedades de la clase a la cual pertenece, y que este concepto hereda. Nuestra mente maneja con suma facilidad una multitud de categorías, ejemplos y relaciones, que podemos evocar e incluir si queremos, que se derivan unas de otras y que se enlazan a diferentes niveles. El sistema que controla el funcionamiento de la mente determina cuál es el nivel de detalle adecuado en cada situación, y lleva a extraer de la memoria ciertos conjuntos de datos y relaciones, con mayor o menor especificidad. Lo mismo ocurre cuando se trata de agregar algo.

La memoria episódica funciona de una manera diferente. Su núcleo es la "acción" y las acciones se suceden en el tiempo, tal como las vivimos. Así, esta memoria opera con los atributos que permanecen siempre vinculados a al núcleo que identifica la "acción": sujeto, momento, lugar, etc. Del análisis de la secuencia de acontecimientos se deducen nuevas relaciones, especialmente de identidad: quien, cuando, donde, etc. y descripciones que se enlazarán con los elementos de la memoria semántica. (cfr. Colle, Teoría Cognitiva Sistémica de la Comunicación, 2002, pp.140-146)

La web actual, en realidad, es un reflejo de la estructura del hardware que la soporta, nos recuerda Gelernter: los "sitios" se encuentran en los servidores que contienen los datos y a los que debemos acceder a través de las redes. Pero la suma de los lifestreams está conformando un worldstream y cada nuevo aporte empuja a todos los anteriores hacia atrás. Recordamos el sistema Hypercard que trajeron los Macintosh Plus en 1987: se presentaba como un sistema de pilas de tarjetas -como lo haría un rolodex-, cada una encima de la anterior, al mismo tiempo que el primer sistema de "navegación" hipermedial entre estas tarjetas. El Hypercard demostró lo fácil que podía ser conservar información de esta manera y utilizarla mediante hipernavegación. También ofreció un modelo perfectamente adecuado para combinar tanto la memoria episódica como la semántica y, por lo tanto, de concebir y desarrollar -hoy o mañana- internet como un worldstream con mecanismos de acceso tanto históricos como semánticos, con navegadores optimizados para acceder de este modo a los datos. Lo importante sería que todo esté construído siguiendo una misma estructura (un estándar aún por definir), que permitiría entonces aprovechar al máximo el álgebra de flujo que permite con suma facilidad combinar múltiples lifestreams, según los intereses de cada usuario, como los flujos de todos los amigos para quedar al tanto de sus actividades, o los de diversos medios de prensa (como hacemos hoy, ya, con los agregadores de RSS). "Lo importante no es el ciberespacio, sino el cyberflow", nos dice Gelernter (p.58).

* El término ontología en informática hace referencia a la formulación de un exhaustivo y riguroso esquema conceptual dentro de uno o varios dominios dados; con la finalidad de facilitar la comunicación y el intercambio de información entre diferentes sistemas y entidades.