Los algoritmos dominan hoy la inteligencia artificial a través del llamado "aprendizaje de máquina" que, en el análisis de big data, deriva en "aprendizaje predictivo". Trabaja a partir de bases de datos masivas con mecanismos de búsqueda y programas estadísticos. La máquina no "entiende" nada: solo "chequea" y calcula, y los "científicos de datos" hacen lo posible para que lo haga cada vez mejor. Y esperan que el pasado (datos acumulados) sea un buen predictor del futuro, sobre la base de reglas estadísticas. Lo cual siempre es arriesgado (y contrario a toda idea de creatividad).
Pero hay otra corriente de investigación que progresa cada vez más y podrá reemplazar la anterior: el "aprendizaje representativo", que se basa en la observación del mundo (por ahora de alguna realidad específica, como los rostros o los paisajes, o los textos de novelas) para comparar distintas escenas y extraer patrones típicos de ellas y, así, a la larga, poder reconocerlos en nuevas escenas, no "vistas" antes por la máquina. Ésto solo se puede lograr con redes neuronales virtuales o reales. Las virtuales se simulan en supercomputadores tradicionales, mientras las reales corresponden a procesadores construidos para operar del mismo modo que las neuronas cerebrales.
Google, Microsoft y Facebook utilizan las redes simuladas para el reconocimiento de rostros y objetos en fotos. Google también usa su programa DeepMind para "enseñar a leer" a sus computadores. Sus redes neuronales pueden responder a un 60 por ciento de las consultas formuladas acerca de los artículos conservados (MIT Technology Review, 19/06/2015).
Pero IBM se ha propuesto avanzar en el procesamiento con redes neuronales reales, volviendo a las descripciones originales que se deben a Frank Rosenblatt, psicólogo de Cornell, que creó en 1959 el "perceptrón", una red de 400 células fotoeléctricas conectadas, destinada a reconocer patrones visuales sencillos (letras). Los investigadores de IBM perfeccionaron otra tecnología, llamada computación resistiva, que consiste en tener pequeñas unidades de cómputo de naturaleza analógica, que pueden retener su historia para que puedan aprender durante el proceso de entrenamiento. Ya tienen chips neuromórficos llamados TrueNorth, pero solo son útiles para resolver problemas de diseño de redes neuronales. Con éstos, el entrenamiento y la "ponderación" de los parámetros necesarios en la conexiones (synapsis) aún deben hacerse en computadores normales.
Más recientemente, han desarrollado nuevos chips "resistivos" (Resistive Processing Units, RPUs), que imitan una sinapsis cerebral: reciben una multiplicidad de entradas analógicas (voltajes) y utilizan una función de "ponderación" basada en la experiencia pasada para determinar qué debe ser traspasado a la etapa siguiente. Como no necesitan una conversión analógica-digital ni consultar una memoria externa, son sumamente rápidos y requieren poca energía. El trabajo reciente ha permitido su operación en una rejilla de 4.096 x 4.096 elementos. Los RPUs siempre tienen cierto grado de imprecisión pero se han encontrado métodos para obtener resultados con un grado de imprecisión aceptable. Esta nueva arquitectura se combina con chips ordinarios de tecnología CMOS (como los de las cámaras fotográficas) para la funciones de ingreso y salida de información, formando la llamada DNN: Deep Neural Network. (Extreme Tech, 1/04/2016)
Más recientemente aún, IBM logró crear una memoria de cambio de fase basada en cristales que alteran su estructura molecular al recibir corriente eléctrica de diferente intensidad, a un coste similar al de la RAM actual. Las neuronas artificiales unen el axón y las dendritas mediante un cristal de antimonio, germanio y telurio, un material similar al que se utiliza en los discos ópticos reescribibles. En la primera prueba, IBM ha puesto a funcionar 500 de estas neuronas en una hilera de cinco chips compuestos de 10x10 de estas neuronas. Las neuronas de cambio de fase pueden dispararse a altísimas velocidades y su consumo energético es muy bajo.
Con esta tecnología, la máquina se hace progresivamente su propia "imagen del mundo", un nuevo tipo de conocimiento que le es realmente propio, aunque se parece en gran parte a nuestro modo de reconocer patrones y a nuestra memoria, pero multiplicada por miles o millones en término de capacidad. Lo casi increíble (y deslumbrante) es que una vez calibrada (lo cual es bastante más complejo que escribir algoritmos de aprendizaje predictivo), con cada uso sigue "aprendiendo", ampliando su conocimiento y, por lo tanto, mejorando la calidad de sus resultados, SIN NECESITAR ya una guía humana.
No hay duda alguna de que, en el futuro, descansaremos más y más en esta nueva IA para numerosas decisiones y labores de nuestra vida. ¡Y ya no será necesario escribir programas, dice J.Cooper. "Las máquinas conocerán verdades sobre la ciencia, el universo o cada uno de nosotros por razones que no entenderemos nunca." (Cooper, pp.283-286).
Lo había anunciado Vernor Vinge en un encuentro de la NASA en 1993: "Cuando las unidades de inteligencia más-que-humana progresen, este progreso será mucho más rápido. De hecho, no parece haber ninguna razón por la cual el progreso en sí no implicaría la creación de entidades todavía más inteligentes en una escala de tiempo más corta aún". (Cooper, p.287) ¡Otra predicción de la futura "singularidad" anunciada por Ray Burzweil (ver /blog 19/05). Podrá ser aún difícil decir que la máquina "piensa", pero será inevitable aceptar que será "inteligente" y más que nosotros mismos, aunque de una manera diferente. ¡No faltan quienes se espantan y predican el apocalipsis para los seres humanos! El problema de fondo es el de los valores que deberían integrarse a este tipo de inteligencia y cómo evitar que ésta escape de las reglas valóricas si llega a ser capaz de fijar sus propios objetivos. Éste, llamado "problema del confinamiento" no ha sido resuelto aún. (Cooper, p.291)
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.