20 de mayo de 2016

¿Qué será la anunciada singularidad?

¿Qué es una "singularidad"?

La singularidad tecnológica es el advenimiento hipotético de inteligencia artificial general (también conocida como "IA fuerte"), en que un equipo de cómputo o un robot podría ser capaces de auto-mejorarse repetidamente (Más detalles en la Wikipedia).

El autor Ray Kurzweil llamó "singularity" al momento en que esta inteligencia artificial supere a la humana. Según él, sería en torno al año 2045, pero otros adelantan la fecha hasta 2030.

¿Qué anunció Ray Kurzweil, su principal "profeta"?

Nos advierte que la tecnología está avanzando a un ritmo cada vez mayor, porque el cambio tecnológico es exponencial. Actualmente, la potencia de las tecnologías de la información se dobla aproximadamente cada año. Así, “durante el siglo XXI no experimentaremos cien años de avance tecnológico, sino que presenciaremos alrededor de veinte mil años de progreso medidos al ritmo de progreso actual, o alrededor de mil veces más de lo conseguido en el siglo XX” (p.12). 

La forma más conocida de esta aceleración es, en el campo de la computación, la Ley de Moore, que significa un doblaje en el número de elementos por milímetro cuadrado en los chips cada 2,7 años (en los procesadores Intel el número de transistores se ha duplicado cada dos años). Los transistores se han vuelto también mil veces más rápidos en los últimos treinta años. Ésto ha permitido que tengamos un computador poderoso en nuestro teléfono y que, incluso, se encuentre ya en algunas gafas y en la ropa (“wearables”).

El mismo fenómeno de aceleración se ha podido observar en el desarrollo de internet y lo estamos viendo también en la robótica y en la biotecnología. Los conocimientos de biología han crecido también exponencialmente gracias a la tecnología, que permite penetrar cada vez a mayor nivel de detalle en los organismos vivos para conocer como están constituidos y como operan. Así, es posible que, durante la década de 2020, podamos reunir los datos suficientes y las herramientas de computación necesarias para poder hacer un modelo y simular el cerebro entero (p.221). 

Así, estaríamos pronto a entrar en una nueva era que “será el resultado de la fusión entre el enorme conocimiento alojado en nuestros cerebros y la enormemente superior capacidad, velocidad y agilidad para compartir información de nuestra tecnología. Así, la [nueva] quinta era permitirá que nuestra civilización humano-máquina trascienda las limitaciones de las tan solo cien billones de conexiones extremadamente lentas del cerebro humano” (p.22).
Pero el resultado de estos avances en las tecnologías de IA podrían provocar un efecto fuera de control, llegando a superar la capacidad y el control intelectual humano, cambiando así radicalmente la civilización. Después del 2020, “la vida humana se transformerá en forma irreversible” y los seres humanos trascenderán las “limitaciones de sus cuerpo y cerebros biológicos”.

Otras opiniones

Stuart Armstrong, del Instituto del Futuro de la Humanidad, opina que es hora de retirar el término “Singularidad tecnológica” porque ha acumulado demasiadas connotaciones diferentes y ya no es una buena descripción de lo que podría suceder cuando la inteligencia artificial alcance y supere las capacidades humanas. Sugiere hablar más bien de “explosión de inteligencia”. También hace presente que podríamos llegar a una emulación de todo el cerebro, es decir a copias de cerebros humanos en computadores que luego, aunque operen de acuerdo con las leyes de la física, podrían reproducir en forma digital el comportamiento de la mente humana.

Por su parte Ramez Naam, tecnólogo profesional y escritor de ciencia ficción, dice que la amplificación de inteligencia (aumento de la inteligencia humana mediante tecnología) podría ser una forma en la que los “humanos y posthumanos” podrían “mantenerse al día” con los avances en la tecnología.

Objeciones

Danko Nikolic, un neurocientífico del Instituto Max Planck para la Investigación del Cerebro en Frankfurt, enfrentó una audiencia de investigadores de inteligencia artificial en un debate en Berlín (febrero 2016) e hizo una afirmación audaz: nunca vamos a poder hacer una máquina más inteligente que nosotros. "Pueden aproximarse, pero la pueden superar". Cree, en efecto, que el cerebro humano no es la única base de la inteligencia: se requieren, dice, todas las instrucciones que están en nuestros genes. Y ésto significa millones de años de evolución. Habría que repetir la evolución humana para acercarse a nuestra capacidad para que una máquina sea capax de aprender y pensar como nosotros. Pero quizás se pueda llegar a una singularidad mediante la combinación de nuestra mente y de esas nuevas máquinas superpoderosas.

Mi opinión

¿Podría la inteligencia de una máquina crear algo por su cuenta? No lo creo. La IA es producto de algoritmos, es decir de reglas preestablecidas. Puede descubrir muchas cosas escondidas en las masas de datos acumulados, pero ésto no es "creación". La creatividad es producto de la imaginación, proyecta cosas nuevas sobre bases inesperadas (ver mis posts anteriores sobre creatividad). Incluso en el caso de los nuevos computadores con redes neuronales, las sinapsis deben ser entrenadas por un operador humano. Es dudoso que puedan operar sin supervisión alguna (podría ser extremadamente peligros, como han señalado Stephen Hawking y otros). Sí son sin duda posibles grandes avances gracias a la asociación de nuestras mentes con los recursos computacionales, cada vez más poderosos. Iniciativas como le proyecto "HUMAN" pronto podrían demostrar algunos de los aportes posibles.

Referencias
Kurzweil, R. (2012): La singularidad está cerca, Lola Books (“The Singularity is Near”, Viking Press, 2005)
Dvorsky, G.: 20 términos imprescindibles para comprender el futuro que nos espera en el siglo XXI, http://es.gizmodo.com/20-terminos-imprescindibles-para-comprender-el-futuro-q-1767876605 Gizmodo,10/05/2016.
Visions of the singularity: how smart can AI get?, https://www.newscientist.com/article/mg22930661­800­vision­of­singularity­questions­ai­intellect/ New Scientist, 26/03/2016

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.