Ya existen programas de inteligencia artificial (IA) que relatan partidos de beisbol y de fútbol americano. Los mismos, con los debidos ajustes, analizan y comentan los movimientos de las bolsas de valores. Empresas como Google, Facebook, Microsoft y otras han contratado los mejores expertos en IA para sacar partido de todos los datos que acumulan ("big data").
En los últimos cinco años, los avances en inteligencia artificial, en particular en la rama de las redes neuronales profundas, han generado productos de avanzada que ya están llegando a nuestras vidas a través de los laboratorios de IA de empresas como Google, Facebook, Microsoft y Baidu, que están colocando a cientos de millones de dólares en la carrera por mejores algoritmos y computadores "más inteligentes".
El "aprendizaje profundo" de los nuevos sistemas de IA ha impulsado el reconocimiento de voz en Apple y Android, y ya permiten la traducción instantánea en Skype (chats de texto en más de 40 idiomas, y traducción hablada en tiempo real entre hablantes de español e inglés). Google construye autos que se conducen solos. Los sistemas informáticos pueden enseñarse a sí mismos para identificar objetos o personas en fotografías.
De ahí el convencimiento tanto de Elon Musk, Stephen Hawking y muchos otros científicos de que ha llegado el momento de plantearse la problemática ética ligada a estos avances, tal como lo hicieron los biólogos moleculares en 1975, en la Conferencia de Asilomar sobre ADN Recombinante, donde definieron las normas de seguridad necesarias para prevenir que organismos artificiales modificados genéticamente pudieran representar una amenaza para el público.
Así, en la tarde del primer domingo de 2015, Elon Musk subió al escenario en una conferencia a puerta cerrada en un centro turístico de Puerto Rico para discutir acerca de la "explosión de la inteligencia artificial", que se está dando en el campo de la capacidad cognitiva de los programas de inteligencia artificial. Se le unieron el físico Stephen Hawking y expertos de varios laboratorios de IA para discurrir sobre los riesgos que ésto podría acarrear para la raza humana. A esta conferencia, titulada "El futuro de la IA: Oportunidades y Desafíos" (“The Future of AI: Opportunities and Challenges”), concurrieron importantes académicos como el especialista en ética Nick Bostrom, de Oxford, junto con ejecutivos de la industria como el fundador de Skype, Jaan Tallinn, y expertos como Shane Legg, de Google AI. "Hay una aceleración en el desarrollo de sistemas de inteligencia artificial", dijo en el evento Bart Selman, profesor de Cornell y experto en ética de IA. "Y ésto es lo que hace más urgente analizar este asunto."
Al final de la reunión, los delegados firmaron una carta abierta comprometiéndose a llevar a cabo la investigación en IA para el bien y "evitar los peligros potenciales". Todos estuvieron de acuerdo en que la seguridad de la IA es importante.
- "Recomendamos más investigación enfocada a asegurarse de que los cada vez más capaces sistemas de inteligencia artificial son robustos y beneficiosos: nuestros sistemas de inteligencia artificial deben hacer lo que nosotros queramos que hagan", afirmaron.
Entre las preocupaciones expresadas en Puerto Rico está evitar que los robots arruinen la economía o, en general, se multipliquen sin freno. O lleguen a perjudicar a los humanos. Cuatro factores deben ser especialmente considerados:
Un problema típico sería que "si una IA selecciona las acciones que mejor le permiten completar una tarea, entonces el evitar las condiciones que impidan que el sistema siga ejecutando dicha tarea es un objetivo natural para ella", lo podria llevarla a actuar contra los humanos, de no haber un mecanismo de control que permita la interrupción. Es lo que había previsto Isaac Asimov hace más de 70 años, cuando propuso sus "Tres leyes fundamentales de la robótica" (por primera vez en el relato Runaround, de 1942). La Ley n°1 es "Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño".
- Verificación: demostrar que el sistema se ha construido de acuerdo con las instrucciones deseadas
- Validez: asegurarse de que un sistema que respeta las propiedades formales de diseño no tenga comportamientos no deseados
- Seguridad: prevenir la manipulación deliberada por parte de los terceros no autorizados
- Control: permitir el control humano significativo sobre un sistema IA después de iniciar sus operaciones
Un problema típico sería que "si una IA selecciona las acciones que mejor le permiten completar una tarea, entonces el evitar las condiciones que impidan que el sistema siga ejecutando dicha tarea es un objetivo natural para ella", lo podria llevarla a actuar contra los humanos, de no haber un mecanismo de control que permita la interrupción. Es lo que había previsto Isaac Asimov hace más de 70 años, cuando propuso sus "Tres leyes fundamentales de la robótica" (por primera vez en el relato Runaround, de 1942). La Ley n°1 es "Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño".
Los acuerdos de Puerto Rico parecen ser los primeros pasos hacia la instauración de las leyes de Asimov. Pero algunas empresas ya se habían adelantado. El año pasado, los expertos en robótica canadienses de Clearpath Robotics prometieron no construir robots autónomos para uso militar. Google debe asegurarse de que sus autos sin conductor no matarán a los peatones. Y también plantearía un problema ético el que una tienda online modifique sus precios para diferentes "nichos" de compradores en función de una u otra característica de su gusto.
Pocos días después del encuentro, Elon Musk regaló diez millones de dólares para iniciar los estudios requeridos. Además, Eric Horvitz (de la Universidad de Stanford) inició el pasado diciembre de 2014 un estudio para analizar durante 100 años los efectos de la evolución de la inteligencia artificial. Y el Allen Institute for Artificial Intelligence, impulsado por Paul Allen (cofundador de Microsoft), lanzará un programa piloto de inteligencia artificial llamado Semantic Scholar, que ayudará a los investigadores a gestionar la constante avalancha de nuevas publicaciones académicas.
Y no se ha de pensar que la IA sigue reservada a las grandes empresas o universidades y que éstas nos "servirán" a través de programas que operen en su "nube" (como en el caso de Skype Translate). Spark ya ofrece una consola de inteligencia artificial (el cubo en la foto adjunta), la EmoSpark, que se conecta vía wifi o bluetooth al televisor y computadores del hogar y a la que se podrá pedir que haga una llamada telefónica o que busque cuál es la capital de algún país. "También detecta el estado de ánimo, ayuda a navegar por la red, notifica actualizaciones y mensajes en tus redes sociales y graba todo lo que te gusta para recordártelo cuando estés triste." Todo ésto por USD $315.
Una vez más, nos hacen pensar que "la Singularidad está cerca" (el momento en que la IA podría superar la mente humana), como advierte Ray Kurzweil (aunque "cerca" quiere decir hacia la segunda mitad de este siglo).
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.