16 de noviembre de 2017

IA: Inteligencia amoral

"No faltan los informes sobre la ética de la inteligencia artificial. Pero la mayoría es muy liviana y no considera la naturaleza nudosa de los dilemas sociales que crea la IA" dice Scott Rosenberg en Wired (1/11/2017). 
Kate Crawford y Meredith Whittaker, cofundadoras de 'AI Now', un centro de investigación adjunto a la Universidad de Nueva York, son de las que escapan a esta critica y enfrentan a las grandes empresas que desarrollan la IA por su falencia. Es demasiado frecuente que "el consentimiento del usuario, la privacidad y la transparencia se pasan por alto a favor de la funcionalidad sin fricción que soporta modelos comerciales basados ​​en perfiles de datos agregados", dicen. Mientras tanto, los sistemas de AI se están introduciendo en vigilancia, educación, cuidado de la salud y otros entornos donde el fallo de un algoritmo podría arruinar una vida. "Hablamos muchas veces de ética, pero olvidamos hablar de poder, de como es poder real, asimétrico, afecta a las comunidades. Necesitamos entrenar gente para poner a prueba los sistemas y confirmar su seguridad. Con urgencia."(ibidem)

No se puede dejar todo el desarrollo de la IA solo en manos de los ingenieros, agregan. Si toda la sociedad está implicada en las consecuencias, se necesita desde el principio formar equipos que incluyan expertos en diversas áreas, que conozcan la realidad social y los diversos problemas de la vida humana, para orientar correctamente el trabajo ingenieril y evitar las distorsiones que pueden surgir de la mera acumulación de datos y aprendizaje automático. "Los datos no son neutrales."
"Cuando la IA se vuelve superinteligente, se da cuenta de que hay una manera más eficaz para lograr su objetivo: tomar el control del mundo.[...] Supongamos que le damos el objetivo de resolver un problema matemático difícil. Cuando la IA se vuelve superinteligente, se da cuenta de que la forma más eficaz para conseguir la solución a este problema es mediante la transformación del planeta en un computador gigante, para aumentar su capacidad de pensar. Y tengan en cuenta que esto da a la IA una razón instrumental para hacer cosas que nosotros no podemos aprobar. Los seres humanos se convierten en una amenaza, ya que podríamos evitar que el problema se resuelva.[...] Creo que la solución es averiguar cómo crear una IA superinteligente para que incluso si, o cuando se escape, sea todavía segura para que fundamentalmente esté de nuestro lado y comparta nuestros valores. No veo cómo evitar este problema difícil.[...]Los valores de la IA tienen que coincidir con los nuestros no solo en el ámbito familiar, donde podemos comprobar fácilmente cómo se comporta, sino también en todos los nuevos contextos donde la IA podría encontrarse en un futuro indefinido." (Nick  Bostrom, charla TED)
Un problema muy actual es cómo diseñar algoritmos que ayuden a la IA de los coches autónomos a tomar decisiones éticas en situaciones complejas, como en caso de accidentes que causen víctimas. El principal obstáculo es la falta de una base formal de principios éticos que se pueda aplicar. Un grupo de investigadores del Media Lab del MIT y el Departamento de Machine Learning de la CMU dice haber hallado una solución al problema:
"Lo que sugieren es que a falta de esta base, lo que deberíamos hacer es utilizar una "aproximación según lo acordado por la sociedad". Investigadores del Media Lab del MIT y tres del Departamento de Machine Learning de la CMU. Para evaluar su teoría, han creado un modelo basándose en las decisiones tomadas por 1,3 millones de votantes en la web Moral Machine del MIT. En esta web se le presenta a los votantes una serie de situaciones complejas con varias personas y animales involucrados, y ellos tienen que decir cual es la decisión que creen que debería tomar el coche autónomo en cada situación. Con todos estos datos, han desarrollado un sistema de prueba de concepto que toma una decisión equivalente que probablemente sea la misma que si se acudiese a cada uno de los 1.3 millones de votantes, se les pidiese su opinión, y se generase con todas una opción que satisfaga las nociones matemáticas de justicia social.  Habría que insertar en los coches autónomos todas las preferencias generales que ha votado la gente, de manera que cuando el vehículo se enfrente a uno de los dilemas morales sobre el que se ha votado, se limite a actuar según lo que ha decidido la mayoría de ciudadanos. Esta opción sólo se aplicaría si no queda más remedio, y si los algoritmos del coche no detectan ninguna manera posible en la que ante un inminente accidente nadie salga herido." (Xataka, 2/11/2017)
Twitter se encontró con el dilema de dejar que la IA rastree y elimine los trolls y "fake news". Lara Olmo, en TICbeat, se preguntaba: "¿Twitter debe perseguir el acoso o renunciar a los usuarios famosos?" (10/7/2017). Han optado por dejarlo a la elección de los usuarios, lo cual bien parece una rendición ante la dificultad o la posible acusación de censura (ABC.es, 18/8/2017). Confiar en los humanos parece ser, generalmente, la mejor opción sino la única éticamente válida.

"La inteligencia artificial no es muy inteligente. Más bien deberíamos preocuparnos por la estupidez artificial", asegura el ingeniero y especialista en ética robótica Alan Winfield, quien trabaja en el Laboratorio de Robótica de Bristol, en Reino Unido (La Nación argentina, 5/11/2017). ¡La estupidez humana podría ser mejor (menos riesgosa), éticamente, que la estupidez artificial!

En enero de este año, varios empresarios financiaron un Fondo para la Ética y Gobierno de la Inteligencia Artificial apoyado por prestigiosas instituciones estadounidenses, como la Fundación Knight o la Universidad de Harvard. (ibidem)
"Creo que deseamos seguir progresando, pero cuando se tiene tanto poder, incluso con buenas intenciones, puede haber abusos. La IA deberá descubrir los prejuicios del pueblo si aprende de la gente, y la gente tiene prejuicios. Hay toda una área de investigación para el "de-prejuiciar" de la IA y para superar los que puede copiar de la gente. La inteligencia de máquina puede ser menos prejuiciosa que los humanos de los cuales aprendre." dice Ray Kurzweil (Wired, 13/11/2017)

9 de noviembre de 2017

IA: Dimes y diretes

"La paranoia es una reacción común de la inteligencia humana frente a la inteligencia artificial. Estamos a la vez emocionados y perturbados ante la perspectiva de máquinas que pueden responder a nosotros como un ser humano y en cierto nivel incluso parecen ser humanos. Ciertamente no faltan las advertencias terribles acerca de los peligros de IA. Nos está observando, destruyendo nuestra privacidad y pervirtiendo nuestro discurso público." (New Scientist, 4/10/2017)
En agosto pasado, Elon Musk, Mustafa Suleyman (de DeepMind de Google) y 115 expertos de 26 países han firmado una carta dirigida a la ONU en contra de las armas letales autónomas como los aviones no tripulados y los tanques y ametralladoras automatizadas (La Vanguardia, 21/8/2017), repetición de una carta que firmó Musk junto con Stephen Hawking y Steve Wozniak en 2015:
"El físico Stephen Hawking, Steve Wozniak y Elon Musk son parte de la lista de 1.000 expertos y científicos que firmaron una carta que busca prohibir el uso de armamento automático y de inteligencia artificial con fines bélicos. Muchas argumentos se han dado acerca y contra las armas autónomas como por ejemplo que la sustitución de soldados humanos por máquinas es buena para reducir bajas para los propietarios pero es malo al reducir el umbral para dar inicio a una batalla. La pregunta clave para la Humanidad hoy en día es si está dispuesta a comenzar una carrera armamentista de armas con inteligencia artificial o detenerla desde su inicio. Si cualquier potencia militar sigue adelante con el desarrollo de armas de IA, una carrera mundial de armas es prácticamente inevitable." (FayerWayer, 27/7/2015)
Aunque el tema resurge ahora (Hawking volvió también a la carga en la Web Summit 2017), como se ve, no es novedoso. En 2014, Clearpath Robotics, de Canadá, ya había prometido no construir robots autónomos para uso militar (Wired, 16/1/2015). Y en 2015 aparecieron múltiples proyectos de estudio del tema:
“Armas letales autónomas, Inteligencia Artificial y control humano significativo”, “Alineando la superinteligencia con los intereses humanos”, “Ética computacional para la planeación probabilística”, “Entendiendo y mitigando las amenazas de las IA al sistema financiero” y “Explicaciones por parte de sistemas de Inteligencia Artificial complejos -para descubrir cómo las IA aprenden-” son algunos de los más llamativos proyectos en tal listado y quienes han conseguido las mayores sumas para su desarrollo. (WwwhatsNew, 6/7/2015)
A principio de ese año, además, Musk había aportado 10 millones de dólares para financiar un estudio acerca de la seguridad de la IA y sus efectos legales y económicos (Wired, 16/1/2015). 
Podemos remontar más lejos en el tiempo: ya en 1872, Samuel Butler preguntaba "¿No corremos el riesgo de que [las máquinas] se rebelen contra nosotros y nos sometan a un vasallaje doloroso?" (Prieto, "La ley del reloj", p.91) 

Pero son otros los temas más inmediatos que también atraen la atención: las distorsiones que aparecen en los algoritmos y el aprendizaje de máquina no solo en la forma en que las plataformas como Facebook clasifican a sus usuarios y a sus contenidos, sino también en la publicidad y, peor, en aplicaciones de selección de personal, o control de producción.
"El peligro sigue siendo que el sesgo no reconocido, no sólo en la programación de un algoritmo, sino incluso en los datos que fluyen en él, podría convertir cualquier programa inadvertidamente en un discriminador. Para los consumidores que no pueden descomprimir las complejidades de estos programas, será difícil saber si han sido tratados de manera justa." (MIT Technology Review, 25/6/2016)
Se ha de recordar siempre el error en que ocurrió Google al etiquetar como gorilas a dos personas de color por falta de entrenamiento supervisado de su IA de análisis de imágenes (BBC, 2/7/2015). Los problemas de la IA de Facebook para descubrir y eliminar mensajes de odio y noticias falsas también son conocidos. Se habla ya de una "era de hechos falsos" ("Fake Fact Era") (Wired, 6/6/2017). Por lo demás, ya se ha demostrado que un robot basado en IA es capaz de generar artículos con noticias falsas indistinguibles de las reales:
"Investigadores de la Universidad de Chicago crearon un sistema de inteligencia artificial para generar falsas revisiones en la Web. Dirigido por el profesor Ben Zhao, el equipo demostró lo fácil que es para una red neural recurrente (RNN) producir críticas cortas "en gran medida indistinguibles" de los comentarios reales.
Dada la disponibilidad de conjuntos de datos de noticias a gran escala, un atacante puede generar artículos de noticias de aspecto realista usando un enfoque de aprendizaje profundo. Y debido a su bajo costo económico, el atacante puede contaminar los medios sociales con un gran número de artículos falsos." (Geek.com, 6/9/2017)
En la campaña de Obama, un equipo de 40 ingenieros se dedicó a recoger en Google, Facebook, Craigslist y hasta jugadores profesionales de póker los datos de 16 millones de votantes indecisos, creando una base de datos con un amplio perfil de cada uno. Luego, vía análisis de big data y deep learning generaron mensajes tendientes a convencerlos. "Eso es lavar cerebro" dice Martin Hilbert. "Se estima que cambiaron la mente del 80% de las personas, con una manipulación en la que se esconde mucha información y solo se muestra la que se sabe que ese votante quiere escuchar, mientras se ocultan los puntos con los que no están de acuerdo." Y Trump hizo lo mismo. (Infobae, 11/10/2017)
No olvidemos finalmente lo que señala Adam Lein: "Pueden pasar unas décadas antes de que obtengamos constructos artificiales inteligentes que puedan coincidir con la inteligencia general de los humanos." (PocketNow, 14/10/2017)
"La corteza cerebral aún esconde algunos trucos algorítmicos que todavía no sabemos cómo simular en las máquinas.[...] El umbral en el procesamiento de información en una infraestructura artificial se encuentra mucho más allá de los límites del tejido biológico. [...] No debemos confiar en nuestra capacidad para mantener un genio superinteligente encerrado en su lámpara para siempre. Tarde o temprano, saldrá." (Nick Bostrom, charla TED)
Pero no se puede olvidar que esta inteligencia de máquina siempre será artificial: no "pensará" como nosotros sino a su manera. Y, lo que ya preocupa a algunos científicos, quizás nunca podamos saber cómo llegó a sus conclusiones y sus decisiones. Así, podríamos no ser capaces de hacerle frente, como dice Nick Bostrom en su libro "Superinteligencia".
"En la actualidad, plantea Harari, se han disociado dos cosas que siempre fueron de la mano en la naturaleza: la inteligencia y la conciencia. Hoy en día, somos capaces de crear máquinas con una inteligencia extrema pero sin conciencia. Hasta el momento no ha habido ningún progreso en conciencia artificial, pero eso no parece importar demasiado: el sistema político, económico y militar solo está interesado en conseguir cada vez más inteligencia." (1+1, Congreso del Futuro, p.84)
Pero corremos otro riesgo, del cual somos responsables: podría ser cada vez más fácil que una IA nos supere de acuerdo a los descubrimientos del psicólogo cognitivo y profesor de la U. de Texas en Austin, confirmada por investigadores de  la U. De California en San Diego (UCSD): la adicción a los smartphones reduce progresivamente nuestra capacidad de atención y de razonamiento. ¡El intelecto se debilita con la dependencia de la tecnología! (WSJ, en El Mercurio, 17/10/2017)

2 de noviembre de 2017

Blockchain: revisión y prospectiva

En los posts anteriores he mostrado las numerosas aplicaciones que está teniendo el modelo de la cadena de bloques. Se ha producido une verdadera explosión de iniciativas en los últimos meses, parecida a lo que ocurrió en los inicios de la World Wide Web. Podemos efectivamente comparar el invento del Bitcoin, primer modelo de blockchain, con el invento de la web por Tim Berners-Lee. Se trata en ambos casos de un sistema de operaciones, una forma de tratar la información. Un sitio web funciona -del lado del proveedor- sobre tres capas de software: el sistema operativo del servidor (Unix o Linux en la mayoría de los casos), el sistema servidor (Apache en la mayoría de los casos) y el sistema del sitio propiamente tal. Le acompaña el sistema "cliente" que es el navegador, para los destinatarios. El sistema de cadena de bloques se encuentra actualmente, a mi juicio, a medio camino entre un sistema servidor y un sistema de sitio, y recurre al navegador para los "clientes".

Programar un sitio web era extraordinariamente fácil en los primeros años ya que bastaba dominar el lenguaje HTML en su primera versión: eran unas dos o tres decenas de "etiquetas" entre las cuales insertar el texto que se deseaba mostrar. Con los años se fueron añadiendo más etiquetas y funciones. Se crearon las hojas de estilo, para un despliegue uniforme de múltiples páginas, y luego el Javascript, un lenguaje de programación que permite insertar módulos interactivos. Todo esto hace que una página web de hoy puede ser muchísimo más compleja que a inicios de los años 90. Y hay miles de modelos en funcionamiento.

Podemos esperar una progresión parecida en el caso de las cadenas de bloques. Lo genial del Bitcoin ha sido la concepción de la cadena de bloques con sus mecanismos criptográficos, de condensación y de verificación, como lo fue el modelo del servidor y del HTML para escribir y desplegar la información. Instalar una cadena de bloques para un uso específico, aunque estamos en un período inicial, no se parece en nada a la creación de un sitio web del período inicial de la WWW: es mucho más complejo. Pero igual que en el caso de la web, estamos ante un sistema abierto (Open Source), es decir que somos libres de ajustarlo a nuestros requisitos, respetando unas cuantas reglas básicas.

Es evidente que los bancos y -sobre todo- las compañías de tarjetas de crédito no pueden utilizar tal cual el software del Bitcoin. Este no es capaz de absorber el número de operaciones que tales compañías manejan minuto a minuto. 
  • La Escuela de Tecnología Informática de la Universidad de Sídney está desarrollando una plataforma que lleva por nombre ‘Red Belly’ y que tendrá la capacidad de realizar 440.000 transacciones por segundo en solo 100 máquinas. VISA opera a razón de 56.000 transacciones por segundos y la red Bitcoin se limita a unas 7 en el mismo tiempo. (Coincrispy, 5/7/2017)

Tampoco se puede esperar que los futuros clientes descarguen toda la cadena (millones de operaciones) en su PC o su smartphone, ni para consultarla ni -mucho menos- para realizar las verificaciones de las operaciones. Sería casi como pedirles que descarguen todo el contenido de un servidor web para poder consultar una página. Será muy interesante ver cómo los bancos y las tarjetas de crédito resuelvan el problema. Algo que también deberán hacer los estados para sus sistemas de identificación. Se deberá separar el sistema de consulta y operación del cliente del sistema general de administración de la cadena. Llegar a algo como un par constituido por una "app" de operación y un buscador de consulta. 

Algunas plataformas de blockchain ya se presentan de un modo parecido, como las de registro de obras musicales o de artículos de periodistas freelance. Hace falta un genio que invente algo parecido al WordPress de la web para que cualquier empresario pueda crear con más facilidad su propia cadena de bloques. "La mejor manera de maximizar el impacto de una tecnología es hacerla lo más accesible que se pueda" dice Will Knight, en la revista de tecnología del MIT. Aunque se refiere al futuo de la IA, también vale aquí (MIT Technology Review, 17/10/2017). No hay duda de que toda la internet se verá transformada en los años venideros, como también muchos mecanismos de la economía y del comercio.
"Desarrollar plataformas de búsquedas descentralizadas está colocando todo lo que es la búsqueda de información en manos de los usuarios. Permitir que los usuarios tengan el control de su propia información es un giro significativo hacia una interacción con la data mucho más sencilla para la vida cotidiana." dice Adriana Camacho en el sitio especializado Coincrispy.com (18/10/2017)
Aviso a las universidades:
El Instituto Tecnológico de Massachusetts (MIT) ha utilizado la tecnología blockchain para emitir diplomas digitales de más de 100 graduados como parte de un nuevo proyecto piloto.
A través de un comunicado, el MIT explicó que los certificados fueron emitidos a través de una aplicación llamada ‘Blockcerts Wallet’, que permite a los graduados compartir de forma segura una versión digital, comprobable y a prueba de manipulaciones, de su diploma de graduación con sus posibles empleadores, entre otros. El MIT se encuentra así entre las primeras universidades que ha emitido registros oficiales en un formato que puede prevalecer incluso si la institución deja de existir. (Coincrispy, 20/10/2017)
En el Laboratorio de Seguridad Informática de la Universidad de Stanford, más de 1 millón de personas se han inscrito, a través del sitio web Coursera, en una clase de criptografía en línea que enseña Dan Boneh, como primer paso para llegar a dominar el blockchain.(Coincrispy, 2/11/2017)