9 de noviembre de 2017

IA: Dimes y diretes

"La paranoia es una reacción común de la inteligencia humana frente a la inteligencia artificial. Estamos a la vez emocionados y perturbados ante la perspectiva de máquinas que pueden responder a nosotros como un ser humano y en cierto nivel incluso parecen ser humanos. Ciertamente no faltan las advertencias terribles acerca de los peligros de IA. Nos está observando, destruyendo nuestra privacidad y pervirtiendo nuestro discurso público." (New Scientist, 4/10/2017)
En agosto pasado, Elon Musk, Mustafa Suleyman (de DeepMind de Google) y 115 expertos de 26 países han firmado una carta dirigida a la ONU en contra de las armas letales autónomas como los aviones no tripulados y los tanques y ametralladoras automatizadas (La Vanguardia, 21/8/2017), repetición de una carta que firmó Musk junto con Stephen Hawking y Steve Wozniak en 2015:
"El físico Stephen Hawking, Steve Wozniak y Elon Musk son parte de la lista de 1.000 expertos y científicos que firmaron una carta que busca prohibir el uso de armamento automático y de inteligencia artificial con fines bélicos. Muchas argumentos se han dado acerca y contra las armas autónomas como por ejemplo que la sustitución de soldados humanos por máquinas es buena para reducir bajas para los propietarios pero es malo al reducir el umbral para dar inicio a una batalla. La pregunta clave para la Humanidad hoy en día es si está dispuesta a comenzar una carrera armamentista de armas con inteligencia artificial o detenerla desde su inicio. Si cualquier potencia militar sigue adelante con el desarrollo de armas de IA, una carrera mundial de armas es prácticamente inevitable." (FayerWayer, 27/7/2015)
Aunque el tema resurge ahora (Hawking volvió también a la carga en la Web Summit 2017), como se ve, no es novedoso. En 2014, Clearpath Robotics, de Canadá, ya había prometido no construir robots autónomos para uso militar (Wired, 16/1/2015). Y en 2015 aparecieron múltiples proyectos de estudio del tema:
“Armas letales autónomas, Inteligencia Artificial y control humano significativo”, “Alineando la superinteligencia con los intereses humanos”, “Ética computacional para la planeación probabilística”, “Entendiendo y mitigando las amenazas de las IA al sistema financiero” y “Explicaciones por parte de sistemas de Inteligencia Artificial complejos -para descubrir cómo las IA aprenden-” son algunos de los más llamativos proyectos en tal listado y quienes han conseguido las mayores sumas para su desarrollo. (WwwhatsNew, 6/7/2015)
A principio de ese año, además, Musk había aportado 10 millones de dólares para financiar un estudio acerca de la seguridad de la IA y sus efectos legales y económicos (Wired, 16/1/2015). 
Podemos remontar más lejos en el tiempo: ya en 1872, Samuel Butler preguntaba "¿No corremos el riesgo de que [las máquinas] se rebelen contra nosotros y nos sometan a un vasallaje doloroso?" (Prieto, "La ley del reloj", p.91) 

Pero son otros los temas más inmediatos que también atraen la atención: las distorsiones que aparecen en los algoritmos y el aprendizaje de máquina no solo en la forma en que las plataformas como Facebook clasifican a sus usuarios y a sus contenidos, sino también en la publicidad y, peor, en aplicaciones de selección de personal, o control de producción.
"El peligro sigue siendo que el sesgo no reconocido, no sólo en la programación de un algoritmo, sino incluso en los datos que fluyen en él, podría convertir cualquier programa inadvertidamente en un discriminador. Para los consumidores que no pueden descomprimir las complejidades de estos programas, será difícil saber si han sido tratados de manera justa." (MIT Technology Review, 25/6/2016)
Se ha de recordar siempre el error en que ocurrió Google al etiquetar como gorilas a dos personas de color por falta de entrenamiento supervisado de su IA de análisis de imágenes (BBC, 2/7/2015). Los problemas de la IA de Facebook para descubrir y eliminar mensajes de odio y noticias falsas también son conocidos. Se habla ya de una "era de hechos falsos" ("Fake Fact Era") (Wired, 6/6/2017). Por lo demás, ya se ha demostrado que un robot basado en IA es capaz de generar artículos con noticias falsas indistinguibles de las reales:
"Investigadores de la Universidad de Chicago crearon un sistema de inteligencia artificial para generar falsas revisiones en la Web. Dirigido por el profesor Ben Zhao, el equipo demostró lo fácil que es para una red neural recurrente (RNN) producir críticas cortas "en gran medida indistinguibles" de los comentarios reales.
Dada la disponibilidad de conjuntos de datos de noticias a gran escala, un atacante puede generar artículos de noticias de aspecto realista usando un enfoque de aprendizaje profundo. Y debido a su bajo costo económico, el atacante puede contaminar los medios sociales con un gran número de artículos falsos." (Geek.com, 6/9/2017)
En la campaña de Obama, un equipo de 40 ingenieros se dedicó a recoger en Google, Facebook, Craigslist y hasta jugadores profesionales de póker los datos de 16 millones de votantes indecisos, creando una base de datos con un amplio perfil de cada uno. Luego, vía análisis de big data y deep learning generaron mensajes tendientes a convencerlos. "Eso es lavar cerebro" dice Martin Hilbert. "Se estima que cambiaron la mente del 80% de las personas, con una manipulación en la que se esconde mucha información y solo se muestra la que se sabe que ese votante quiere escuchar, mientras se ocultan los puntos con los que no están de acuerdo." Y Trump hizo lo mismo. (Infobae, 11/10/2017)
No olvidemos finalmente lo que señala Adam Lein: "Pueden pasar unas décadas antes de que obtengamos constructos artificiales inteligentes que puedan coincidir con la inteligencia general de los humanos." (PocketNow, 14/10/2017)
"La corteza cerebral aún esconde algunos trucos algorítmicos que todavía no sabemos cómo simular en las máquinas.[...] El umbral en el procesamiento de información en una infraestructura artificial se encuentra mucho más allá de los límites del tejido biológico. [...] No debemos confiar en nuestra capacidad para mantener un genio superinteligente encerrado en su lámpara para siempre. Tarde o temprano, saldrá." (Nick Bostrom, charla TED)
Pero no se puede olvidar que esta inteligencia de máquina siempre será artificial: no "pensará" como nosotros sino a su manera. Y, lo que ya preocupa a algunos científicos, quizás nunca podamos saber cómo llegó a sus conclusiones y sus decisiones. Así, podríamos no ser capaces de hacerle frente, como dice Nick Bostrom en su libro "Superinteligencia".
"En la actualidad, plantea Harari, se han disociado dos cosas que siempre fueron de la mano en la naturaleza: la inteligencia y la conciencia. Hoy en día, somos capaces de crear máquinas con una inteligencia extrema pero sin conciencia. Hasta el momento no ha habido ningún progreso en conciencia artificial, pero eso no parece importar demasiado: el sistema político, económico y militar solo está interesado en conseguir cada vez más inteligencia." (1+1, Congreso del Futuro, p.84)
Pero corremos otro riesgo, del cual somos responsables: podría ser cada vez más fácil que una IA nos supere de acuerdo a los descubrimientos del psicólogo cognitivo y profesor de la U. de Texas en Austin, confirmada por investigadores de  la U. De California en San Diego (UCSD): la adicción a los smartphones reduce progresivamente nuestra capacidad de atención y de razonamiento. ¡El intelecto se debilita con la dependencia de la tecnología! (WSJ, en El Mercurio, 17/10/2017)

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.