16 de noviembre de 2017

IA: Inteligencia amoral

"No faltan los informes sobre la ética de la inteligencia artificial. Pero la mayoría es muy liviana y no considera la naturaleza nudosa de los dilemas sociales que crea la IA" dice Scott Rosenberg en Wired (1/11/2017). 
Kate Crawford y Meredith Whittaker, cofundadoras de 'AI Now', un centro de investigación adjunto a la Universidad de Nueva York, son de las que escapan a esta critica y enfrentan a las grandes empresas que desarrollan la IA por su falencia. Es demasiado frecuente que "el consentimiento del usuario, la privacidad y la transparencia se pasan por alto a favor de la funcionalidad sin fricción que soporta modelos comerciales basados ​​en perfiles de datos agregados", dicen. Mientras tanto, los sistemas de AI se están introduciendo en vigilancia, educación, cuidado de la salud y otros entornos donde el fallo de un algoritmo podría arruinar una vida. "Hablamos muchas veces de ética, pero olvidamos hablar de poder, de como es poder real, asimétrico, afecta a las comunidades. Necesitamos entrenar gente para poner a prueba los sistemas y confirmar su seguridad. Con urgencia."(ibidem)

No se puede dejar todo el desarrollo de la IA solo en manos de los ingenieros, agregan. Si toda la sociedad está implicada en las consecuencias, se necesita desde el principio formar equipos que incluyan expertos en diversas áreas, que conozcan la realidad social y los diversos problemas de la vida humana, para orientar correctamente el trabajo ingenieril y evitar las distorsiones que pueden surgir de la mera acumulación de datos y aprendizaje automático. "Los datos no son neutrales."
"Cuando la IA se vuelve superinteligente, se da cuenta de que hay una manera más eficaz para lograr su objetivo: tomar el control del mundo.[...] Supongamos que le damos el objetivo de resolver un problema matemático difícil. Cuando la IA se vuelve superinteligente, se da cuenta de que la forma más eficaz para conseguir la solución a este problema es mediante la transformación del planeta en un computador gigante, para aumentar su capacidad de pensar. Y tengan en cuenta que esto da a la IA una razón instrumental para hacer cosas que nosotros no podemos aprobar. Los seres humanos se convierten en una amenaza, ya que podríamos evitar que el problema se resuelva.[...] Creo que la solución es averiguar cómo crear una IA superinteligente para que incluso si, o cuando se escape, sea todavía segura para que fundamentalmente esté de nuestro lado y comparta nuestros valores. No veo cómo evitar este problema difícil.[...]Los valores de la IA tienen que coincidir con los nuestros no solo en el ámbito familiar, donde podemos comprobar fácilmente cómo se comporta, sino también en todos los nuevos contextos donde la IA podría encontrarse en un futuro indefinido." (Nick  Bostrom, charla TED)
Un problema muy actual es cómo diseñar algoritmos que ayuden a la IA de los coches autónomos a tomar decisiones éticas en situaciones complejas, como en caso de accidentes que causen víctimas. El principal obstáculo es la falta de una base formal de principios éticos que se pueda aplicar. Un grupo de investigadores del Media Lab del MIT y el Departamento de Machine Learning de la CMU dice haber hallado una solución al problema:
"Lo que sugieren es que a falta de esta base, lo que deberíamos hacer es utilizar una "aproximación según lo acordado por la sociedad". Investigadores del Media Lab del MIT y tres del Departamento de Machine Learning de la CMU. Para evaluar su teoría, han creado un modelo basándose en las decisiones tomadas por 1,3 millones de votantes en la web Moral Machine del MIT. En esta web se le presenta a los votantes una serie de situaciones complejas con varias personas y animales involucrados, y ellos tienen que decir cual es la decisión que creen que debería tomar el coche autónomo en cada situación. Con todos estos datos, han desarrollado un sistema de prueba de concepto que toma una decisión equivalente que probablemente sea la misma que si se acudiese a cada uno de los 1.3 millones de votantes, se les pidiese su opinión, y se generase con todas una opción que satisfaga las nociones matemáticas de justicia social.  Habría que insertar en los coches autónomos todas las preferencias generales que ha votado la gente, de manera que cuando el vehículo se enfrente a uno de los dilemas morales sobre el que se ha votado, se limite a actuar según lo que ha decidido la mayoría de ciudadanos. Esta opción sólo se aplicaría si no queda más remedio, y si los algoritmos del coche no detectan ninguna manera posible en la que ante un inminente accidente nadie salga herido." (Xataka, 2/11/2017)
Twitter se encontró con el dilema de dejar que la IA rastree y elimine los trolls y "fake news". Lara Olmo, en TICbeat, se preguntaba: "¿Twitter debe perseguir el acoso o renunciar a los usuarios famosos?" (10/7/2017). Han optado por dejarlo a la elección de los usuarios, lo cual bien parece una rendición ante la dificultad o la posible acusación de censura (ABC.es, 18/8/2017). Confiar en los humanos parece ser, generalmente, la mejor opción sino la única éticamente válida.

"La inteligencia artificial no es muy inteligente. Más bien deberíamos preocuparnos por la estupidez artificial", asegura el ingeniero y especialista en ética robótica Alan Winfield, quien trabaja en el Laboratorio de Robótica de Bristol, en Reino Unido (La Nación argentina, 5/11/2017). ¡La estupidez humana podría ser mejor (menos riesgosa), éticamente, que la estupidez artificial!

En enero de este año, varios empresarios financiaron un Fondo para la Ética y Gobierno de la Inteligencia Artificial apoyado por prestigiosas instituciones estadounidenses, como la Fundación Knight o la Universidad de Harvard. (ibidem)
"Creo que deseamos seguir progresando, pero cuando se tiene tanto poder, incluso con buenas intenciones, puede haber abusos. La IA deberá descubrir los prejuicios del pueblo si aprende de la gente, y la gente tiene prejuicios. Hay toda una área de investigación para el "de-prejuiciar" de la IA y para superar los que puede copiar de la gente. La inteligencia de máquina puede ser menos prejuiciosa que los humanos de los cuales aprendre." dice Ray Kurzweil (Wired, 13/11/2017)

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.