27 de marzo de 2015

Rol de la ética en sistemas automáticos

Con los objetos conectados y las máquinas "inteligentes", las personas delegan o delegarán cada vez más decisiones en la programación de estos aparatos. ¡Llegó la hora de pensar en la importancia de la ética en la robótica! Y recordar que Isaac Asimov ya había pensado en ello y formulado en 1942 sus "leyes básicas de la robótica", que debían quedar impresas en el cerebro "positrónico" de todos sus robots, la primera siendo que "Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño" (por primera vez en el relato "Runaround", "El círculo vicioso" en español).

Elon Musk cree que los coches conducidos por humanos acabarán siendo ilegalizados en favor de los que están conducidos de forma autónoma. ¿La razón? Las máquinas pueden conducir de forma mucho más segura y los seres humanos acabarían siendo un mayor riesgo en las carreteras. El cambio, por cierto, tomará tiempo: Musk calcula 20 años. (Xataka.com, 18/03/2015)

Las primeras pruebas han dado buenos resultados y quedan poco problemas técnicos por resolver, no siendo el menor el de la seguridad (Es actualmente imposible descartar toda posibilidad de hackear el sistema y tomar a distancia el control del auto). Pero surge un problema mayor: el ético, implicado en la programación de las decisiones en situaciones complejas. El problema no es tan simple como aplicar las leyes de Asimov. Las situaciones reales son generalmente complejas y suponen múltiples ponderaciones. ¿Que hacer si un niño cruza bruscamente la carretera y evitarlo significa chocar contra un arbol u otro vehículo, poniendo en riesgo la vida del o los pasajeros? ¿Contar la cantidad de posibles víctimas? ¿Tener en cuenta la edad de cada uno? 

No parece haber duda que un sistema automático sería más seguro que un conductor humano ya que no se distraería y podría controlar todas las variables deseables... ¿Pero podría considerar mejor los posibles imprevistos y ponderar adecuadamente una respuesta?

La inteligencia artificial usada crecientemente en el diagnóstico de situaciones complejas de salud sufrirá de problemas similares: ¿que malestar resolver primero? ¿Hasta donde son aceptables ciertos efectos secundarios? Aunque es probable que aquí las juntas médicas se sigan imponiendo por mucho tiempo.
Pero también hay que tomar en cuenta que se irá introduciendo en los cuerpos a través de los implantes de todo tipo (ya los hay para controlar el Alzheimer y el Parkinson, y los chips de identificación). Se proponen algunos para controlar la ansiedad qui podrían ajustar la música ambiental o seleccionar un programa de televisión que nos relaje. Pero, si están abiertos a la red, los publicistas también se verían atraídos, para orientar nuestras emociones. ¿A que otros riesgos nos expondrían? ¿Un hacker podría también cambiar nuestras emociones o el contenido de nuestra "memoria adjunta" (artificial)?

En algo que parece menos trágico: ¿que pasará con todos los datos personales que podrían estarse "cruzando" con los de los gadgets de la internet de las cosas? 
¿Dejaremos, por ejemplo, que nuestro refrigerador ordene al supermercado los alimentos que nos faltan considerando nuestro estado de salud (informado por nuestro reloj o pulsera de fitness) y las recomendaciones que nuestro médico introdujo en nuestro historial?

Al menos algunos laboratorios se preocupan, como Kaspersky Lab, que se ha   unido a la comunidad de bio-hacking sueca BioNyfiken para analizar los problemas de seguridad involucrados.

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.