11 de abril de 2019

Más dudas y advertencias sobre la IA

Considéranse los algoritmos utilizados para el análisis de "big data", algo que para muchos requiere "inteligencia artificial". Llevan a tomar decisiones sobre la base de cierta visión del momento, categorizar temas y personas, y -consecuentemente- reforzar tales temas, opiniones y conductas por la vía de la repetición. ¿Se detienen alguna vez los analistas a estudiar series históricas para revisar las predicciones en función del contexto histórico? Es tal la cantidad de información que es difícil que ocurra (aunque es muy probable que las mayores empresas -con grandes presupuestos- lo hagan... pero no lo publicarán, porque será "información estratégica").

Como ya señalé en mi post del 7 de febrero, los algoritmos que emplea la IA responden bien en términos binarios o de clasificación, algo del tipo “blanco-negro”, pero el trabajador humano es el único capaz de trabajar con elementos que se mueven en “grises” o no son tan evidentes. Aún así, se pretende "democratizar la IA" gracias a las técnicas de análisis más avanzadas como el "aprendizaje profundo" de la inteligencia artificial, lo cual permitiría al cualquiera (sin formación especializada) "evitar sesgos", como pretende Amazon Web Service (según TICbeat, 10/04/2015), algo que Karen Hao, del MIT, considera extremadamente difícil. 

Según el premio Nobel Richard Feynman, el grave problema asociado al uso de este tipo de análisis es que el análisis de datos masivos para detectar patrones sin ninguna idea preconcebida de lo que uno busca es el talón de Aquiles de los estudios basados en el análisis de datos masivos. Es seguro que se encontrarán patrones, y es probable que sean engañosos, absurdos o algo peor. (MIT Technology Reviews, 5/02/2019).

Además, un grupo de matemáticos ha puesto en evidencia los límites de la IA, desarrollando un problema matemático que los algoritmos inteligentes no pueden resolver, demostrando que la capacidad de aprendizaje de estos sistemas no es infinita. El ejemplo utilizado es el de un sitio web que muestra publicidad dirigida a los visitantes que naveguen por la web con mayor frecuencia, pero no se puede saber de antemano cuál de los visitantes volverá a visitar la página. (Computer Hoy, 14/01/2019)  La Neural Information Processing Systems Conference (NeurIPS) también advirtió recientemente del problema asociado a la reproducibilidad de los resultados obtenidos del análisis mediante IA, la validez de los resultados quedando muchas veces sin demostrar:
"En febrero, un estadístico de la Universidad de Rice advirtió que las técnicas de aprendizaje automático probablemente alimentan esa crisis porque los resultados que producen son difíciles de auditar. Es un problema preocupante ya que el aprendizaje automático se está aplicando cada vez más en áreas importantes como la atención médica y la investigación de medicamentos. La lista de verificación de reproducibilidad de NeurIPS trata de abordar el problema. Entre otras cosas, los investigadores deben proporcionar una descripción clara de su algoritmo; una descripción completa de su proceso de recolección de datos; un enlace a cualquier entorno de simulación que usaron durante el entrenamiento; y un recorrido completo de los datos que guardaron, arrojaron y por qué. La idea es crear un nuevo estándar de transparencia para que los investigadores muestren cómo llegaron a sus conclusiones." (MIT technology Review, 10/04/2019) 
Nuria Oliver, directora de Investigación en Ciencia de Datos en Vodafone, doctorada en el MIT Media Lab, miembro de la Real Academia Española de Ingeniería (RAI) y de su versión europea (Euro-CASE) y otras asociaciones norteamericanas y europeas, se dice "muy preocupada" por el desconocimiento general acerca de las posibilidades y riesgos de la IA entre la población", porque laa IA "otorga un poder sin precedentes a quienes tengan la capacidad" de usarla. Propone que los sistemas de IA estén sujetos a controles de calidad igual que otros productos y bienes que utilizamos.
"Oliver cree que es urgente que expertos y expertas de distintos campos (no solo tecnológicos sino también de ámbito del derecho, la economía, la ética, la informática, la filosofía y las ciencias políticas) inventen, evalúen y validen en el mundo real diferentes métricas de justicia algorítmica para diferentes tareas. También apunta la necesidad de proponer un marco de modelado teórico que ayude a los usuarios de dichos algoritmos a asegurarse de que las decisiones tomadas son lo más justas posible." (Xataka, 3/04/2019)

No hay comentarios:

Publicar un comentario

No se reciben comentarios.

Nota: solo los miembros de este blog pueden publicar comentarios.