Según la Oficina de Estadísticas Laborales de Estados Unidos, en 2020 habrá 1,4 millones de puestos de trabajo de computación y sólo 400 mil estudiantes de informática para llenar esos roles. Según McKinsey, en los Estados Unidos solamente, hay una escasez de 140.000 a 190.000 personas con experiencia analítica y 1,5 millones de gestores y analistas con los conocimientos necesarios para comprender y tomar decisiones basadas en el análisis de Big Data. (Thornton May, ComputerWorld, 11/06/2015)
Ésto plantea un interesante desafío para las universidades, especialmente en las áreas de la ingeniería y de la matemática, donde las técnicas de inteligencia artificial debería ser enseñadas junto con principios de metodología de investigación e informática. En efecto, se considera generalmente que la información no estructurada representa el 80% de los datos con que cuenta una organización. Con los servicios "en la nube" y el rastreo de las actividades de los clientes o "visitantes" en las redes digitales, estos datos han crecido a gran velocidad y resulta casi imposible que un grupo humano los pueda analizar sin recurrir a estos nuevos métodos informáticos.
En el análisis de Big Data, sin embargo, la inteligencia artificial es aún bastante limitada y es importante aprender a formular las preguntas adecuadas, especialmente seleccionando los términos que, como parte de los discursos analizados, podrían ser relevantes (salvo que se cuente, quizás, con el poder de un supercomputador como el Watson de IBM). Ésto implica prestar atención, también, a la semántica, una disciplina generalmente desconocida en las facultades ingenieriles. (cfr. "Text Analytics: The Next Generation of Big Data", Inside Big Data, 5/06/2015).
No hay comentarios:
Publicar un comentario
No se reciben comentarios.
Nota: solo los miembros de este blog pueden publicar comentarios.