Desde pequeño, el estudiante escucha con frecuencia el credo del científico: para dar por buena una hipótesis, hay que comprobar que se cumple en el mundo real; y para eso hacen falta datos. Cuantos más, mejor. Pero, como explica Gary Smith en Bloomberg Quint, recopilar grandes conjuntos de datos no siempre trae más certezas.
El desarrollo tecnológico del último siglo ha facilitado la tarea de acceder a los datos, acumularlos y compararlos. Gracias a la inteligencia artificial, en este último paso se ha experimentado un salto cuantitativo sin precedentes. La investigación debería de ser hoy más precisa y fiable que nunca. Sin embargo, no es esto lo que percibe Smith, un profesor de economía que se ha hecho famoso por destapar las vergüenzas de la ciencia de datos.
Para Smith, la abundancia casi infinita de datos accesibles a los investigadores, unida a la presión que sienten por encontrar correlaciones estadísticamente significativas –por lo general, aquellas en que la probabilidad de que la relación se deba al azar sea menos del 5%– ha provocado “la locura de la minería de datos”: los investigadores tratan de ligar todo tipo de variables, por muy inconexas que parezcan, y, a base de buscar y buscar, acaban “encontrando” nexos que desafían el sentido común, pero que se sostienen desde un punto de vista meramente metodológico.
LEER MÁS AQUÍ
aceprensa.com
No hay comentarios:
Publicar un comentario