06/12/2016
Según la definición que ofrece la Real Academia Española, la palabra “dato” refiere a la “Información sobre algo concreto que permite su conocimiento exacto”. Definición fiel a su raíz latina: “datum” como “lo que se da”.
Big data sería entonces -desde la lógica del sentido común- muchos datos, grandes datos. Es decir, mucha “información sobre algo concreto que permite su conocimiento exacto”. Pero, ¿es así? ¿solo el tamaño importa para considerar muchos datos como “big data”?
En la entrada de Wikipedia nos advierten: El concepto big data se refiere al uso de métodos avanzados de análisis de datos para extraer valor de los datos y no al tamaño de una base de datos.
En conclusión, no se trata únicamente del tamaño de las bases de datos (que sí, son enormes) sino de los procedimientos de análisis que se usan para procesarlos. La clave del big data está en diseñar métodos que sirvan para encontrar patrones dentro de esas inmensas cantidad de datos. Desde ya, ningún humano ni conjunto de humanos podría sacar conclusiones de este universo de información y, para ello, se ayudan de algoritmos.
Bastante antes de que contáramos con supercomputadoras que procesan tera y petabytes, cuando la cantidad de datos disponibles se volvió muy grande, los científicos diseñaron técnicas para abordarlos y la estadística reinó en las ciencias, en los gobiernos y en sus políticas. Y, durante su reinado, las correlaciones fueron confundiéndose con las causalidades, hasta casi hacernos creer que son la misma cosa. Como la cantidad de muertes accidentales por estrangulamiento de sábanas y el consumo per cápita de queso, que -como todo el mundo sabe- están estrechamente relacionados…
Pero volvamos al principio: los datos que permiten el “conocimiento exacto” sobre algo. No vamos a ponernos profundamente filosóficos, recuperando sesudos debates acerca de la (im)posibilidad de conocer objetivamente... En realidad sí lo haremos, y destacaremos la opinión de un sabio contemporáneo:
¿Podemos confiar en las estadísticas? ¿Siempre dan cuenta de “información sobre algo concreto”? ¿Esa información permite el “conocimiento exacto” sobre algo? Parafraseando el título de un viejo libro, nos atrevemos a afirmar que los datos no son una cámara que inocentemente toma fotografías de la realidad, sino que emulan, más bien, a un motor. Recolectar datos sobre algo, modifica a ese algo. Las estadísticas no son neutrales -ni pueden serlo- sino que dan forma a aquello que pretendemos conocer.
Ahora bien, imaginar al humano concreto que recolecta datos en planillas y luego las lee para extraer conclusiones no es tan difícil. Podemos asumir los sesgos que introducirá en el análisis por tener puestas las gafas -metafóricas- de su particular paradigma. Pero, cuando los datos son procesados por un algoritmo, ¿la interpretación también viene sesgada?
Por ahora -y diciendo “por ahora” abrimos la puerta a otros posts sobre el tema-, los algoritmos siguen siendo diseñados por humanos y responden a sus deseos, a sus inquietudes, sus límites y sus sesgos… a pesar de que lo estemos olvidando cada vez más. Este olvido contribuye a que pensemos que el big data construye “información sobre algo concreto” y permite, así, su “conocimiento exacto”.
Actualmente, se habla de dos caminos posibles del big data en educación: su posible utilidad para personalizar los aprendizajes y como insumo para mejorar las políticas educativas. Pero, si no nos olvidamos del origen humano -y sesgado- de los algoritmos, estos caminos se vuelven algo más difusos y establecen límites al optimismo sobre estas técnicas de procesamiento de información.
Parafraseando al clásico -e indispensable- Neil Postman, estar educado no significa conocer mucha información, sino estar al tanto de los orígenes y el crecimiento del conocimiento y de los sistemas de conocimiento que rigen nuestro mundo. Ahora, quizás más que nunca antes, se hace indispensable que reflexionemos con nuestros estudiantes sobre el tratamiento de los datos, sean del tamaño que sean.
Publicado por: Amalia Hafner