Volver al sitio

El rol de la ciencia de datos en la gestión

· Notas,Blog

02 | Serie desafíos y Oportunidades de la Gestión

¿Qué es la ciencia de datos?

Es un abanico enorme de técnicas y herramientas, también conocidas como Smart Data. Agrupa conceptos que se escuchan cada vez con más frecuencia como el Big Data, Aprendizaje de Máquinas o Inteligencia Artificial. Consiste en la capacidad de capturar y analizar grandes volúmenes de información, aprender de ellos y usarlos de una forma inteligente para crear modelos, predecir o tomar decisiones.

Sus herramientas son muy variadas y van desde la clasificación de datos en base a características comunes hasta aplicaciones complejas como el reconocimiento autónomo de imágenes, pero, en general, la mayoría hacen uso de la estadística y la capacidad computacional para procesar y entender datos. Por ello, hoy, que capturamos más datos que nunca, es un campo que está tomando fuerza con gran rapidez.

¿Qué aplicaciones tiene en la industria?

Sus aplicaciones son casi infinitas, todo depende del objetivo o problema que se busque resolver. Según cuál sea la necesidad, tenemos un abanico de soluciones y aplicaciones posibles.

Por ejemplo, hoy, producto de la pandemia, muchas empresas tienen dudas respecto al impacto que tendrá la crisis en su día a día y en cuanto a las medidas que requieren tomar para hacerle frente. Aquí, técnicas como la simulación tienen gran utilidad, ya que permiten ponerse en múltiples escenarios, considerar distintos niveles de incertidumbre y extrapolar riesgos, impactos esperados o evaluar el resultado de implementar distintas iniciativas. 

Otro campo interesante es la minería de datos, ya que hoy, gracias a la digitalización, capturamos mucha información del comportamiento de nuestros clientes y procesos. La minería consiste en plantearse sobre nuestros clientes o procesos y responderlas en base a la historia que han capturado nuestros datos. Por ejemplo, podemos usar algoritmos que identifiquen qué tipo de productos le gustan más a un determinado tipo de cliente o cuál es la probabilidad de que surja un error en un determinado proceso. Éstos algoritmos filtran nuestros datos para obtener una proporción de aciertos y luego usan esa proporción para establecer probabilidades. Mientras más datos tengamos, más representativos son los modelos.

Un campo particular que creo que es aplicable a casi cualquier industria es el uso de sistemas de clasificación. Consiste en utilizar algoritmos que agrupan nuestros datos según características comunes, por ejemplo, "los productos que más se venden" o "los proyectos con mejor desempeño" y luego buscan otras características en común, que muchas veces no son evidentes. Por ejemplo, podemos encontrar que "la gente compra más si se hacen packs de ciertos productos" o "los equipos con tales características ejecutan mejores proyectos". Los aprendizajes se vuelven más interesantes mientras más datos tenemos del proceso o problema que estemos analizando.

Finalmente, un primo hermano de los algoritmos de clasificación son los modelos predictivos. Podría decirse que éstos hacen el proceso "de ida y vuelta". Primero agrupan los datos según indicadores de resultado (objetivos como un resultado en costos, un nivel de ventas o una tasa de incidentes) y luego buscan diferencias entre los distintos grupos de datos (¿por qué ciertos productos se venden más? o ¿Por qué ciertos proyectos terminan antes?). Cuando encuentran diferencias, las usan para predecir el resultado esperado de nuevos datos. Por ejemplo, "si un producto tiene X características, su tasa de ventas será Y".

Con tantas herramientas y aplicaciones ¿Cuál es el punto de partida?

El primer paso es sistematizar la captura de datos y estandarizar la forma en la que los almacenamos. Para ello, tenemos que definir las preguntas que queremos responder y según eso, los datos que necesitamos, así como, por ejemplo, qué categorías y variables explicativas vamos a crear.

Por otra parte, si no tienen datos, pero sí mucha experiencia, los modelos de simulación son una gran herramienta para entender nuestros procesos.

Y ¿Cómo recomendarías partir?

Depende mucho del problema y de los datos:

  • Por ejemplo, si una empresa vende varios productos y registra sus transacciones, el algoritmo a-priori de minería de datos es súper útil. Es de los más simples y permite saber si es que vendo una cierta canasta de productos, cuál es la probabilidad de que venda un determinado producto adicional. Encuentra elementos que tienden a juntarse y su relación con otras ventas.

  • En otro caso, si una empresa cuenta con varios indicadores con los que controla constantemente sus procesos, puede aplicar herramientas de regresión para encontrar relaciones entre uno o varios indicadores y su desempeño. Para ello, hay varias herramientas de programación "listas para utilizar", en lenguajes como python, que facilitan el proceso.

  • Si una empresa ha tomado distintas medidas de gestión o mejoramiento y registrado su resultado, puede aplicar algoritmos de regresión con variables categóricas para estimar el impacto de distintas medidas. Por ejemplo, "si pongo a un equipo más experimentado a cargo del proyecto, ¿cuánto mejoraría mi desempeño?"

  • Finalmente, la simulación es una herramienta que se ocupa poco pero tiene un gran potencial y es fácil de aplicar. Se puede aplicar a ejemplos como "si la cuarentena se extiende X días, ¿cuánto impactará mis ventas?" o "si mi productividad varía un X% ¿Cuánto se atrasará mi proyecto?".

La ciencia de datos tiene herramientas para múltiples fines y, la mayoría, son mucho más fáciles de aplicar de lo que la gente pensaría.

Camilo es consultor de GEPRO e investigador del Centro de Excelencia en Gestión de la Producción UC. Hizo su magister en gestión de proyectos y actualmente cursa un doctorado en ciencia de datos aplicada a la gestión. Se ha especializado en gestión de proyectos con enfoque Lean.

Todos los artículos
×

Ya está casi listo...

Te enviamos un correo. ¡Por favor haz clic en el enlace del correo para confirmar tu suscripción!

Aceptar