Archivo de la etiqueta: Analisis

Oracle’s Machine Learning and Advanced Analytics 12.2 and Oracle Data Miner 4.2 New Features | Oracle Data Mining (ODM) Blog

Presentación de las nuevas funcionalidades incorporadas en Oracle 12.2 para trabajar con Machine Learning y análisis de datos a través de Oracle’s Machine Learning and Advanced Analytics 12.2 and Oracle Data Miner 4.2 New Features | Oracle Data Mining (ODM) Blog

Anuncios

El análisis de datos y la interpretación de resultados

Oracle DBInsights Forum

El pasado miércoles 20 de abril se celebró en Madrid el Oracle DBInsights Forum. La mañana se dedicó casi de manera íntegra al análisis de datos o Data Science. Pau Agulló, director de Kernel Analytics, presentó tres casos prácticos en los que se habían empleado diferentes técnicas de análisis:

  • Mejora de la relevancia para personalizar las ofertas de una empresa de ventas flash.
  • Predicción de la demanda y gestión de stock en la gran distribución.
  • Expansión óptima de red: cómo mejorar la planificación de las inversiones en la red canalizada de una empresa de gas.

Los tres casos resultaron de gran interés y mostraban cómo el análisis de datos podía aprovechar la información disponible para mejorar aspectos muy distintos del negocio o las inversiones de estas empresas. Pero a mi me llamó especialmente la atención la primera de ellas dedicada a la mejora de la relevancia. Pau Agulló nos explicó los pasos que siguieron en el desarrollo de este proyecto desde el punto de vista del análisis de datos y cómo lograron aumentar las ventas a través de la personalización de la oferta.

Vamos a sintetizar los puntos más importantes de su presentación aprovechando la metodología que proponen Roger D. Peng y Elizabeth Matsui en su libro The Art of Data Science y las cinco etapas del análisis de datos:

Art of Data Science

En el libro The Art of Data Science se describe la metodología que subyace a todo proyecto en Data Science, siempre en opinión de sus autores, y que definen como una iteración de cinco etapas:

  1. Definición de las preguntas a resolver.
  2. Exploración de datos.
  3. Modelado de datos.
  4. Interpretación de los resultados.
  5. Comunicación de los resultados.

Cada una de estas cinco etapas se centra en un aspecto determinado del análisis. Pero al mismo tiempo, es importante revisar continuamente los resultados obtenidos en etapas anteriores para verificar si se mantiene la línea prevista o se ha producido alguna desviación que debamos revisar. Este aspecto del análisis es el más importante: la revisión continua de los resultados con respecto a las expectativas. En todo proyecto de análisis de datos, a medida que se va profundizando, se descubren nuevos enfoques que, no con poca frecuencia, nos empujan a replantearnos alguna de las etapas anteriores o incluso el propio marco de trabajo. Los autores del libro llaman a esta revisión continua Epicycles of Analysis y lo dividen en tres bloques:

  • Definición de expectativas.
  • Recopilación de datos.
  • Cotejo de las expectativas con los datos recopilados.

Estos epiciclos se deben repetir en cada una de las cinco grandes etapas del análisis.

La presentación que hizo Pau Agulló en el Oracle DBInsights Forum siguió perfectamente este modelo de trabajo:

1. Definición de las preguntas a resolver

La pregunta que definía el proyecto sobre mejora de la relevancia era la siguiente:

¿Cómo mejorar las recomendaciones que la empresa de ventas flash enviaba todos los días a sus usuarios por correo electrónico?

2. Exploración de datos

Esta etapa se centra en evaluar la información disponible y refinar la pregunta inicial para evitar resultados ambiguos, sesgos o detectar la necesidad de recopilar nuevos datos.

En el caso presentado, lo habitual es centrarse en los datos obtenidos a través de las siguientes fuentes:

  1. Ventas: es la fuente más importante en cuanto a calidad del dato pero la menos frecuente por su cantidad.
  2. Carritos abandonados.
  3. Clicks en boletines de noticias.
  4. Navegación por la web: la fuente menos relevante por su calidad pero más abundante en cantidad.

3. Modelado de datos

En el modelado de datos se busca una serie de procesos y algoritmos que se puedan estandarizar y que nos permitan tratar los datos disponibles para mejorar la comprensión de los mismos. En otras palabras, establecer un protocolo para tratar los datos disponibles y extraer de ellos la mayor información relevante posible: convertir los datos en conocimiento.

El objetivo principal en los sistemas de mejora de la relevancia es reducir el tiempo necesario para que un cliente encuentre el producto que le interesa. Para lograrlo se pueden utilizar diferentes vías complementarias entre sí:

  • Cálculo de afinidad: comparación entre elecciones de distintos clientes.
  • Diversificación de oferta: productos vinculados que pertenezcan a otras categorías.
  • Objetivos del negocio: mejorar el volumen de ventas o el margen en cada operación.

En el caso expuesto, una vez establecido el modelo de datos, se hizo un reparto de los envíos de correos electrónicos entre las recomendaciones habituales y las nuevas recomendaciones personalizadas mediante los criterios del modelo desarrollado. Esto permitió completar el epiciclo de análisis en el modelado de datos mediante el cotejo de las expectativas con los datos recopilados en cada uno de los escenarios.

4. Interpretación de los resultados

Los autores del libro The Art of Data Science introducen el capítulo sobre la interpretación de resultados advirtiendo de que esta tarea, en realidad, se pone en práctica en todas y cada una de las etapas del análisis de datos. Es inevitable que las personas involucradas en un proyecto de análisis interpreten los distintos resultados parciales que se obtiene a medida que se avanza en el trabajo. Al mismo tiempo, reivindican la importancia de dedicar un espacio exclusivo para la interpretación, una vez tratados los datos, creados los modelos y cotejados los resultados para sacar las conclusiones finales.

En el proyecto de mejora de la relevancia se comparó el resultado de ventas que provenían de los boletines de ofertas generales y las ventas provenientes de los nuevos boletines elaborados con el modelo de datos. Se buscaba determinar en qué medida las diferencias observadas respondían a la personalización de la oferta o a factores ajenos al modelo (por ejemplo, sesgos en la muestra de usuarios escogida para la prueba).

5. Comunicación de los resultados

El resultado final fue muy satisfactorio para el modelo de datos que se había desarrollado: lograron mejoras en las ventas a través de una selección personalizada de las ofertas a destacar. Estos resultados fueron presentados en distintos ámbitos, como es natural. Entre otros, en el propio Oracle DBInsights Forum.

El recomendador de películas y la interpretación de resultados

En una charla posterior se comentó la siguiente anécdota:

“Ayer por la noche estaba en el salón buscando una película para ver y escogí una de las recomendadas. Al cabo de veinte minutos de película ya no aguantaba más. Era terrible. Así que la paré, me fui a la cocina a beber algo y, a la vuelta, me puse otra película.

Ahora caigo en que el algoritmo de recomendación habrá etiquetado la primera película como visionada y como un acierto del sistema de recomendación. Lo normal -nos explicó- es que a los diez minutos de reproducción una película se considere como visionada. Y lo que en realidad ocurrió es que me pareció una película espantosa y por eso la dejé de ver.”

Esta pequeña historia nos sirvió para comentar lo difícil que resulta en algunos casos interpretar unos hechos a través de las trazas que registramos en los sistemas informáticos. Y se plantearon muchas hipótesis que podrían haber explicado esta misma cadena de sucesos. Vamos a exponer alguna de ellas:

En primer lugar, los datos sobre los que trabajamos fueron:

  • Un usuario de una plataforma de vídeos a la carta selecciona una película recomendada y empieza a verla.
  • A los 20 minutos se interrumpe la reproducción.
  • 5 minutos más tarde empieza la reproducción de otra película.

Estos datos, por supuesto, encajaban perfectamente en lo que realmente sucedió: el usuario dejó de ver la película para ver otra diferente. Esto podría indicar claramente que la primera elección no le gustó. Especialmente porque no interrumpió la visualización sin más, como si hubiera tenido que atender algo urgente que le impidiera seguir con la película. Si no que al cabo de 5 minutos inició una película distinta. Parece muy claro, ¿verdad?

Pero en seguida surgió una explicación alternativa: ¿y si no fue la misma persona la que inició la reproducción de la segunda película? Atendiendo solo a los datos recogidos, también cabe la posibilidad de que la primera persona se puso una película pero tuvo que interrumpirla por algo más urgente que le impidió seguir viéndola. A los 5 minutos, una persona distinta aprovechó que la televisión estaba libre para poner una nueva película.

En la conversación fueron apareciendo, poco a poco, otros relatos que incluían los mismos puntos involucrados en situaciones muy diferentes y, por lo tanto, interpretaciones también muy variadas.

En definitiva, solo se trataba de un recomendador de películas automático. Incluso nuestros mejores amigos, que conocen bien nuestros gustos, se equivocan en algunas recomendaciones.