Cómo Jumbo transformó la experiencia de compra de comestibles con datos e IA

Cómo Jumbo transformó la experiencia de compra de comestibles con datos e IA

  • Big Data
  • junio 7, 2022
  • No Comment
  • 82
  • 9 minutes read


Esta es una publicación conjunta entre Databricks y Jumbo. Agradecemos a Wendell Kuling, gerente de ciencia de datos y análisis de Jumbo Supermarkets, por su aporte.

En Jumbo, una cadena de supermercados líder en los Países Bajos y Bélgica con más de 100 años de historia, nos enorgullecemos de nuestro enfoque comercial de «primero el cliente, segundo los datos». Sin embargo, eso no significa que los datos no sean fundamentales para nuestra misión. Más bien, nuestros equipos de organización y datos están completamente enfocados en la satisfacción y lealtad del cliente. Los supermercados operan en un entorno altamente competitivo y complejo en el que se deben optimizar todos los componentes de la experiencia del cliente, incluido el inventario, la selección del surtido, las estrategias de precios y la relevancia del producto por segmento.

Cuando lanzamos nuestro programa de fidelización, el gran volumen de nuevos puntos de datos de clientes que se estaban agregando llevó a nuestros equipos de datos a pensar en cómo podemos optimizar la experiencia del cliente a escala. En esencia, Jumbo tiene como objetivo deleitar a los clientes y brindar experiencias óptimas de compra de comestibles. Operar formatos de tienda diferenciados por un lado y personalizar mensajes y ofertas para los clientes por otro hacía imposible seguir trabajando de forma tradicional. Aquí es donde entran el análisis de datos y la IA: nos ayudan a tomar decisiones a la escala necesaria para la personalización y la diferenciación.

Con el lanzamiento de nuestro renovado programa de fidelización de clientes, de repente pudimos comprender mejor una variedad de preferencias individuales de nuestros clientes, p. B. qué productos son los más importantes y cuáles se olvidan con frecuencia, así como el mejor momento del día para comunicarse con los clientes y en qué canal. Sin embargo, a medida que los volúmenes de datos crecieron exponencialmente, nuestras habilidades de análisis y aprendizaje automático comenzaron a disminuir, ya que no estábamos equipados para tal escala. El aumento de los volúmenes de datos significó una mayor complejidad y requisitos de recursos para manejarlos desde una perspectiva de infraestructura, lo que afectó nuestra capacidad para brindar información oportuna. Los largos tiempos de procesamiento y consulta no eran aceptables. Después de años de trabajar con un paquete de software estadístico tradicional conectado a un RDBMS tradicional y análisis en portátiles Jupyter, sabíamos que era hora de tomar medidas para modernizar el nuestro si podemos aprovechar al máximo esos datos y ofrecer experiencias de compra que querían marcar la diferencia. enfoque y las tecnologías subyacentes que lo hacen posible. Necesitábamos una plataforma capaz de procesar datos a nivel de cliente y modelos de entrenamiento a una escala mucho mayor de la que podíamos manejar en nuestras máquinas individuales.

No solo necesitábamos modernizar nuestra infraestructura para tener éxito con el análisis de big data, sino que también necesitábamos mejores formas de aumentar la velocidad desde el concepto hasta la producción, reducir el tiempo de incorporación para nuevos empleados, colaborar y autoservicio. a información de datos para proporcionar información sobre precios, inventario, comercialización y preferencias de los clientes. Después de evaluar una variedad de opciones, nos decidimos por la plataforma Databricks Lakehouse como la solución adecuada para nuestras necesidades.

Desde la retención básica de clientes hasta experiencias de clientes excepcionales

Con la implementación de Lakehouse de Databricks, ahora estamos ejecutando una cantidad significativa de iniciativas de ciencia e ingeniería de datos en paralelo para hacer que nuestros millones de clientes se conviertan en fanáticos aún más leales.

Como ejemplo de productos de datos expuestos directamente a los clientes, ahora podemos combinar información sobre compras en línea y fuera de línea realizadas a nivel de cliente, lo que antes era muy desafiante. Esta vista omnicanal nos permite construir un motor de recomendaciones en línea más completo que ha visto una gran participación. Ahora, en función del historial de compras anteriores, así como de los datos propios recopilados con consentimiento, podemos ofrecer recomendaciones relevantes para el producto que atraigan los intereses del consumidor. Por supuesto, esto es excelente desde una perspectiva comercial, pero el beneficio real es lo felices que ha hecho a nuestros clientes. Ahora es menos probable que olviden artículos importantes o compren más de lo que necesitan. Este equilibrio ha incrementado significativamente la fidelidad de los clientes.

Como ejemplo de productos de datos que han ayudado a mejorar la experiencia del cliente, ejecutamos continuamente un algoritmo que sugiere de manera proactiva optimizaciones de surtido a los administradores de surtido. Este algoritmo debe ejecutarse a escala y a un costo razonable porque está optimizado a nivel de tienda utilizando grandes cantidades de datos sobre la tienda física y los clientes en línea, el mercado general, los datos financieros y las características geográficas. Una vez que se identifican las oportunidades, se presentan en combinación con la misma amplitud y profundidad de datos en los que se basaron.

Técnicamente, la arquitectura Databricks Lakehouse es capaz de impulsar estas experiencias mejoradas mediante Microsoft Azure Synapse. Juntos, esta combinación nos ha permitido administrar, explorar y preparar datos para el análisis para la toma de decisiones automatizada (propuesta) y hacer que el análisis sea fácilmente digerible a través de herramientas de BI como Power BI. Con conocimientos más profundos, hemos ayudado a difundir una comprensión más significativa del comportamiento del cliente y empoderamos a nuestros equipos de datos para predecir de manera más efectiva los productos y servicios que desean.

Databricks ahora está completamente integrado en nuestro flujo de trabajo de extremo a extremo. El proceso comienza con una arquitectura Lakehouse unificada que Delta Lake aprovecha para estandarizar el acceso a todas las fuentes de datos relevantes (tanto históricas como en tiempo real). Por ejemplo, Delta Lake también ayuda a crear canalizaciones de datos que permiten análisis escalables en tiempo real para reducir los niveles de inventario para los clientes en la tienda y, al mismo tiempo, reducir el desperdicio innecesario de alimentos debido al pedido excesivo de productos perecederos, como productos frescos que no se venderán. Al mismo tiempo, Databricks SQL brinda a nuestros analistas de datos la capacidad de consultar fácilmente nuestros datos para comprender mejor los problemas de servicio al cliente que se procesan detrás de escena con NLP y correlacionar esos problemas con el rendimiento operativo de varios departamentos involucrados. Esto nos ayuda a realizar mejoras más rápidas que mejoran al máximo la experiencia del cliente.

[data architecture diagram here]

No hubiéramos podido acelerar nuestros esfuerzos de modernización sin la capacitación experta y la orientación técnica de Databricks Academy y el ingeniero de éxito del cliente, quienes sirven como fuente directa de conocimiento para nuestro departamento de ciencia de datos. Esta comprensión más profunda de cómo todos podemos aprovechar nuestros datos ha llevado a mejoras significativas en la gestión de nuestro surtido y cadena de suministro, la toma de decisiones estratégicas y un mejor apoyo a las necesidades cambiantes de nuestros clientes.

La excelencia no conoce límites cuando funciona con datos e IA

Al centrarnos en mejorar la experiencia del cliente a través de Delta Lakehouse, pudimos superar nuestras expectativas iniciales. Los pasos que hemos tomado para modernizar nuestro enfoque de uso de datos realmente nos han posicionado bien a medida que continuamos transformando nuestro negocio para ayudar a que nuestra industria prospere.

Es notable ver qué tan rápido los datos y las capacidades de IA se están convirtiendo en la nueva normalidad, y ahora estamos bien posicionados para ver el impacto directo de nuestros esfuerzos para estar basados ​​en datos. El resultado de modelos sofisticados de aprendizaje automático se considera «práctica común» dentro de las 4 semanas posteriores al lanzamiento. Y la velocidad de la idea a la producción en estos días se cuenta en semanas, no en meses.

En el futuro, continuaremos aumentando la aceptación, no solo en Jumbo, sino en todo el comercio minorista. Y para aquellos que también están comenzando una transformación de datos, les recomiendo echar un vistazo más de cerca a las oportunidades de mejora en la experiencia que ofrecen a sus clientes. Alimentar sus productos de datos analíticos nuevamente en procesos operativos escalados es clave para transformar todas las áreas del negocio hacia adelante y con éxito en el futuro.



Related post

Aprendizaje eficiente de video-texto con co-tokenización iterativa

Aprendizaje eficiente de video-texto con co-tokenización iterativa

Publicado por AJ Piergiovanni y Anelia Angelova, científicos investigadores, Google Research, Brain Team Los videos son una fuente omnipresente de contenido…
Canalizaciones de datos de transmisión declarativa mediante Delta Live Tables y Apache Kafka

Canalizaciones de datos de transmisión declarativa mediante Delta Live…

Delta Live Tables (DLT) es el primer marco ETL que utiliza un enfoque declarativo simple para crear canalizaciones de datos confiables…
El mundo va más allá del big data, según la encuesta de Ocient a 500 líderes en tecnología y datos

El mundo va más allá del big data, según…

Ocient, una empresa líder en soluciones de análisis de datos a hiperescala que presta servicios a organizaciones que obtienen valor del…

Leave a Reply

Tu dirección de correo electrónico no será publicada.