Interview Data quality

Journaliste : Pour commencer, pouvez-vous nous parler de votre produit, un logiciel CDP et TMS, et comment il aide les entreprises à améliorer la qualité de leurs données ?

CTO/CPO : Bien sûr. Notre plateforme a pour objectif de donner aux entreprises la confiance nécessaire dans leurs données. Nous offrons une interface de datalayer normalisée qui permet aux utilisateurs de définir le schéma de leurs données et de définir des règles de validation qui alimentent leur workflow de qualité de données. En outre, notre fonction de Data Cleansing permet aux utilisateurs de transformer/corriger leurs événements en temps réel de manière simple et intuitive, grâce à notre approche no-code. Cependant, les plus techniques d'entre nous ne sont pas oubliés puisque nous proposons également un module low-code (voir code tout court pour les plus téméraires).

Journaliste : Comment votre produit gère-t-il les erreurs de données ?

CTO/CPO : Nous avons plusieurs fonctionnalités pour gérer les erreurs de données. Tout d'abord, nous avons un tableau de bord de qualité de données qui permet aux utilisateurs de voir les violations de spécification en un coup d'œil et de les corriger rapidement à la source ou en temps réel avec la fonction de Data Cleansing . Nous offrons également des alertes en temps réel pour que les utilisateurs puissent réagir rapidement aux erreurs de données. Ces alertes peuvent être envoyées par emails, messagerie (Slack, Teams, ...), webhook ou via des notifications dans l'interface. Une alerte se configure en 3 clics, avec une réglette pour choisir le seuil de déclenchement et le canal de communication.

Journaliste : Comment votre produit aide-t-il les entreprises à s'assurer que toutes les équipes travaillent avec les mêmes données ?

CTO/CPO : Notre interface de datalayer normalisée permet aux utilisateurs de définir le schéma de leurs données et de définir des règles de validation pour s'assurer que toutes les données sont conformes à ce schéma. De cette façon, toutes les équipes peuvent travailler avec les mêmes données et s'assurer que celles-ci sont de qualité. De plus, nous avons un dictionnaire de données unique qui permet aux utilisateurs de définir et de partager les définitions de leurs données avec l'ensemble de l'entreprise.

Journaliste : Pouvez-vous nous en dire plus sur votre fonction de Data Cleansing ? Comment fonctionne-t-elle et à quoi sert-elle ?

CTO/CPO : La fonction de Data Cleansing permet aux utilisateurs de transformer/corriger leurs événements avant de les envoyer à leurs destinations. Nous avons plusieurs types de transformations disponibles, tels que le renommage d'événements, la dérivation d'événements, la modification de propriétés et le filtrage d'événements, qui peuvent être créés de manière simple et intuitive grâce à notre approche no-code basée sur des formules et des opérateurs de base, très similaire à ce que l'on trouve dans un tableur comme Excel. Pour ceux qui préfèrent un approche low-code, il est également possible d'ajouter du code JavaScript personnalisé pour créer des transformations sur mesure. La fonction de Data Cleansing est particulièrement utile pour s'assurer que les données envoyées à des destinations sont de qualité et conformes aux spécifications requises.

Journaliste : Justement, vous nous avez essentiellement parlé de la qualité des données entrantes mais qu'en est-il de la qualité des données transmises aux destinations ? Que proposez vous ?

CTO/CPO : Nous avons une interface de suivi de la délivrabilité des événements qui permet aux utilisateurs de vérifier si les données atteignent leur destination ou s'il y a eu des problèmes d'envoi. Cette interface inclut des métriques simples et rapide à lire, comme le pourcentage d'évènements non envoyés, une visualisation de l'évolution des événements correctement envoyés et ceux en échec sur une période donnée, et un tableau récapitulatif des erreurs. Ce dernier donnant un aperçu des différents types d'erreurs rencontrées et comment les résoudre. En cas de problème d'envoi, nous offrons également un système d'alertes pour notifier les utilisateurs immédiatement.

Journaliste : Arrêtons nous une minute sur ces erreurs qui peuvent subvenir lors de l'envoi de la donnée aux différents partenaires, ce sont généralement des problèmes très techniques et qui peuvent être difficiles à lire ou à comprendre pour un profil non-technique, n'est-ce pas là la limite d'une telle plateforme ?

CTO/CPO : Oui et non. En premier lieu les erreurs ne sont pas toujours techniques, il s'agit souvent de donnée manquante ou mal formatée et notre plateforme génère des explications en langage naturel très simple à lire. Et quant aux erreurs techniques, qu'elles proviennent d'un retour de l'API du partenaire ou d'une indisponibilité de son serveur, là encore il était important pour nous que chaque erreur soit très simple à comprendre. Nous utilisons un synthétiseur de langage naturel (NLG) pour transformer ces erreurs illisibles en explication parfaitement compréhensible par un profil non technique avec des pistes de résolutions. C'est la magie de l'IA :)

Last updated