Qualité des données

Avez-vous mis en place des mécanismes pour améliorer la qualité des données ?

Je m’explique : les données sont entrées principalement à la création des produits (pas uniquement : inventaire, mise à jour des prix, …). Quand une donnée est incomplète ou mal paramétrée, cela a pas mal d’impacts en aval. Plusieurs questions se posent donc :

  • la saisie des données : référentiel, formation, qualification des personnes qui rentrent les données
  • contrôles de cohérence à la saisie. Exemple : module développé par la Louve concernant les catégories fiscales (nous aurions un besoin d’extension de ce module pour associer des numéros de compte à ces catégories fiscales - à analyser/confirmer)
    => validation des données entre la saisie et la mise en production. Actuellement nous n’avons pas de processus de validation.

Nous suivons par ailleurs, une autre piste avec notre groupe achat : la saisie des fiches produits par lots dans un tableur puis importation. De nombreux avantages comme celui de n’avoir à rentrer par article que 12 infos de base, 10 étant calculées (ou déductibles). Il nous semble que ça pourrait permettre de résoudre pas mal de soucis. On pourrait même envisager de l’intégrer comme module avec des éléments de vérification sémantique (ou de cohérence - ce qui peut facilement être fait dans un tableur) et un workflow qui oblige à valider avant d’importer.

Et vous, comment traitez-vous ces questions ?

Hello,

Nous envisageons de mettre en place un workflow d’approbation des articles pour que le paramétrage soit vérifié par la compta avant de commencer à utiliser l’article.
Nos acheteurs sont très réticents… mais en même temps nous constatons pas mal de soucis dans le remplissage des fiches.

L’idée de comptes sur les catégories fiscales est à creuser.

Pour le remplissage Excel, nous n’aimons pas l’idée car les utilisateurs peuvent vite fait faire des erreurs. Mais dans les faits c’est ce qui se passe aujourd’hui. Pour info 1647 articles créés en 2017 à La Louve pour l’instant.

… donc le petit utilitaire tableur permet de réduire le nombre d’erreurs car il limite les champs saisis (les autres sont calculés).

On envisage aussi une autre piste : monter une équipe qui ferait des vérifications sur la qualité des données. On pourrait alors définir quels sont les tests important et petit à petit envisager de développer des processus automatisés pour faire des tests de contrôle de cohérence de la base article. A suivre…