Big Data vs Beautiful Data : la bataille des données aura-t-elle lieu ?

Numérique Une

Commence-t-on à voir les limites du Big Data ? Longtemps considéré par le monde de la tech comme un oracle infaillible, le Big Data est de plus en plus contesté. Quelle valeur accorder à ces masses de données quasi-illimitées mais dépourvues de tout ancrage dans les contextes spécifiques de chaque situation. A l’image de la start-up Comongo, des acteurs conçoivent des outils sémantiques pour développer des corpus de data contextualisés et adaptatifs : la Beautiful Data.

Il serait absurde de nier au Big Data toute efficacité. Les quantités immenses de données traitées apportent des réponses à de nombreuses problématiques, comme le démontre chaque jour par exemple l’efficacité et l’intelligence du moteur de recherche Google. Mais la puissance de ces outils n’est pas absolue, leurs champs d’utilisation ne sont pas illimités. C’est sur cette croyance un peu naïve d’un big data omnipotent que des chercheurs sont en train de revenir.

Comonimage : 1er outil en ligne d’analyse sémantique de micro-corpus de données

Stéphane Labartino a créé Comongo en partant du postulat que la donnée devait être contextualisée pour lui donner tout son sens. Ce professionnel de la communication stratégique d’entreprise s’est associée à des chercheurs en sciences du langage du laboratoire Litt&Arts de l’Université Grenoble Alpes pour développer Comonimage, le premier outil en ligne d’intelligence artificielle dédié à l’analyse sémantique de micro-corpus de données. Un outil aux antipodes du Big Data, puisqu’il travaille, non pas sur des masses d’informations piochées sur Internet, au travers de blog et/ou réseaux sociaux, mais sur des données hyper-ciblées. C’est le principe de la Beautiful Data.

Là où le Big Data traite de manière indifférenciée des sources diverses et hétéroclites, la Beautiful Data permet de classifier et de segmenter avec précision les différentes sources interrogées, qui sont toutes pertinentes dans le contexte de l’analyse. Comongo, par exemple, réalise des analyses d’image pour des entreprises sur la base de questionnaires ouverts envoyés à ses publics-cibles : collaborateurs, clients, prestataires,… L’idée étant de tirer de l’information à haute valeur ajoutée.

Pour Stéphane Labartino, la différence entre Big Data et Beautiful data est non seulement liée aux types de données analysées, mais également à la méthodologie suivie, qu’il souhaite participative afin d’assurer que toutes les parties prenantes comprennent les enjeux et les conclusions des analyses de Comonimage. « Le client définit les sujets, les objectifs et les personnes-cibles, qui peuvent être segmentés selon leur profil. Si c’est l’outil qui donne le diagnostic, c’est le client qui donne le contexte », insiste-il.

Beautiful Data : redonner du sens et du contexte à la donnée

L’approche Beautiful Data possède en effet une double efficacité. Tout d’abord, de par son approche minimaliste, les moyens à déployer pour la mettre en œuvre sont réduits et les budgets restent maîtrisés pour des études (communication, marketing, stratégie, RH…) dont la précision est égale, voire supérieure dans certains cas, à celle des benchmarks traditionnels qui mobilisent des ressources beaucoup plus importantes. Surtout, les décideurs, ayant une compréhension globale des sources des données et des conclusions, initient beaucoup plus facilement la dynamique de changement.

Mais, comme l’explique Stéphane Labartino, c’est un dernier point presque philosophique, qui l’a poussé comme d’autres décideurs du monde de la tech, à se détourner du Big Data pour privilégier des données ayant plus de sens. « Les nouvelles technologies doivent être pensées pour augmenter les capacités des Hommes à prendre de bonnes décisions, pas pour se substituer à eux. L’outil ne peut pas imposer une décision sans la connaissance du contexte détenu par nos clients-utilisateurs », conclut-il.

 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *