Quotidien finance innovation, innovation financière journal
Financial Year with Finyear
 
 
 
 


              

Big Data : de la business intelligence à la business analytics


Le Big Data est un phénomène récent, particulièrement sous le feu de l’actualité ces derniers mois. Au-delà de l’effet de buzz véhiculé par les différents éditeurs pour promouvoir leurs solutions, on peut pour mieux comprendre ses enjeux s’attarder à cerner les concepts sous-jacents du Big Data.




QU’EST-CE QUE LE BIG DATA ?

Par Big Data, il faut entendre de notre point de vue trois concepts liés :
- La capacité à adresser et stocker de fortes volumétries de données, qu’elles soient structurées ou non structurées,
- L’interaction avec les nombreuses sources d’informations extérieures à l’entreprise et non maîtrisée par elle,
- L’analyse de l’ensemble de ce nouveau capital informationnel.

Traitement et stockage de données
La capacité à adresser et stocker de fortes volumétries de données (à la fois structurées et non structurées), difficilement exploitables avec des solutions classiques de gestion de bases de données, est le premier objectif du Big Data. Que cela soit à des fins transactionnelles ou décisionnelles, les entreprises sont de plus en plus confrontées à cette problématique de croissance exponentielle de la donnée à exploiter. Les premiers à avoir dû trouver des solutions ont été les acteurs historiques du Web (Yahoo, Google…) puis tous les acteurs du e-commerce (e-Bay, Amazon…) et des réseaux sociaux (Facebook, Linkedin…).

Pour traiter ces gros volumes de données, les éditeurs se sont tournés vers les appliances, c’est-à-dire la combinatoire entre du « hard » (le matériel) et du « soft » (le logiciel) à l’image de Teradata, acteur historique dans ce domaine. On peut citer dans sa lignée les solutions Exadata pour Oracle, GreenPlum pour EMC², Netezza pour IBM, Fast-track pour Microsoft, HANA pour SAP…

Interactions avec les sources de données externes
De nombreuses études montrent que les sources d’informations internes à l’entreprise ne sont plus suffisantes pour pouvoir appréhender de manière adéquate un sujet majeur comme la connaissance client. En effet, de plus en plus de données sont stockées en dehors des Systèmes d’Information de l’entreprise, par des acteurs tiers, qui détiennent ainsi des informations capitales pour la bonne compréhension de ses enjeux. De plus, le web des objets (web 4.0) va aussi contribuer à fournir une masse d’informations au fil de l’eau pour les entreprises, par exemple les compteurs Linky pour ERDF. Toutes les données provenant des médias sociaux, des capteurs intelligents, sont donc de nouvelles sources de données importantes à prendre en compte, avec la particularité qu’elles peuvent être structurées et non structurées et qu’elles doivent être captées en continu.
Sur ce segment, les acteurs traditionnels du monde ETL (Informatica, Datastage, Talend, ODI…) se positionnent via le couplage à des web services.

Analyses de ce nouveau capital informationnel
Arriver à capter toute cette masse d’informations interne et externe à l’entreprise n’a de sens que si l’analyse de ce nouveau capital informationnel est possible. La Business Intelligence (BI) classique n’est plus un moyen suffisant car elle impose :
- De disposer de données structurées et organisées, de devoir parfois connaître a priori les types d’analyse que l’on souhaite mettre en œuvre pour pouvoir modéliser correctement son entrepôt de données (ou Data Warehouse),
- De pouvoir intégrer des volumes de plus en plus importants de données, dans des délais de plus en plus courts, en respectant la structuration des différents modèles de stockage.

C’est là tout l’enjeu du Big Data : les données stockées, en plus d’être à très fortes volumétries, sont hétérogènes en terme de contenant (format structuré et non structuré) mais surtout de contenu. Les informations provenant des réseaux sociaux par exemple possèdent un contenu non prédictible, pouvant toucher aussi bien la connaissance client que la « e-réputation ». Ainsi, l’entreprise doit faire face à deux écueils pour l’exploitation de ces données à des fins d’analyse :
- La très grosse volumétrie d’informations structurées et non structurées à prendre en compte,
- La non-connaissance a priori du contenu de l’information à analyser.

Pour contrer le premier écueil, on voit émerger des solutions techniques comme le framework Hadoop permettant des traitements sur des volumes de données importants, de l’ordre de plusieurs petaoctets.

Pour le deuxième écueil, des approches combinant outils de BI classique et outils de mining (data mining et text mining) permettent l’exploitation de ces données en séparant bien ce qui est de l’ordre du prédictif (adressé par la Business Intelligence) de ce qui est de l’ordre du non prédictif (adressé par le data et le text mining : la Business Analytics


Big Data : de la business intelligence à la business analytics

QU’ATTENDRE DU BIG DATA ?

Les acteurs de la grande distribution, des télécoms, les acteurs internet et les institut de sondage sont aujourd’hui les principales entreprises qui initient la mise en œuvre de telles solutions.

Du côté des métiers de l’entreprise, les attendus sont multiples :
- Marketing : améliorer le cross-selling, développer le géo-marketing, entreprendre du marketing comportemental (lié à l’analyse des comportements), permettre la micro-segmentation client
- Merchandising : optimisation des assortiments, optimisation des prix, optimisation des emplacements
- Opérations : optimisation des usages réseaux, détection des fraudes, prévention des incidents et amélioration de la qualité de service
- Logistique : gestion des inventaires, optimisation de la logistique, optimisation des négociations fournisseurs

De plus, la réglementation pousse aussi à mettre en œuvre ces types d’approches : la gestion des risques ou de la fraude pour les banques ou la LCEN (Loi pour la confiance dans l’économie numérique) dans les télécoms par exemple. Ils nécessitent de stocker de très gros volumes de données pour assurer une traçabilité maximale (par exemple à des fins de requêtes judiciaires), tout en nécessitant une réactivité importante dans l’analyse des données et le déclenchement d’alertes liées à des comportements suspects.

CONCLUSION

Bien que les concepts qui le composent soient pour la plupart anciens, le Big Data est un phénomène résolument nouveau. Le fait que le Big Data soit sous les feux de la rampe en ce moment n’est pas un hasard : face à l’explosion des volumétries de données, à la nécessité d’avoir un « time to market » toujours de plus en plus court, à l’augmentation des risques et à la nécessité de les gérer (approvisionnement en matières premières, défaut de crédit…), à la concurrence toujours de plus en plus forte dans un marché mondialisé, à la montée du Web des objets… les entreprises doivent donc passer de l’époque où elles optimisaient leurs processus de gestion des données (à travers les ERP notamment) à un nouvel âge où elles doivent maintenant exploiter les données quelles qu’elles soient pour mieux comprendre et analyser leur écosystème et ainsi adapter leur business model. Le temps de l’optimisation des processus en vase clos est aujourd’hui dépassé et les entreprises doivent encore d’avantage tenir compte du monde extérieur pour améliorer leur compétitivité.

Par Nicolas Eimery, Directeur du Pôle de compétences Performance Management & Business Intelligence

À propos de Gfi Informatique
Acteur européen de référence des services informatiques à valeur ajoutée et des logiciels, Gfi Informatique occupe un positionnement stratégique différenciant entre les opérateurs de taille mondiale et les acteurs de niche. Avec son profil de multi-spécialiste, le Groupe met au service de ses clients une combinaison unique de proximité, d’organisation sectorielle et de solutions de qualité industrielle. Le Groupe qui compte près de 8 700 collaborateurs a réalisé en 2011 un chiffre d’affaires de 618,1 M€.
Gfi Informatique est coté sur Euronext Paris, NYSE Euronext (Compartiment B) - Code ISIN : FR0004038099.
www.gfi.fr

Lundi 26 Mars 2012
Notez




DISCUSS / DISCUTER

1.Posté par le herisse philippe le 26/03/2012 11:58 | Alerter
Utilisez le formulaire ci-dessous pour envoyer une alerte au responsable du site concernant ce commentaire :
Annuler

tres bon article
un petit bemol, je ne suis pas sur que l'on puisse construire un BI coherent avec un melange même structuré des données internes et des données externes qui sont d'une autre nature. Je crois en des outils d'analyse différents agissant dans des spheres qui leur sont propres et qui ne peuvent par essence coexister.
le herisse datawix : createur de moteur de recherche

Nouveau commentaire :
Twitter

Your email address will not be published. Required fields are marked *
Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *



Recevez la newsletter quotidienne


évènements


Lettres métiers


Livres Blancs




Blockchain Daily News