Quotidien finance innovation, innovation financière journal
Financial Year with Finyear
 
 
 
 


              

Jérôme Besson, associé Sentelis, à propos du data-scientist


Le "data-scientist" est-il la clé pour résoudre l’équation digitale de l’entreprise 3.0 ?




Jérôme Besson
Jérôme Besson
Jérôme Besson bonjour, vous êtes associé Sentelis, pouvez-vous nous présenter Sentelis en quelques mots ?

Nous sommes un cabinet de conseil en stratégie, gouvernance et architecture de systèmes d’information. Créée en avril 2011, Sentelis propose des solutions concrètes aux dirigeants du SI qui tiennent compte des nouvelles réalités digitales auxquelles doivent répondre les DSI tels que le cloud computing, le mobile computing, l’omni-canal, le social business, l’Internet-of-Things ou encore le Big Data. Le tout sans perdre les fondamentaux du SI de maîtrise de la production informatique, de réduction des coûts de Change et de Run et de time-to-market.

Nous accompagnons les DSI à résoudre cette équation digitale au cœur de l’entreprise 3.0, à trouver le juste équilibre entre innovation et industrialisation, entre ouverture (CYOD - choose your own device ; API Management) et cyber-sécurité en les conseillant en amont, sur la meilleure trajectoire de transformation de leur gouvernance et de refondation de leur architecture SI et en aval, sur la réalisation opérationnelle de cette double trajectoire et les évolutions à apporter corrélativement au management de leur SI.

Quelles sont les priorités des DSI auxquelles vous êtes confronté ?

Leur priorité est de trouver une réponse à la fois rapide et durable à cette équation digitale. Au risque sinon d’instaurer une fracture irréparable entre des « consomm’acteurs » intransigeants en matière d’expérience digitale et l’entreprise elle-même dont le système d’information est très loin d’être nativement digital. Mais passer le SI à la puissance digitale, au 3.0, s’avère compliqué et onéreux. Il faut d’une part composer avec un mille-feuille architectural et applicatif et d’autre part déployer de nouvelles technologies et usages sans ajouter d’entropie supplémentaire au SI. Un véritable casse-tête pour la DSI, rendu d’autant plus complexe que son leadership en matière de technologies créatrices de valeur métier et plus globalement de gouvernance du SI est aujourd’hui menacé par les directions métiers qui n’hésitent plus à traiter directement avec les fournisseurs en business technologies prêts-à-consommer, notamment les offreurs Cloud de solutions métiers SaaS (Software As A service).

Que conseillez-vous aux DSI pour résoudre leur équation digitale ?

Pour cela, il faut qu’elle se dote d’un laboratoire digital, même embryonnaire au départ. Ce « lab digital » doit être une cellule d’innovation métier par les technologies, un agitateur digital. Dirigé par la DSI, même si cofondé avec les directions métiers, il doit viser en priorité à démontrer les apports des nouvelles technologies, à proposer des nouveaux usages, à expérimenter les technologies émergentes pour en évaluer la maturité, les domaines d’application et l’effort d’implémentation dans le SI existant. Ce « lab digital » doit également être au service de l’architecture d’entreprise. Il doit permettre de tester la faisabilité des scénarios de transformation rompant avec les approches classiques, comme par exemple la refondation du SI analytique autour des concepts et technologies Big Data (Data Lake, Schema Less storage, Data as a service… ; No SQL, Hadoop, in-Memory Data Base, Big Analytics, Stream computing…commodity hardware).

Et le Big Data dans tout cela, quel rôle lui voyez-vous jouer ?

Le Big Data, au sens des concepts et technologies qu’il véhicule est aujourd’hui incontournable dans la résolution de l’équation digitale dans sa dimension analytique. Il apporte en effet une réponse efficace et efficiente à la problématique de traitement massif et exponentiel des données quelle qu’en soit la variété et la vélocité. En revanche, en matière transactionnel, la première génération de technologies Big Data powered by Hadoop dont nous disposons aujourd’hui n’est pas encore capable de rivaliser avec les architectures OLTP (On Line Transactional Processing) traditionnelles.

Les temps de latence en écriture et en lecture de petit enregistrement en très gros volume et le support du modèle ACID (Atomicity, Consistency, Isolation, Durability) sont les points faibles actuels. Alors en attendant un Hadoop transactionnel, déjà promis par ses créateurs, les leaders du monde OLTP ne restent pas les bras croisés, mettant en avant leur technologie de base de données mémoire (In-Memory Data Base) comme complément à la Hadoop-mania, voire comme solution alternative dans certain contexte sur l’ensemble des usages, y compris analytiques. Offrant l’avantage de conserver le meilleur de ce qui existe en matière de base de données relationnelles, les In-memory Data Base accélèrent considérablement les temps d’accès à ces dernières et donc les traitements associés.
Elles permettent d’analyser et de croiser en temps réel à la fois les données du moment, de l’instant, du contexte (data in-use et data in-motion) et les données historiques (data at-rest) jusqu’à un certain volume. Elles boostent les progiciels métiers (ERP, CRM…) et les solutions décisionnelles traditionnelles, les mutant en solution BI temps réel. Mais à la différence avec Hadoop, elles ne sont pas scalables à l’infini et leur coût reste encore prohibitif pour en généraliser l’usage.

Qui dit Big Data dit Data Science. Que vous inspire la ruée promise vers les Data Scientists ?

Tandis que le jeu de données à analyser devient de plus en plus complexe à traiter, il est aisé de constater que même le plus brillant des data-scientists ne sera bientôt plus en mesure de le résoudre.

Partant de ce constat, une approche au premier degré consisterait à dire qu’il y a un manque évident de data-scientists pour combler la lacune entre le nombre de données à analyser et les cerveaux pour le faire. Mais une vision un peu plus poussée nous permet de constater que l’humain ne sera bientôt plus en mesure de résoudre cet état de fait et que les mathématiques d’aujourd’hui semblent désormais inadaptées pour tirer toute la quintessence de l’ensemble de ces données. En effet, si un jeu de données compte 150 variables, comment le questionner en prenant en compte l’ensemble de ces variables, ne sachant pas quelles sont celles qui sont les plus discriminantes pour une question donnée. Ou encore, comment réduire ce nombre de variable sans perdre en précision ?

Il ne faut donc pas trop s’emballer « dans la course à l’armement » en termes de data-scientist. Des recherches académiques sont engagées, notamment par les mathématiciens pour inventer des mathématiques capables d’adresser les problèmes posés par le Big Data et permettre aux machine-learning de pouvoir travailler aussi efficacement sur des données non structurées que structurées. Les premiers résultats de ces recherches sont déjà intégrées dans des packages Big Data Analytics du marché. D’autres au travers de startups comme Ayasdi.

En attendant que ces solutions permettent d’aborder le champ de l’infini, les data-scientists semblent, pour le moment être les seuls recours opérationnels, internes ou externes pour les entreprises, à condition de garder la propriété des algorithmes ou le paramétrage de ces derniers. Il faut également garder à l’esprit que la qualité des résultats dépend de la qualité des données et que les Data-Scientists ne sont qu’un maillon de la chaine de valeur du Big Data et donc qu’une variable de l’équation digitale.

De fait, il faut avant tout que l’entreprise formalise avec précisions les questions auxquelles elle souhaite avoir des réponses pour bien maitriser sa chaine d’informations. Trop souvent la complexité des données à analyser est mal appréhendée et résumée de manière simpliste et il y a fort à parier qu’a force de croiser trop de données, le risque de se perdre en cours de route est accru ! Ne vaut-il pas mieux être bon sur une quantité limitée de variables, que médiocre sur une infinité de variables ?

Un dernier conseil pour passer à l’architecture et à la DSI 3.0 ?

Expérimenter, expérimenter, expérimenter. Rien ne sert de dépenser de l’énergie à établir un diagnostic sur l’état du SI à l’heure de l’entreprise 3.0. On sait qu’il retarde et pas de quelques secondes. Seule solution pour le remettre à l’heure, résoudre un cas concret en y insufflant les gènes du digital et ainsi commencer à opérer la modification de l’adn du SI et de la DSI.


Jérôme Besson, je vous remercie et vous donne rendez-vous très prochainement dans un nouveau numéro de Finyear.

© Copyright Finyear. Propos recueillis par la rédaction de Finyear.


Les médias du groupe Finyear

Lisez gratuitement chaque jour (5j/7) le quotidien Finyear.
Recevez chaque matin par mail la newsletter Finyear, une sélection quotidienne des meilleures infos et expertises de la finance d’entreprise.
Lien direct pour vous abonner : www.finyear.com/abonnement

Lisez gratuitement chaque mois :
- le magazine digital Finyear sur www.finyear.com/magazine
- la lettre digitale "Le Directeur Financier" sur www.finyear.com/ledirecteurfinancier
- la lettre digitale "Le Trésorier" sur www.finyear.com/letresorier
- la lettre digitale "Le Credit Manager" sur www.finyear.com/lecreditmanager
- la lettre digitale "Le Capital Investisseur" sur www.finyear.com/lecapitalinvestisseur
- la lettre digitale "GRC Manager" sur www.finyear.com/grcmanager
- la lettre digitale "Le Contrôleur de Gestion" (PROJET 2014) sur www.finyear.com/lecontroleurdegestion

Un seul formulaire d'abonnement pour 7 lettres



Vendredi 23 Mai 2014
Notez




Nouveau commentaire :
Twitter

Your email address will not be published. Required fields are marked *
Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *



Recevez la newsletter quotidienne


évènements


Lettres métiers


Livres Blancs




Blockchain Daily News