Corporate Finance, DeFi, Blockchain, Web3 News
Corporate Finance, DeFi, Blockchain News

Pierre Formosa, Directeur Innovation Umanis

Pierre Formosa bonjour, vous êtes Directeur Innovation Umanis, pourriez-vous nous présenter votre groupe ?


Pierre Formosa
Pierre Formosa
Umanis est le leader français en BI, Big Data, relation client et digital.

1800 passionnés de nouvelles technologies sont à votre service chez vous, dans nos agences ou depuis nos centres de services onshore et nearshore.

Smart ou Big Data, vous êtes assis sur une mine d’or. Umanis vous aide à l’exploiter et à en tirer profit. Les données accumulées, celles produites en temps réel (machines, IoT, logs, transactions) et les sources externes (open data, géographiques) sont des ressources inestimables pour comprendre et prévoir demain, à la condition qu’elles soient de qualité. Nous amenons l’intelligence mais pas que. Nous vous livrons des tableaux de bord pensés dans les règles de l’art en termes de data visualisation et de storytelling pour que vous ayez envie d’explorer ces informations et de les partager. Nous vous encourageons à aller toujours plus loin dans l’automatisation des décisions car, aujourd’hui, la vitesse est la clé.

La quantité des données, leur diversité et le rythme auquel elles sont produites croît de manière exponentielle. Certes, nous sommes propriétaires de nos infrastructures et stocker coûte de moins en moins cher... mais sommes-nous assez rapide pour traiter et analyser de manière satisfaisante les Big Data et surtout avons-nous intérêt à le faire chez nous ?

Effectivement, la rapidité de traitement peut paraître l’élément important, toutefois nous préférons parler d’agilité, cette agilité est pour nous la clé pour faire face à un accroissement de la volumétrie des données, mais également à un accroissement des systèmes automatisés de production de la donnée… je veux parler des objets connectés. Il convient de dissocier 2 notions importantes dans le traitement de la donnée, la volonté de « piloter » versus la volonté « d’analyser ». Le pilotage implique de disposer des ressources suffisantes pour interagir en temps réel avec l’événement qui se produit. L’analyse quant à elle, nécessite de pouvoir itérer sur des schémas complexes afin de comprendre un état, et de construire un modèle prévisionnel. Les infrastructures actuelles, Hadoop, Appliances, solutions in-memory, etc… apportent une réponse efficace à ce besoin de rapidité. Pour répondre à votre seconde question, il est difficile de trancher de façon définitive, on-premise ou dans le cloud … ce choix est quelque part cornélien ! Ce qui est, presque, certain c’est que ce choix est avant tout une décision stratégique qui doit s’accompagner d’un vraie politique d’investissement, trancher entre budget d’investissement ou budget de fonctionnent.

Quelle solution mettre en place en gardant la maîtrise de ses données et avec quelles garanties de sécurité ?

Maîtrise et sécurité, 2 préoccupations naturelles et intimement liées ! Les SI internes sont bien maîtrisés, l’avalanche de données exogènes impose de mettre en œuvre une démarche de qualification de ces données qui soit rigoureuse et appuyée sur des référentiels solides, les fonctions MDM et DQM sont des enjeux critiques face au Big Data pour garantir l’intégrité des SI de l’entreprise. La sécurité englobe plusieurs aspects, il y a la sécurité face à la cybercriminalité naturellement, mais il existe une autre face de la sécurité qui correspond à une approche métier, je veux dire, comment les entreprises vont se garantir que les données qu’elles reçoivent sont bien celles transmises à l’origine … imaginer intégrer du Big Data des données falsifiées … l’impact métier peut-être colossal ! on peut imaginer, à très brève échéance, que le couple MDM, DQM voit un troisième acteur arrivé : DSM – Data Security Manager.

Et plus largement, du data center privé au cloud hybride, comment faire évoluer les infrastructures vers une dématérialisation progressive orientée services ?

Big Data rime souvent avec la notion d’élasticité des infrastructures. Cette élasticité devant permettre aux entreprises de moduler la capacité de traitement face aux besoins exprimés par les métiers et répondre aux enjeux du Big Data. S’il est facile de monter en puissance, il est plus compliqué de diminuer cette puissance une fois acquise, et naturellement les investissements ad hoc consentis ! Le Cloud offre cette adaptabilité, à la hausse comme à la baisse… Toutefois, passer d’un data center privé dit « on premise » à une solution full cloud n’est pas sans risque pour l’entreprise. Finalement la réponse se trouve peut-être dans votre question elle-même, je m’explique, utiliser l’infrastructure de l’entreprise comme un socle technique capacitif avec la possibilité de déporter certains traitements à l’extérieur de l’entreprise vers un environnement cloud adapté, qui peut-être publique ou hybride en fonction du niveau de confidentialité souhaité. Enfin, une autre approche pourrait consister à confier au cloud des traitements spécifiques transverses consommables au travers de web services… Reste à déterminer où placer le curseur entre l’infrastructure « on premise » et l’infrastructure cloud, et à en mesurer les engagements.

Pierre Formosa, je vous remercie et vous donne rendez-vous très prochainement dans un nouveau numéro de Finyear.

© Copyright Finyear. Propos recueillis par la rédaction de Finyear.


Lundi 9 Mars 2015




OFFRES D'EMPLOI


OFFRES DE STAGES


NOMINATIONS


DERNIERES ACTUALITES


POPULAIRES