La question de la digitalisation se pose de différentes manières aux entreprises. Les start-ups doivent bâtir des systèmes suffisamment flexibles pour les accompagner dans leur croissance sans a-coups majeurs. Elles trouvent dans le cloud computing un accélérateur stratégique inestimable. Les autres entreprises sont dans des situations très contrastées, elles doivent tenir compte de leurs systèmes existants, et ceci étant dit, doivent dans certains cas pouvoir mobiliser un investissement qui peut s’avérer très important.

L’enjeu est de transformer des systèmes d’information patrimoniaux massivement réalisés à partir d’architectures « Batch », c’est à dire basés sur une organisation des traitements par lots, à des systèmes fondés sur des architectures questions/réponses à faible latence. Si parmi les PME dont les modèles et les volumes sont stables, certaines peuvent annoncer qu’elles sont à jour, les autres entreprises font face à des défis stratégiques majeurs.

Quels peuvent être les freins que génèrent les systèmes batch ? Par exemple, la gestion des comptes dans les banques a été développée sur des architectures de systèmes batch. Ainsi une banque est dans l’incapacité de fournir des soldes de compte de minute en minute, le dernier solde date toujours de la veille. Elle donc incapable d’autoriser un paiement en temps réel sur la base du solde du compte, d’où découle un risque permanent de découvert de compte, contrairement aux startups financières qui ont proposé avec succès ce type de fonctionnalité.

Autre exemple… Dans les entreprises manufacturières, la fabrication est lancée à la commande. Celles qui possèdent un système de gestion de Production en architecture batch ne peuvent recalculer leur planning que le lendemain au plus tôt, ce qui occasionne des risques de dépassement de délai sur une commande internet et donc d’une qualité de service dégradée vis-à-vis d’un concurrent doté d’une architecture à faible latence qui peut incorporer à la volée une nouvelle commande au planning de production et confirmer le délai de livraison ou en annoncer de nouveaux.

En décortiquant une transaction de vente simple, sans tenir compte, entre autre, des interactions personnalisées avec le clients, de la gestion des erreurs ou de l’omnicanal, on entrevoit que cette problématique concerne tout le système d’information de l’entreprise.

La première réponse apportée par les Directions des Systèmes D’information a été inspirée par une vision modulaire de l’architecture : l’architecture data centric.

Qu’en est-il ? Il s’agit de connecter les applications dont les fonctions participent à la vente à un Bus d’échange sur le modèle d’une architecture SOA (Service Oriented Architecture) qui fournit les guides et les méthodes pour intégrer les applications patrimoniales. Il s’agit ensuite de mettre en oeuvre un composant de gestion des ventes sur internet (eCommerce) qui va assurer la médiation entre les contraintes des systèmes internet et le système d’information interne de l’entreprise.

Beaucoup d’entreprises ont déployé ces architectures complexes au prix de grandes difficultés et en jouant d’astuces pour faire en sorte de minimiser l’impact des évolutions sur leurs systèmes patrimoniaux, au détriment de la flexibilité.

Aujourd’hui, les entreprises dont les modèles et volumes d’affaires évoluent fortement, s’aperçoivent que ce type d’architecture ne répond pas à leurs enjeux. En effet, la majorité des affaires passe aujourd’hui par internet et cela n’arrête pas de s’intensifier. Les objets connectés permettant de suivre, voire d’optimiser les l’usage des biens et des services après la vente, vont aussi demander des interactions encore plus nombreuses à faible latence. Les entreprises se rendent compte que le modèle data centric n’est pas suffisamment flexible pour les accompagner dans des évolutions clés pour leur réussite et parfois leur survie. Par exemple AXA, comme BNPParibas ont lancé des initiatives radicales pour transformer leurs architectures.

Car les changements doivent être radicaux, il n’est plus question de faire des contorsions pour garder des systèmes batch, l’organisation du travail automatisée doit être totalement repensée pour répondre aux exigences de faible latence. Le composant central n’est plus le bus d’échange, mais le Data Hub couplé à des management systems, c’est à dire des modules d’intelligence artificielle qui, en temps réel, adaptent les processus des composants afin de maximiser la performance de l’entreprise. D’autre part, la modalité de diffusion des données a basculé d’une diffusion massivement interne à une diffusion intense depuis et vers l’extérieur, basée sur des systèmes de type API managers. Les échanges de données internes se font en mode fast data.

Un exemple de management system est le Data Marketing Platform qui pilote le parcours client sur les sites internet et les apps. Il peut également être couplé à d’autres canaux comme le téléphone. Il tire du datahub la segmentation client, informe les systèmes des agences média pour réorienter la publicité, il suit la navigation et donne aux systèmes omnicanals les entrants pour réaliser les recommandations.

Ils peuvent être aussi des systèmes de machine learning pour proposer le tarif d’une vente complexe, ou aiguiller des clients ou des ventes vers des processus particuliers plus adaptés que les autres. Ils peuvent aussi calculer, sur la base des données remontées des objets connectés des interactions à réaliser avec le client pour améliorer son usage du bien ou du service et in fine son expérience. Cette architecture est pilotée par la données (Data driven architecture).

Elle doit fonctionner en continu, les événements qu’elle capture doivent être traités avec une latence faible. La croissance de l’activité internet est la bienvenue car elle est le signe d’une croissance de l’entreprise. Mieux, cette architecture est à rendements croissants, c’est à dire, qu’en plus d’avoir la flexibilité d’encaisser des intensifications d’activité, son coût marginal diminue.

Une telle architecture repose sur des technologies flexibles : elastic cloud computing, Applications Saas, Paas, Iaas, Big data, fast data exchange bus, Machine Learning, Deep Learning. Les applications internes sont sous docker et kubernetes, il n’y a pas de rupture en développement, tests et production, les mises productions sont en continu, comme les tests. Elles peuvent être redéployées à la volée pour répondre à une intensification d’activité. Les techniques d’ingénierie sont revues, on parle de plates-formes, de publication de processus, de micro services qui évitent les lourds tests de non régression qui freinent les évolutions des systèmes patrimoniaux. Le maître mot de cette architecture est « élasticité ». La Société Générale est en train de la mettre en oeuvre.

L’architecture data driven, élastique, vient parachever la mise en oeuvre des méthodes agiles et de l’intégration continue en leur donnant un sens supplémentaire et de nouvelles perspectives de contribution à la réussite de l’entreprise.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *