Avis d’expert

Un Framework pour les déployer toutes !

Ou comment déployer les productions IRIS sereinement et plus rapidement ?

L’objectif des productions d’interopérabilité est de vous permettre de connecter des systèmes afin de transformer et d’acheminer des messages entre eux. Pour connecter des systèmes, vous développez, configurez, déployez et gérez des productions qui intègrent plusieurs solutions.

C’est ce que nous dit la documentation InterSystems sur son site de référence, mais que faut-il réellement faire pour déployer une production ?
On peut composer les productions, selon les usages, pour connecter des systèmes externes à IRIS Data Platform. Il est pour cela nécessaire de créer un environnement propre à chaque production à savoir les composants suivants :

 

  • un Business service
  • un Business processus (facultatif)
  • une Business operation
  • des schémas de définition de table (.cls; classes)
  • un fichier d’initialisation d’espace de noms (.cpf)

Bien sûr l’importance d’employer les productions pour traiter les messages réside dans le fait de pouvoir tracer chaque message et remonter ainsi la trace des accidents de parcours de chaque événement indésirable.

Et si je vous disais qu’il est possible de déployer vos productions à l’aide de notre Framework d’interopérabilité IRIS d’un coup de baguette magique ?

L’approche mainframe de laquelle provient notre Framework permet de déployer à vitesse grand « V » des productions IRIS InterSystems® sans devoir recréer tous les composants à la main.

L’emploi du Framework permet d’ajouter une fonctionnalité intéressante autorisant la lecture des données des tables à déployer avec la production : l’ajout d’une API sortante (RestForms2).
>>> Les données deviennent ainsi interrogeables et restituables dans un format JSON.

 

Le Framework va générer tous les composants en se basant sur un fichier de spécifications fonctionnelles rempli en accord avec le métier et notre chef de projet (dont le rôle est de veiller à ce que chaque information nécessaire trouve sa place).

Le script agit en deux temps à savoir : la construction du flux ETL et du point de chute des données.

Une fois rempli conformément à ce qui est attendu, le fichier de spécifications fonctionnelles permet de générer dans un premier temps : le fichier de sérialisation des messages (classes de données ; obj.py), le fichier de structure des données dans chaque message (msg.py), le fichier de génération de messages (bs.py) et le fichier d’ingestion des messages dans la base de données correspondante (bo.py); dans un second temps : il sert à créer/supprimer les tables dans la base de données sous forme d’un script SQL comprenant des instructions DDL (Data Definition Language).

 

De quoi vous faire gagner beaucoup de temps !

Le plus beau dans tout cela, c’est que le Framework est déployable facilement depuis un container Docker !

Toujours pas convaincu(e) ? En quoi utiliser ce Framework vous ferait gagner 80% du temps ?

Et si je vous disais que le code déployé par le Framework est validé par l’éditeur InterSystems®, qu’il permet à votre équipe de travailler sur du code uniformisé, que lors de campagnes de maintenance cette possibilité vous incite à être plus efficace en cas de mise à jour de code ou de recherche de bug, qu’il vous permet d’interagir avec vos données à l’aide d’un mécanisme d’API (issu du dépôt des paquets compatibles InterSystems IRIS toutes versions confondues).

Qu’entend-on par « le code est validé par l’éditeur » ?

Simplement qu’il respecte les standards Python et ceux de l’éditeur en matière d’architecture, d’appels aux mécanismes internes d’IRIS InterSystems® également qu’il sait s’interfacer avec le langage ObjectScript et vice versa.

Prochainement, nous vous ferons découvrir un cas d’usage du Framework dans un environnement opérationnel.