fr
Savourez nos recettes 100% maison, sur place et à partager, garanties 0% bullshit !
05.04.2019 | Evénement

AWS Summit 2019, ce que nous avons retenu du point de vue d’un ML Engineer

L’AWS Summit Paris 2019 vient de s’achever au Palais de Congrès de Paris. Ce fut l’occasion pour José SANCHEZ, Manager Data Science, de découvrir les nouvelles tendances et les retours d’expériences clients autour de l’IA et de l’industrialisation.

Cet article n’a pas vocation à détailler les solutions AWS mais plus à mettre en valeur les bonnes pratiques afin de tirer le meilleur des enseignements parmi ceux exposés lors de ce sommet.

Pour résumer le AWS Summit en quelques mots : « AWS continue sa forte croissance (44% en Q4-2018 par rapport à Q4-2017), l’industrialisation des algorithmes IA est le sujet phare de 2019, et la conteneurisation et l’approche micro-service est une réalité qui rend plus facile la génération de valeur »

José vous partage ce qu’il a retenu des présentations d’AWS et des retours clients en 4 parties :

  • Points Clés de la Keynote
  • Industrialisation des modèles d’IA : Les musts
  • Conteneurisation : création et management de Dockers
  • DevOps : l’incontournable transformation

Points clés de la Keynote :

  • AWS est maintenant certifié HDS (Hébergeur des Données de Santé), il est dorénavant possible de stocker des données dans la plateforme AWS.
  • AWS a annoncé son partenariat avec Science PO « Public Innovation Lab », afin de se servir des technologies AWS pour améliorer la vie des citoyens avec des prototypes dans les domaines de la santé, du vieillissement et de la mobilité urbaine.
  • AWS a sa propre compétition de voitures autonomes : AWS DeepRacer League
  • Pour se former sur les technologies AWS, dans le domaine du ML on peut visiter les sites : « Machine Learning University » et « Amazon ML Solutions Lab ».

Industrialisation des modèles d’IA : Les musts

Pour réussir en AI, il faut des compétences mixtes : Data Scientists, Data Engineers et Data Analysts

  • Monitorer et assurer la qualité de la donnée : La valeur ajoutée ne pourra pas être garantie si les données dont on se sert ne sont pas propres. La preuve de l’importance de ce point est que certaines entreprises ont créé des équipes dédiées pour le monitoring et le maintien de la qualité de la donnée.
  • Versionnement du code et lancement des tests : Ceci est un must, il est très important de produire des versions de tous les développements, et d’appliquer aux modèles différents tests avant leur mise en production.
  • Passer d’une approche monolithique à une approche micro-service : Il est recommandé d’utiliser des APIs et des end-points pour l’utilisation des modèles de ML. Ceci rend le développement plus fluide, favorisant ainsi la maintenabilité, l’évolutivité et la robustesse des systèmes.
  • Utiliser l’Infra-as-code : L’infrastructure en tant que code permet d’automatiser la gestion et l’approvisionnement de l’infrastructure, adieu les processus manuels et les risques d’erreurs qui viennent avec. Pour ne citer que deux exemples : il est possible de répliquer en une commande une infra située dans l’environnement de dev dans celui de production, ou bien de la détruire sans s’inquiéter des dépendances. Seul un fichier de configuration sera nécessaire pour passer d’un environnement à un autre. Pour plus d’information regarder Terraform ou AWS CloudFormation.
  • Standardiser les outils : Toutes les équipes de l’entreprise doivent utiliser les mêmes outils pour éviter les problèmes de compatibilité. Au moins une personne devra être en charge d’assurer la gouvernance, de fournir les templates et de s’assurer que les équipes suivent les bonnes pratiques de développement.
  • Monitorer les modèles de ML : Les modèles se dégradent dès qu’ils sont mis en production. Il faut donc toujours penser à surveiller le modèle, ses entrées/sorties et à faire un suivi des logs de consommation (RAM, nombre d’appels, fréquence, etc.). De cette façon on pourra détecter à temps les problèmes potentiels de performance et, tout aussi important, déterminer les causes des dégradations.
  • Le DevOps est devenu la norme et c’est une culture à adopter, nous en parlerons plus en détail dans la suite de cet article.
  • Utiliser des tags pour le suivi des coûts : Il est possible d’effectuer un suivi détaillé des coûts sur AWS via le cost-explorer. Par exemple, une entreprise a réussi à économiser 5x ses coûts en ajoutant AWS CloudFront dans son architecture. 

Conteneurisation : création et management de Dockers

  • Packaging polyglotte : On peut faire communiquer des packages entre eux, sans avoir à s’inquiéter des langages avec lesquels ils ont été créés.
  • Cycle de vie d’un Docker : DockerFile —> DockerBuild —> DockerRun pour le faire fonctionner en local sur une machine.
  • Monitoring des Dockers : Bien que la création d’une instance Docker soit simple, l’orchestration des différents dockers reste un challenge difficile à relever sans l’aide d’outils comme Kubernetes, DockerSWARM, etc.
  • Solutions AWS :
    • Pour les environnements où on peut instancier les Dockers : ECS ou Fargate
    • Pour le management des Dockers : EKS (Pour Kubernetes), ECS (Kubernetes modifié par Amazon)

DevOps : L’incontournable transformation

« DevOps améliore l’efficacité des équipes, puis aide à gérer en douceur la croissance émergente de productivité » Nicolas David, AWS

  • DevOps permet de tout automatiser, de la création du code jusqu’à la mise en production et son monitoring. Tout cela en suivant une approche CI/CD (Intégration continue, déploiement continu).
  • Les bénéfices principaux sont :
    • moins de complexité
    • une résolution plus rapide des problèmes
    • une meilleure qualité
  • Comme tout est automatisé, les équipes auront plus de temps pour l’innovation, ce qui n’était pas le cas avant à cause de la tâche « réparer et maintenir »
  • Solutions AWS pour l’industrialisation (liste non exhaustive) : AWS CodePipeline (CodeCommit, CodeBuild, CodeDeploy), AWS X-Ray et AWS CloudWatch.

Nous espérons ainsi que notre analyse vous permettra d’avoir une meilleure compréhension de l’utilisation du cloud pour la mise en production des algorithmes de Machine Learning.

Concocté avec amour par :
José Sanchez

SUR LE MÊME THÈME

Google Cloud Summit 2019: Le cloud et l’IA pour tous

Le Google Cloud Summit 2019 s’est déroulé le mardi 18 Juin 2019 au Parc des Expositions de la Porte de Versailles. Ce fut l’occasion de découvrir les nouvelles technologies et les retours d’expériences clients. Google voulant mettre en avant la simplicité d’utilisation de leur plateforme via leurs nouveaux services managés et montrer que l’éventail des […]

Concocté avec amour par :
Mickael Nicolaccini
Cyril Jacob

Movin’On 2019 : 3 jours au Davos de la mobilité durable à Montréal au Québec

Axionable était présent au Movin’on summit 2019, le Davos de la mobilité durable qui a eu lieu du 4 au 6 juin à Montréal. La Mairesse de Montréal, Valérie Plante, a fièrement lancé le Sommet Movin’On en compagnie de Florent Menegaux, le président de Michelin en encourageant notamment la collaboration afin de passer de l’ambition […]

Concocté avec amour par :
Abde Essaidi

Paris FinTech Forum 2019 : Analyse et retours personnels

2 spécialistes Axionable vous livrent leur analyse et font leurs retours “personnels” sur le Fintech Forum 2019 Damien Berger, Manager Data & IA secteur Assurance, et Othmane Araqi Houssaini, Consultant Data secteur Banque, ont pu participer au Paris Fintech Forum 2019. Ces deux jours ont été riches en rencontres, enseignements et échanges avec de nombreux […]

Concocté avec amour par :
Damien Berger
Othmane Araqi-Houssaini
03.10.2018 | Evénement

Les Journées du Courtage 2018 : vers le grand saut digital ?

Mercredi 19 et jeudi 20 septembre se tenaient au Palais des Congrès à Paris, les Journées du Courtage de 2018. Lieu de rencontres de tous les acteurs de la place, cet événement est l’occasion de discuter des tendances qui influencent le milieu mais aussi démontrer la puissance de son réseau au détour d’un stand haut en […]

Concocté avec amour par :
Vincent Brabander