fr
contact
BACK TO THE LIST

BIG DATA PARIS 2019, ce que nous avons retenu :

13 mars 2019

La huitième édition du salon Big Data Paris vient de s’achever au palais des congrès de Paris. Ce fut pour nous l’occasion d’être en immersion en plein écosystème du Big data. Cet événement, se déroulant sur deux jours, était l’occasion de rencontrer les plus grands acteurs du domaine, de découvrir et de comprendre les dernières tendances du Big data dans une optique d’optimisation et d’exploitation des données.

 

Ce que nous avons retenu :  

 

De l’Internet of things au Machine Learning of Things

La tendance des objets connectés se généralise et gagne maintenant le domaine de l’Intelligence artificielle. La multiplication des réseaux de devices connectés crée ainsi une demande pour de nouvelles technologies de Machine Learning distribuées. D’une part il y a une nécessité à être en mesure de faire des inférences et ré-entraîner les modèles à l’échelle du device plutôt que du cloud. Cette tendance à l’edge-computing est couplée à la captation des données issues de ces nombreux objets. Afin de tirer pleinement profit des possibilités de l’Internet of things en terme de Big Data, plusieurs impératifs et solutions commencent à émerger. D’abord, il est souvent intéressant de réintroduire la dimension géographique de l’acquisition de données. Cette approche générale peut s’appliquer à des capteurs météos mais aussi aux données issues des terminaux de paiement ou encore celles des acteurs des télécoms. Pour exploiter au mieux ces données il devient alors nécessaire de détacher sa base de données du cadre SQL et de passer à d’autres paradigmes comme par exemple les bases de données basées sur des graphes.

Cette approche noSQL permet en effet de plus facilement accéder aux données des différents objets connectés tout en conservant leurs liens relationnels et spatiaux. Pour pouvoir utiliser toute la puissance de ce genre il faut “penser graphs” comme nous y invite Jesùs Barrasa de néo4js.

 

Du POC au déploiement en production grâce au DataOps

 

« DataOps, DataLake, Data Gouvernance, Pré-traitement agile de la données, Mise en production, etc.», voici en bref les termes utilisés de façon récurrente par la plupart des intervenants lors du salon, que ce soit chez les pures players de la tech comme Google, Microsoft, IBM, MAPR ou encore chez les acteurs orientés métiers:  banque, assurance où industrie, etc.

Tout cela nous amène à croire qu’à l’heure actuelle , une mutation des efforts consentis dans les équipes au sens large (SI, data science, data engineering, Data governance) est en train de se produire.

En effet, il semble qu’au sein de l’entreprise, on commence à se focaliser de plus en  plus sur la livraison de la valeur promise par les nombreux modèles de machine learning développés, pour la plupart, en mode POC.

Les facteurs essentiels à prendre en compte comme la taille de l’entreprise et la disparité des SI des différentes filiales sont souvent mis de côté lors de la validation du Use Case. Tout cela cause ainsi de nombreux problèmes lors du passage à l’échelle.

 

Le nouveau défi aujourd’hui consiste donc à transposer de manière efficace les bonnes pratiques DevOps d’intégration et de déploiement en continu au monde de l’ingénierie logiciel et au monde de la data tout en prenant en compte les nouvelles spécificités du monde de la data, notamment la gestion de la nature, de la source, de la qualité et du caractère personnel ou non de la donnée.

La nécessité d’introduire la data gouvernance tout au long du cycle de développement et de mise en production pour former le « DataOps » s’impose alors.

Le DataOps , grâce aux différentes équipes de développement, de production et de data gouvernance, orchestre le développement, la mise en production et la gestion du cycle de vie des modèles de machine learning en production au sein de toute l’entreprise.

Pour faciliter ce processus, « il faut donc déjà penser à l’échelle 10X dès lors que le use case est validé et réduire les POCS » explique Sanae EL MEHDAOUI, Customer Engineer chez Google Cloud France.  

 

L’apprentissage automatique pour tous

 

Le machine learning est traditionnellement l’outil des ingénieurs et des data scientist mais, de nos jours, il est en train de devenir une technologie qui prend une place de plus en plus importante dans notre vie quotidienne. L’apprentissage automatique a changé beaucoup de domaines et il représente essentiellement une approche permettant de résoudre des problèmes complexes. Néanmoins, cette technologie reste un grand mystère pour beaucoup. C’est pour cela qu’aujourd’hui, Google Cloud propose l’outil BigQuery ML qui consiste à créer des modèles d’apprentissage automatique et à évaluer leurs performances prédictives à l’aide des requêtes SQL standards dans le but de rendre l’apprentissage automatique plus accessible aux utilisateurs de ce langage sans avoir à déplacer les données.

 

En conclusion, les conférences du salon Big Data Paris ont confirmé que la data science et le machine learning devaient se simplifier et entrer dans une phase de maturité loin des POC réservés au spécialistes. L’intégration des technologie IoT va aussi dans le sens d’une technologie toujours plus distribuée, accessible et efficace.

C’est aussi l’objectif des équipes de Data Science  d’Axionable de permettre aux dernières avancées technologiques d’arriver dans un environnement productifs.

Merci aux contributeurs : Florent Storme, Gwendal Bihan, Ismael Goulani et Marie Geoffroy-Lombard
Concocté avec amour par :
Thanina Zemoul

Articles concoctés avec les mêmes ingredients

27 août 2024

#AxionableSuccessStories : Mesure d’empreinte GES scope 1 à 3 et déploiement de Sweep pour le Groupe TF1

Mesure d’empreinte GES scope 1 à 3 et déploiement de Sweep : Dans le cadre de sa stratégie de décarbonation, le Groupe TF1 s’est appuyé sur Axionable pour réaliser sa mesure d’empreinte carbone 2022-2023 et le déploiement de la plateforme SWEEP. En effet, pour ce nouvel exercice carbone, le Groupe TF1 à travers la direction […]

Gwendal BIHAN
23 juillet 2024

[REPLAY] 🎥 Regards Croisés sur la CSRD – Le rôle du DSI 🌍⚙️

[Webinaire] Regards Croisés sur la CSRD – Le rôle du DSI 🌍⚙️ en partenariat avec Sweep « Pour rendre cette donnée extra-financière aussi importante que la donnée financière, il faut aller mesurer et collecter la bonne donnée au bon endroit et correctement. S’outiller rend la chose plus fiable et tangible auprès des directions, pour s’en emparer, […]

Gwendal BIHAN
16 juillet 2024

#AxionableSuccessStories : Eurazeo

Accompagnement à la décarbonation du portefeuille de participations : Acteur majeur européen de la gestion d’actifs avec 35,0 Mds€ sous gestion, Eurazeo s’est engagé à atteindre des objectifs climatiques ambitieux en adhérant à l’initiative Science Based Targets (SBTi), avec 2 objectifs portant sur son portefeuille d’investissement d’ici 2030 : 100% des participations éligibles du portefeuille […]

Gwendal BIHAN
10 juillet 2024

Rapport d’impact 2023 – Axionable s’engage, avec ses clients et parties prenantes

🌱Nos engagements RSE se renforcent et se développent un peu plus chaque année !🌱 Dans un souci de transparence et d’exemplarité, nous vous partageons notre rapport d’impact 2023 sous un nouveau format synthétique pour vous aider à mieux nous connaître : notre modèle d’affaires durable, nos engagements sociaux et environnementaux pour nos clients et nos […]

Charlene Deloison
Paris
13 rue des Arquebusiers
75003 Paris
contact Contact