fr
contact
BACK TO THE LIST

BIG DATA PARIS 2019, ce que nous avons retenu :

13 mars 2019

La huitième édition du salon Big Data Paris vient de s’achever au palais des congrès de Paris. Ce fut pour nous l’occasion d’être en immersion en plein écosystème du Big data. Cet événement, se déroulant sur deux jours, était l’occasion de rencontrer les plus grands acteurs du domaine, de découvrir et de comprendre les dernières tendances du Big data dans une optique d’optimisation et d’exploitation des données.

 

Ce que nous avons retenu :  

 

De l’Internet of things au Machine Learning of Things

La tendance des objets connectés se généralise et gagne maintenant le domaine de l’Intelligence artificielle. La multiplication des réseaux de devices connectés crée ainsi une demande pour de nouvelles technologies de Machine Learning distribuées. D’une part il y a une nécessité à être en mesure de faire des inférences et ré-entraîner les modèles à l’échelle du device plutôt que du cloud. Cette tendance à l’edge-computing est couplée à la captation des données issues de ces nombreux objets. Afin de tirer pleinement profit des possibilités de l’Internet of things en terme de Big Data, plusieurs impératifs et solutions commencent à émerger. D’abord, il est souvent intéressant de réintroduire la dimension géographique de l’acquisition de données. Cette approche générale peut s’appliquer à des capteurs météos mais aussi aux données issues des terminaux de paiement ou encore celles des acteurs des télécoms. Pour exploiter au mieux ces données il devient alors nécessaire de détacher sa base de données du cadre SQL et de passer à d’autres paradigmes comme par exemple les bases de données basées sur des graphes.

Cette approche noSQL permet en effet de plus facilement accéder aux données des différents objets connectés tout en conservant leurs liens relationnels et spatiaux. Pour pouvoir utiliser toute la puissance de ce genre il faut “penser graphs” comme nous y invite Jesùs Barrasa de néo4js.

 

Du POC au déploiement en production grâce au DataOps

 

« DataOps, DataLake, Data Gouvernance, Pré-traitement agile de la données, Mise en production, etc.», voici en bref les termes utilisés de façon récurrente par la plupart des intervenants lors du salon, que ce soit chez les pures players de la tech comme Google, Microsoft, IBM, MAPR ou encore chez les acteurs orientés métiers:  banque, assurance où industrie, etc.

Tout cela nous amène à croire qu’à l’heure actuelle , une mutation des efforts consentis dans les équipes au sens large (SI, data science, data engineering, Data governance) est en train de se produire.

En effet, il semble qu’au sein de l’entreprise, on commence à se focaliser de plus en  plus sur la livraison de la valeur promise par les nombreux modèles de machine learning développés, pour la plupart, en mode POC.

Les facteurs essentiels à prendre en compte comme la taille de l’entreprise et la disparité des SI des différentes filiales sont souvent mis de côté lors de la validation du Use Case. Tout cela cause ainsi de nombreux problèmes lors du passage à l’échelle.

 

Le nouveau défi aujourd’hui consiste donc à transposer de manière efficace les bonnes pratiques DevOps d’intégration et de déploiement en continu au monde de l’ingénierie logiciel et au monde de la data tout en prenant en compte les nouvelles spécificités du monde de la data, notamment la gestion de la nature, de la source, de la qualité et du caractère personnel ou non de la donnée.

La nécessité d’introduire la data gouvernance tout au long du cycle de développement et de mise en production pour former le « DataOps » s’impose alors.

Le DataOps , grâce aux différentes équipes de développement, de production et de data gouvernance, orchestre le développement, la mise en production et la gestion du cycle de vie des modèles de machine learning en production au sein de toute l’entreprise.

Pour faciliter ce processus, « il faut donc déjà penser à l’échelle 10X dès lors que le use case est validé et réduire les POCS » explique Sanae EL MEHDAOUI, Customer Engineer chez Google Cloud France.  

 

L’apprentissage automatique pour tous

 

Le machine learning est traditionnellement l’outil des ingénieurs et des data scientist mais, de nos jours, il est en train de devenir une technologie qui prend une place de plus en plus importante dans notre vie quotidienne. L’apprentissage automatique a changé beaucoup de domaines et il représente essentiellement une approche permettant de résoudre des problèmes complexes. Néanmoins, cette technologie reste un grand mystère pour beaucoup. C’est pour cela qu’aujourd’hui, Google Cloud propose l’outil BigQuery ML qui consiste à créer des modèles d’apprentissage automatique et à évaluer leurs performances prédictives à l’aide des requêtes SQL standards dans le but de rendre l’apprentissage automatique plus accessible aux utilisateurs de ce langage sans avoir à déplacer les données.

 

En conclusion, les conférences du salon Big Data Paris ont confirmé que la data science et le machine learning devaient se simplifier et entrer dans une phase de maturité loin des POC réservés au spécialistes. L’intégration des technologie IoT va aussi dans le sens d’une technologie toujours plus distribuée, accessible et efficace.

C’est aussi l’objectif des équipes de Data Science  d’Axionable de permettre aux dernières avancées technologiques d’arriver dans un environnement productifs.

Merci aux contributeurs : Florent Storme, Gwendal Bihan, Ismael Goulani et Marie Geoffroy-Lombard
Concocté avec amour par :
Thanina Zemoul

Articles concoctés avec les mêmes ingredients

23 avril 2024

#AxionableSuccessStories : Mesure de l’exposition de sites aux risques physiques liés au changement climatique pour Orano

Mesure de l’exposition de sites aux risques physiques liés au changement climatique : Orano va lancer  de nouveaux sites d’extraction d’uranium selon la méthode ISR, dans des  zones géographiques peu fournies en données climatiques. Axionable accompagne la business unit dans la  mesure de l’exposition climatique de ses sites en prospection afin de dimensionner les futures […]

Paul LAVILLE
4 avril 2024

#AxionableSuccessStories : Mesure de l’exposition de sites aux risques physiques liés au changement climatique pour Neoen

Mesure de l’exposition de sites aux risques physiques liés au changement climatique : Neoen a fait appel à Axionable pour compléter l’analyse de l’exposition de ses actifs aux risques physiques liés au changement climatique. Axionable a confirmé quels étaient les risques les plus pertinents dans l’activité de Neoen et utilisé les données de son partenaire […]

Vincent PHILIPPINE
22 février 2024

[Livre Blanc] Le Guide Ultime de la Réglementation sur la Déclaration Des Risques liés au Climat

CSRD, taxonomie européenne, votre entreprise est-elle prête pour le changement climatique ?   Où, quand et pourquoi votre entreprise doit se conformer à la réglementation… par quoi et comment commencer ?   Découvrez Le Guide Ultime de la Réglementation sur la Déclaration Des Risques liés au Climat par Jupiter Intelligence et Axionable • Démêler un […]

Paul LAVILLE
15 février 2024

Axionable et Sweep unissent leurs expertises technologiques et ESG pour accélérer les stratégies climatiques des entreprises.

Axionable et Sweep unissent leurs expertises technologiques et ESG pour accélérer les stratégies climatiques des entreprises.   Sweep, la plateforme tout-en-un conçue pour aider les organisations à agir sur les données carbone et ESG, a signé un partenariat stratégique avec Axionable, leader français du conseil en stratégie climatique s’appuyant sur la technologie. Sweep et Axionable […]

Gwendal BIHAN
Paris
13 rue des Arquebusiers
75003 Paris
contact Contact