fr
contact
BACK TO THE LIST

BIG DATA PARIS 2019, ce que nous avons retenu :

13 mars 2019

La huitième édition du salon Big Data Paris vient de s’achever au palais des congrès de Paris. Ce fut pour nous l’occasion d’être en immersion en plein écosystème du Big data. Cet événement, se déroulant sur deux jours, était l’occasion de rencontrer les plus grands acteurs du domaine, de découvrir et de comprendre les dernières tendances du Big data dans une optique d’optimisation et d’exploitation des données.

 

Ce que nous avons retenu :  

 

De l’Internet of things au Machine Learning of Things

La tendance des objets connectés se généralise et gagne maintenant le domaine de l’Intelligence artificielle. La multiplication des réseaux de devices connectés crée ainsi une demande pour de nouvelles technologies de Machine Learning distribuées. D’une part il y a une nécessité à être en mesure de faire des inférences et ré-entraîner les modèles à l’échelle du device plutôt que du cloud. Cette tendance à l’edge-computing est couplée à la captation des données issues de ces nombreux objets. Afin de tirer pleinement profit des possibilités de l’Internet of things en terme de Big Data, plusieurs impératifs et solutions commencent à émerger. D’abord, il est souvent intéressant de réintroduire la dimension géographique de l’acquisition de données. Cette approche générale peut s’appliquer à des capteurs météos mais aussi aux données issues des terminaux de paiement ou encore celles des acteurs des télécoms. Pour exploiter au mieux ces données il devient alors nécessaire de détacher sa base de données du cadre SQL et de passer à d’autres paradigmes comme par exemple les bases de données basées sur des graphes.

Cette approche noSQL permet en effet de plus facilement accéder aux données des différents objets connectés tout en conservant leurs liens relationnels et spatiaux. Pour pouvoir utiliser toute la puissance de ce genre il faut “penser graphs” comme nous y invite Jesùs Barrasa de néo4js.

 

Du POC au déploiement en production grâce au DataOps

 

« DataOps, DataLake, Data Gouvernance, Pré-traitement agile de la données, Mise en production, etc.», voici en bref les termes utilisés de façon récurrente par la plupart des intervenants lors du salon, que ce soit chez les pures players de la tech comme Google, Microsoft, IBM, MAPR ou encore chez les acteurs orientés métiers:  banque, assurance où industrie, etc.

Tout cela nous amène à croire qu’à l’heure actuelle , une mutation des efforts consentis dans les équipes au sens large (SI, data science, data engineering, Data governance) est en train de se produire.

En effet, il semble qu’au sein de l’entreprise, on commence à se focaliser de plus en  plus sur la livraison de la valeur promise par les nombreux modèles de machine learning développés, pour la plupart, en mode POC.

Les facteurs essentiels à prendre en compte comme la taille de l’entreprise et la disparité des SI des différentes filiales sont souvent mis de côté lors de la validation du Use Case. Tout cela cause ainsi de nombreux problèmes lors du passage à l’échelle.

 

Le nouveau défi aujourd’hui consiste donc à transposer de manière efficace les bonnes pratiques DevOps d’intégration et de déploiement en continu au monde de l’ingénierie logiciel et au monde de la data tout en prenant en compte les nouvelles spécificités du monde de la data, notamment la gestion de la nature, de la source, de la qualité et du caractère personnel ou non de la donnée.

La nécessité d’introduire la data gouvernance tout au long du cycle de développement et de mise en production pour former le « DataOps » s’impose alors.

Le DataOps , grâce aux différentes équipes de développement, de production et de data gouvernance, orchestre le développement, la mise en production et la gestion du cycle de vie des modèles de machine learning en production au sein de toute l’entreprise.

Pour faciliter ce processus, « il faut donc déjà penser à l’échelle 10X dès lors que le use case est validé et réduire les POCS » explique Sanae EL MEHDAOUI, Customer Engineer chez Google Cloud France.  

 

L’apprentissage automatique pour tous

 

Le machine learning est traditionnellement l’outil des ingénieurs et des data scientist mais, de nos jours, il est en train de devenir une technologie qui prend une place de plus en plus importante dans notre vie quotidienne. L’apprentissage automatique a changé beaucoup de domaines et il représente essentiellement une approche permettant de résoudre des problèmes complexes. Néanmoins, cette technologie reste un grand mystère pour beaucoup. C’est pour cela qu’aujourd’hui, Google Cloud propose l’outil BigQuery ML qui consiste à créer des modèles d’apprentissage automatique et à évaluer leurs performances prédictives à l’aide des requêtes SQL standards dans le but de rendre l’apprentissage automatique plus accessible aux utilisateurs de ce langage sans avoir à déplacer les données.

 

En conclusion, les conférences du salon Big Data Paris ont confirmé que la data science et le machine learning devaient se simplifier et entrer dans une phase de maturité loin des POC réservés au spécialistes. L’intégration des technologie IoT va aussi dans le sens d’une technologie toujours plus distribuée, accessible et efficace.

C’est aussi l’objectif des équipes de Data Science  d’Axionable de permettre aux dernières avancées technologiques d’arriver dans un environnement productifs.

Merci aux contributeurs : Florent Storme, Gwendal Bihan, Ismael Goulani et Marie Geoffroy-Lombard
Concocté avec amour par :
Thanina Zemoul

Articles concoctés avec les mêmes ingredients

3 décembre 2024

[REPLAY] Produrable 🎥 CSRD : quels outils, data et quelles IA pour réussir sa stratégie ESG et sa mise en conformité 📈⚙️

[Conférence] CSRD : quels outils, data et quelles IA pour réussir sa stratégie ESG et sa mise en conformité ? 📈⚙️   « Les données ESG sont la boussole de la croissance et de la durabilité de demain pour les entreprises. S’outiller, comme le fait ADEO avec l’accompagnement d’Axionable et la solution SWEEP permet de mieux […]

Gwendal BIHAN
26 novembre 2024

[REPLAY] Produrable 🎙️Finance Durable : comment accélérer grâce à l’IA (générative) ? 🏦🌱

[Atelier] Finance Durable : comment accélérer grâce à l’IA (générative) ? 🏦🌱 « Il ne faut pas perdre de vue que ce sont avant tout des projets de data, aujourd’hui, les entreprises le plus avancées en termes de cycle d’analyse ESG et de mise en action l’ont bien compris et sont déjà en capacité de verbaliser […]

Guillaume Bodiou
20 novembre 2024

[REPLAY] Produrable 🎥 L’IA : danger ou secours pour le climat et la planète ? 🤖🌱

[Conférence] L’IA : danger ou secours pour le climat et la planète ? 🤖🌱 « Oui, on peut combiner innovation et écologie, la vraie question, c’est comment on le fait et toujours se rappeler que c’est une question de choix et que l’on a une responsabilité, sinon un devoir professionnel, à développer des technologies qui ont […]

Céline ALBY
9 octobre 2024

[Avis d’expert] AI Act : et l’IA générative dans tout ça ?

L’IA Act et l’IA Générative : ce qu’il faut retenir Depuis maintenant plusieurs mois, l’AI Act s’est imposé comme LE cadre réglementaire incontournable pour toutes les entreprises exploitant, de près ou de loin, des systèmes d’intelligence artificielle. Ce règlement européen, qui vise à encadrer et sécuriser l’usage de l’IA, impose aux organisations des normes strictes […]

José Sanchez
Paris
13 rue des Arquebusiers
75003 Paris
contact Contact