fr
contact
BACK TO THE LIST

BIG DATA PARIS 2019, ce que nous avons retenu :

13 mars 2019

La huitième édition du salon Big Data Paris vient de s’achever au palais des congrès de Paris. Ce fut pour nous l’occasion d’être en immersion en plein écosystème du Big data. Cet événement, se déroulant sur deux jours, était l’occasion de rencontrer les plus grands acteurs du domaine, de découvrir et de comprendre les dernières tendances du Big data dans une optique d’optimisation et d’exploitation des données.

 

Ce que nous avons retenu :  

 

De l’Internet of things au Machine Learning of Things

La tendance des objets connectés se généralise et gagne maintenant le domaine de l’Intelligence artificielle. La multiplication des réseaux de devices connectés crée ainsi une demande pour de nouvelles technologies de Machine Learning distribuées. D’une part il y a une nécessité à être en mesure de faire des inférences et ré-entraîner les modèles à l’échelle du device plutôt que du cloud. Cette tendance à l’edge-computing est couplée à la captation des données issues de ces nombreux objets. Afin de tirer pleinement profit des possibilités de l’Internet of things en terme de Big Data, plusieurs impératifs et solutions commencent à émerger. D’abord, il est souvent intéressant de réintroduire la dimension géographique de l’acquisition de données. Cette approche générale peut s’appliquer à des capteurs météos mais aussi aux données issues des terminaux de paiement ou encore celles des acteurs des télécoms. Pour exploiter au mieux ces données il devient alors nécessaire de détacher sa base de données du cadre SQL et de passer à d’autres paradigmes comme par exemple les bases de données basées sur des graphes.

Cette approche noSQL permet en effet de plus facilement accéder aux données des différents objets connectés tout en conservant leurs liens relationnels et spatiaux. Pour pouvoir utiliser toute la puissance de ce genre il faut “penser graphs” comme nous y invite Jesùs Barrasa de néo4js.

 

Du POC au déploiement en production grâce au DataOps

 

« DataOps, DataLake, Data Gouvernance, Pré-traitement agile de la données, Mise en production, etc.», voici en bref les termes utilisés de façon récurrente par la plupart des intervenants lors du salon, que ce soit chez les pures players de la tech comme Google, Microsoft, IBM, MAPR ou encore chez les acteurs orientés métiers:  banque, assurance où industrie, etc.

Tout cela nous amène à croire qu’à l’heure actuelle , une mutation des efforts consentis dans les équipes au sens large (SI, data science, data engineering, Data governance) est en train de se produire.

En effet, il semble qu’au sein de l’entreprise, on commence à se focaliser de plus en  plus sur la livraison de la valeur promise par les nombreux modèles de machine learning développés, pour la plupart, en mode POC.

Les facteurs essentiels à prendre en compte comme la taille de l’entreprise et la disparité des SI des différentes filiales sont souvent mis de côté lors de la validation du Use Case. Tout cela cause ainsi de nombreux problèmes lors du passage à l’échelle.

 

Le nouveau défi aujourd’hui consiste donc à transposer de manière efficace les bonnes pratiques DevOps d’intégration et de déploiement en continu au monde de l’ingénierie logiciel et au monde de la data tout en prenant en compte les nouvelles spécificités du monde de la data, notamment la gestion de la nature, de la source, de la qualité et du caractère personnel ou non de la donnée.

La nécessité d’introduire la data gouvernance tout au long du cycle de développement et de mise en production pour former le « DataOps » s’impose alors.

Le DataOps , grâce aux différentes équipes de développement, de production et de data gouvernance, orchestre le développement, la mise en production et la gestion du cycle de vie des modèles de machine learning en production au sein de toute l’entreprise.

Pour faciliter ce processus, « il faut donc déjà penser à l’échelle 10X dès lors que le use case est validé et réduire les POCS » explique Sanae EL MEHDAOUI, Customer Engineer chez Google Cloud France.  

 

L’apprentissage automatique pour tous

 

Le machine learning est traditionnellement l’outil des ingénieurs et des data scientist mais, de nos jours, il est en train de devenir une technologie qui prend une place de plus en plus importante dans notre vie quotidienne. L’apprentissage automatique a changé beaucoup de domaines et il représente essentiellement une approche permettant de résoudre des problèmes complexes. Néanmoins, cette technologie reste un grand mystère pour beaucoup. C’est pour cela qu’aujourd’hui, Google Cloud propose l’outil BigQuery ML qui consiste à créer des modèles d’apprentissage automatique et à évaluer leurs performances prédictives à l’aide des requêtes SQL standards dans le but de rendre l’apprentissage automatique plus accessible aux utilisateurs de ce langage sans avoir à déplacer les données.

 

En conclusion, les conférences du salon Big Data Paris ont confirmé que la data science et le machine learning devaient se simplifier et entrer dans une phase de maturité loin des POC réservés au spécialistes. L’intégration des technologie IoT va aussi dans le sens d’une technologie toujours plus distribuée, accessible et efficace.

C’est aussi l’objectif des équipes de Data Science  d’Axionable de permettre aux dernières avancées technologiques d’arriver dans un environnement productifs.

Merci aux contributeurs : Florent Storme, Gwendal Bihan, Ismael Goulani et Marie Geoffroy-Lombard
Concocté avec amour par :
Thanina Zemoul

Articles concoctés avec les mêmes ingredients

21 juin 2021

Dentsu france révèle son outil de mesure de l’empreinte carbone des campagnes publicitaires, développé avec Axionable

Centrée sur le périmètre de la diffusion publicitaire, cette solution pluri media apporte une mesure à la fois quantitative et qualitative.  Le groupe de communication dentsu annonce la mise en œuvre de son outil de mesure de l’empreinte carbone des campagnes publicitaires co-développé avec Axionable, leader de l’intelligence artificielle à finalité durable et responsable. Cet outil […]

Marie GEOFFROY-LOMBARD
11 juin 2021

6play finalise l’audit de son bilan carbone avec Axionable et propose aux annonceurs de mesurer l’impact de leurs campagnes

6play, la plateforme AVOD du Groupe M6 aux 16 millions d’utilisateurs mensuels a cumulé en 2020 près de 530 millions d’heures vues*. Consciente de l’impact environnemental de cette consommation et à la suite de l’audit de son bilan carbone fin 2020, mené en collaboration avec le cabinet Axionable, 6play propose désormais aux annonceurs de mesurer […]

Marie GEOFFROY-LOMBARD
7 juin 2021

Trois jours à ChangeNOW

ChangeNOW 2021 Du 27 au 29 mai dernier s’est tenue la quatrième édition de ChangeNOW, le sommet international de référence en matière d’innovation environnementale, et Axionable était présent ! Lors de ces trois jours de rencontres en ligne, 500 intervenant·es originaires de 120 pays différents ont pu échanger et proposer au total plus de 1000 […]

Anouk PERRIER
Quentin FAULCONNIER
3 juin 2021

[REPLAY] Axionable & RATP at Change Now 2021 : The road to sustainable IT

[Workshop] The road to sustainable IT Digital technologies now emit 4% of worldwide GHG and this share could double from now to 2025. Most organizations face this double challenge: the acceleration of their digitization efforts as well as their commitment to reduce their global carbon footprint and promote a more sustainable business model. To know […]

Quentin FAULCONNIER
Vincent PHILIPPINE

Ready for sustainable AI?

Let's make an appointment to discuss our approach
career solutions and opportunities
Contactez-nous
Paris
13 rue des Arquebusiers
75003 Paris
Montréal
1275 Avenue Des Canadiens-De-Montréal, Montréal, QC, H3B 0G4
contact Contact