fr
contact
BACK TO THE LIST

BIG DATA PARIS 2019, ce que nous avons retenu :

13 mars 2019

La huitième édition du salon Big Data Paris vient de s’achever au palais des congrès de Paris. Ce fut pour nous l’occasion d’être en immersion en plein écosystème du Big data. Cet événement, se déroulant sur deux jours, était l’occasion de rencontrer les plus grands acteurs du domaine, de découvrir et de comprendre les dernières tendances du Big data dans une optique d’optimisation et d’exploitation des données.

 

Ce que nous avons retenu :  

 

De l’Internet of things au Machine Learning of Things

La tendance des objets connectés se généralise et gagne maintenant le domaine de l’Intelligence artificielle. La multiplication des réseaux de devices connectés crée ainsi une demande pour de nouvelles technologies de Machine Learning distribuées. D’une part il y a une nécessité à être en mesure de faire des inférences et ré-entraîner les modèles à l’échelle du device plutôt que du cloud. Cette tendance à l’edge-computing est couplée à la captation des données issues de ces nombreux objets. Afin de tirer pleinement profit des possibilités de l’Internet of things en terme de Big Data, plusieurs impératifs et solutions commencent à émerger. D’abord, il est souvent intéressant de réintroduire la dimension géographique de l’acquisition de données. Cette approche générale peut s’appliquer à des capteurs météos mais aussi aux données issues des terminaux de paiement ou encore celles des acteurs des télécoms. Pour exploiter au mieux ces données il devient alors nécessaire de détacher sa base de données du cadre SQL et de passer à d’autres paradigmes comme par exemple les bases de données basées sur des graphes.

Cette approche noSQL permet en effet de plus facilement accéder aux données des différents objets connectés tout en conservant leurs liens relationnels et spatiaux. Pour pouvoir utiliser toute la puissance de ce genre il faut “penser graphs” comme nous y invite Jesùs Barrasa de néo4js.

 

Du POC au déploiement en production grâce au DataOps

 

« DataOps, DataLake, Data Gouvernance, Pré-traitement agile de la données, Mise en production, etc.», voici en bref les termes utilisés de façon récurrente par la plupart des intervenants lors du salon, que ce soit chez les pures players de la tech comme Google, Microsoft, IBM, MAPR ou encore chez les acteurs orientés métiers:  banque, assurance où industrie, etc.

Tout cela nous amène à croire qu’à l’heure actuelle , une mutation des efforts consentis dans les équipes au sens large (SI, data science, data engineering, Data governance) est en train de se produire.

En effet, il semble qu’au sein de l’entreprise, on commence à se focaliser de plus en  plus sur la livraison de la valeur promise par les nombreux modèles de machine learning développés, pour la plupart, en mode POC.

Les facteurs essentiels à prendre en compte comme la taille de l’entreprise et la disparité des SI des différentes filiales sont souvent mis de côté lors de la validation du Use Case. Tout cela cause ainsi de nombreux problèmes lors du passage à l’échelle.

 

Le nouveau défi aujourd’hui consiste donc à transposer de manière efficace les bonnes pratiques DevOps d’intégration et de déploiement en continu au monde de l’ingénierie logiciel et au monde de la data tout en prenant en compte les nouvelles spécificités du monde de la data, notamment la gestion de la nature, de la source, de la qualité et du caractère personnel ou non de la donnée.

La nécessité d’introduire la data gouvernance tout au long du cycle de développement et de mise en production pour former le « DataOps » s’impose alors.

Le DataOps , grâce aux différentes équipes de développement, de production et de data gouvernance, orchestre le développement, la mise en production et la gestion du cycle de vie des modèles de machine learning en production au sein de toute l’entreprise.

Pour faciliter ce processus, « il faut donc déjà penser à l’échelle 10X dès lors que le use case est validé et réduire les POCS » explique Sanae EL MEHDAOUI, Customer Engineer chez Google Cloud France.  

 

L’apprentissage automatique pour tous

 

Le machine learning est traditionnellement l’outil des ingénieurs et des data scientist mais, de nos jours, il est en train de devenir une technologie qui prend une place de plus en plus importante dans notre vie quotidienne. L’apprentissage automatique a changé beaucoup de domaines et il représente essentiellement une approche permettant de résoudre des problèmes complexes. Néanmoins, cette technologie reste un grand mystère pour beaucoup. C’est pour cela qu’aujourd’hui, Google Cloud propose l’outil BigQuery ML qui consiste à créer des modèles d’apprentissage automatique et à évaluer leurs performances prédictives à l’aide des requêtes SQL standards dans le but de rendre l’apprentissage automatique plus accessible aux utilisateurs de ce langage sans avoir à déplacer les données.

 

En conclusion, les conférences du salon Big Data Paris ont confirmé que la data science et le machine learning devaient se simplifier et entrer dans une phase de maturité loin des POC réservés au spécialistes. L’intégration des technologie IoT va aussi dans le sens d’une technologie toujours plus distribuée, accessible et efficace.

C’est aussi l’objectif des équipes de Data Science  d’Axionable de permettre aux dernières avancées technologiques d’arriver dans un environnement productifs.

Merci aux contributeurs : Florent Storme, Gwendal Bihan, Ismael Goulani et Marie Geoffroy-Lombard
Concocté avec amour par :
Thanina Zemoul

Articles concoctés avec les mêmes ingredients

30 mai 2022

[Vidéo] ACTING IN TIME OF CRISIS at Change Now2022

« When a crisis happens you have to use what is available, no time for R&D, quick and fast… and we cannot make compromises on things like privacy or cybersecurity. » « CULTURE. CULTURE, CULTURE…most of the time the root cause is always a lake of tech & data culture. So the response is on culture, on training…we […]

Gwendal BIHAN
9 mars 2022

L’Union de la Publicité Extérieure dévoile son calculateur d’empreinte carbone des campagnes développé avec Axionable

L’Union de la Publicité Extérieure dévoile son calculateur d’empreinte carbone des campagnes : une première dans l’univers des médias en France Accessible à tous, le calculateur d’empreinte carbone est disponible sur le site Internet de l’Union de la Publicité Extérieure (http://carbone-calculateur-adoohcc.upe.fr) et sur ceux de ses adhérents. Baptisé adOOHcc (advertisingOut Of Home calculateur carbone) et élaboré avec […]

Quentin FAULCONNIER
3 mars 2022

Axionable lance la 1ère offre complète de formation à l’IA de confiance

Plaidoyer pour un accompagnement du changement vers une IA de confiance en entreprise L’IA se déploie chaque jour un peu plus dans nos vies personnelles et professionnelles. Elle fait face à un paradoxe : d’un côté, des opportunités d’innovations utiles et de réponses concrètes aux défis de notre Société, de l’autre, des risques importants pour […]

José Sanchez
23 février 2022

[Vidéo] Axionable partenaire du projet UDD@Orano

Le projet udd@Orano contribue à la croissance des partenaires industriels et au développement des territoires. Il permet, entre autres, d’accélérer l’aide au pilotage de procédés complexes et d’anticiper l’impact climatique sur l’exploitation des usines. Les nouvelles solutions développées, applicables à la filière nucléaire et à d’autres secteurs d’activité, visent à continuer de placer les sites […]

Quentin FAULCONNIER

Ready for sustainable AI?

Let's make an appointment to discuss our approach
career solutions and opportunities
Contactez-nous
Paris
13 rue des Arquebusiers
75003 Paris
Montréal
1275 Avenue Des Canadiens-De-Montréal, Montréal, QC, H3B 0G4
contact Contact