logo le blog invivoo blanc

La digitalisation totale du “monde réel” est en marche

14 mars 2017 | Big Data

L’année 2014 fut celle du questionnement, de la curiosité, l’année 2015 celle des premières tentatives et de POCs , l’année 2016 est celle de nombreux retours d’expériences dans des domaines réellement très divers (industries, services, finance) qui marquent le pas d’un usage résolu de tout le panel de technologies disponibles pour non seulement exploiter les données déjà disponibles mais pour en créer de nouvelles résultant de nouvelles mises en relation.

BigData Paris 2017 a montré que de nombreux projets ont compris et mis en oeuvre l’une des grandes leçons de 2015-2016 : le Big Data en soi coûte encore cher à mettre en place et est rarement très rentable si l’on reste sur des jeux de données “traditionnels” ;  par contre il peut générer un vrai ROI si l’on croise des dataset qui n’étaient jusqu’ici jamais mis en relation et si l’on parvient à faire émerger des informations nouvelles, inédites et donc encore rares mais potentiellement intéressantes pour proposer des innovations ou des services différenciants.

Côté frameworks, pas de grande nouveauté en général, mais plutôt une montée en puissance des technologies devenues références comme Hadoop avec Cloudera, HortonWorks et MapR, Cassandra avec Datastax, MongoDb et Neo4J pour n’en citer que quelques uns.

Par contre deux tendances se dessinent dans les retours d’expérience :

 – une recherche de performance : les batchs c’est bien s’ils terminent, mais c’est encore mieux s’ils s’exécutent rapidement ; par ailleurs, les opérationnels habitués à la rapidité des outils traditionnels (Excel, SQL et consors) expriment les mêmes attentes de performance lorsqu’il s’agit d’exploiter les résultats du big data

 – une recherche de plus grande facilité de visualisation des données du big data : on voit ici des outils traditionnellement utilisés pour la Business Intelligence évoluer pour s’adapter aux données du big data (images, données spatiales, etc.)

Côté méthodes et process, des témoignages indiquent que la mise en place d’un projet de type big data (données, technologies utilisées) reste une aventure, une entreprise à moitié industrielle de par des outils un peu plus matures mais à moitié artisanale de par leur mise en oeuvre nécessitant parfois de recruter des consultants experts, une aventure à laquelle tous les acteurs de l’entreprise doivent absolument collaborer de manière itérative et incrémentale pour que ce soit une réussite, pour qu’émerge une vraie plus-value : on voit bien que le niveau de maturité en terme de CMMI est encore assez limité, l’industrialisation des processus encore en évolution, et pour les quelques grands succès mis en avant on imagine bien qu’il y a dû y avoir des échecs et des déconvenues.

Côté gouvernance, un fait majeur : le contrôle des données. Certains projets n’utilisent que des données publiques et ne sont donc pas soumis à des obligations légales particulières, pour d’autres, comme les Banques ou les Brokers par exemple, la fonction de DPO, Data Protection Officer, parfois assumée par le CDO, Chief Data Officer, est devenue incontournable. Ces obligations impliquent la mise en oeuvre de dispositifs de sécurité (autorisations, authentification, cryptage, anonymisation, randomisation, etc.) à tous les niveaux du projets et des clusters (DEV, UAT, PROD).

De plus en plus de projets utilisant des technologies du bigdata partent donc en production, mais parfois en trompe l’œil car quelques questions judicieusement posées montrent que les cas d’utilisation ne sont pas encore toujours ceux du bigdata, entre autre par une utilisation hybride des données (mi-business intelligence, data mining, mi-bigdata, machine learning) ou par une volumétrie nécessairement limitée au profit d’une performance non négociable pour les opérationnels.

L’engouement ne cesse cependant comme l’indiquent aussi la présence de différentes filières de formation au bigdata et à la datascience (cursus d’écoles d’informatique, Masters spécialisés…).

LA grande nouveauté sur ce salon est sans doute l’apparition d’un espace dédié à l’Intelligence Artificielle, même s’il s’agit encore d’une IA faible : systèmes d’aide à la décision ou encore au diagnostic.

Même si ce n’est qu’un début la passerelle est d’ors et déjà jetée entre un monde de données et de technologies des plus traditionnelles, et un univers de données de complexités croissantes en terme de types et de volumétries (big data), de technologies, de capteurs (IoT) et d’algorithmes (IA), les uns nourrissant les autres : les datasets traditionnels sont mis en relation pour alimenter des data lakes, l’IoT enrichit ceux-ci d’informations originales, orthogonales et temps réel, le tout permettant à la datascience mais plus encore à l’IA de produire des résultats bien plus riches et plus intéressants qu’auparavant.

Jusqu’ici Big Data, IoT et IA faisaient un peu cavaliers seuls, ce salon BigData Paris 2017 semble indiquer une nouvelle étape: l’interconnexion effective de toutes ces disciplines, d’où leurs présences réunies en un même endroit.

Loin d’apparaître comme une fin en soi cette mise en relation semble plutôt préfigurer le début d’une nouvelle ère : la digitalisation effective et de bout en bout du “monde réel”.