Big Data, la Covid m’a tué.

Tendances Data post 2021

Déjà en mars dernier, Gartner concluait dans son rapport Data & Analytics que la pandémie avait demandé aux organisations de se recentrer en temps record sur ce qui était réellement créateur de valeur ajoutée pour préserver leurs activités ou inventer rapidement de nouveaux modèles de commercialisation de leurs activités ou services … encore fallait-il avoir une bonne gestion des données, savoir où chercher et que les performances attendues soient au rendez-vous !

Le Big data, du moins tel que nous le connaissons, serait lui aussi une victime collatérale de la COVID et sa manière même de fonctionner est aujourd’hui remise en cause.

En effet, rappelons-le, le big data consiste à capturer toutes sortes de données de quelques natures qu’elles soient et de les stocker en attendant que l’on ait besoin de les exploiter et ce souvent pendant de très longues périodes … Et c’est justement sur ce point que les critiques commencent à fuser de toute part.

Non seulement cela n’est pas compatible avec les préceptes du GDPR mais tout sauvegarder n’a pas forcément de sens, ni aujourd’hui ni demain. De plus, les data centers – malgré les efforts faits en ce domaine – restent des gouffres en terme de consommation d’énergie (entre 1 à 3% de la demande d’électricité) et avec l’inflation des usages et de pratiques comme le big data, elle pourrait être encore multipliée entre 3 et 4 d’ici 10 ans. L’empreinte carbone des data centers représente aujourd’hui 2% des émissions de gaz à effet de serre et certains analystes prévoient que le stockage des données est susceptible de générer des émissions à hauteur de 14% d’ici 2014 !

De plus en plus de cloud, oui … mais la tendance est aussi à un cloud plus responsable (et de proximité). Et il va nous falloir aussi concevoir des algorithmes d’IA moins gourmand.

Notre responsabilité en tant de professionnels de la Tech est aujourd’hui de concevoir des solutions moins énergivores, moins gourmandes en données, éthiquement plus responsables et plus résiliantes. On attend aujourd’hui des solutions d’IA plus intelligentes qui aient besoin de moins de données pour être fonctionnelles et délivrer des informations utiles.

Autre tendance de fond, l’APisation gagne aussi les solutions Data.

« les données et l’analytique composables favorisent la collaboration et l’évolution des capacités décisionnelles de l’entreprise (…) et elles améliorent aussi l’accès aux outils d’analyse »

GARTNER MARS 2021

Cette approche par composants ou « Composable Data » pour citer le buzz word du moment, consiste à aller chercher des éléments déjà existants pour composer son propre univers de données. En effet plus besoin aujourd’hui de ré-inventer la roue à chaque fois et pour chaque projet. Il existe des bibliothèques de composant pré-fabriqués (BDD, IA, analytics) qui permettent aujourd’hui de créer plus rapidement des applications ou de mettre en services de nouvelles fonctionnalités. A ce propos, nous vous invitons à télécharger notre cahier de la Tech sur les plateformes low-code dont celle de Microsoft.

Enfin, dernière tendance qui s’inscrit dans une démarche toujours plus agile basée sur le DevOps : le XOps.

Le XOps – DataOps, MLOps, ModelOps, PlatformOps – entre dans la même logique, à savoir privilégier une approche qui favorise la réutilisation, l’automatisation et qui réduit drastiquement la duplication de technologiques ou de processus s’ils ne sont pas absolument nécessaires. L’objectif est de capitaliser sur une stack applicative qui comprend moins d’actifs et de technologies, plus facile à maintenir et à faire évoluer. En somme, le XOps consiste à faire en sorte que vos déploiements Data/Analytics fonctionnent mieux et interagissent avec les autres domaines logiciels. Cette tendance XOps illustre également un phénomène de fond engagé depuis plusieurs années, la Data (IA, Analytics) sort enfin de son « silo » et est maintenant intégrée dans le processus de transformation numérique des entreprise.

Pour conclure, dans le domaine de la Data aussi, la tendance de fond est la lutte contre le jetable, l’accumulation de données inutiles (comme autant de déchets qu’il faudra forcément traiter) et à s’engager dans une économie plus circulaire et moins énergivore.

Pour aller plus loin :

https://www.reworked.co/information-management/how-xops-is-hoping-to-unite-all-the-disparate-ops-disciplines-under-one-banner/

https://www.gartner.com/en/publications/data-analytics-top-priorities-for-it-leadership-vision-2021

https://www.solutions-magazine.com/small-and-wild-data-successeur-big-data/

En savoir plus

L’avenir des Architectures de SI en 2025 ?

Les architectures des systèmes d’information évoluent rapidement pour répondre aux défis de modularité, d’agilité et de sécurité. En 2025, les entreprises adopteront des modèles comme le Domain-Driven Design, les microservices et les architectures Polyglot. Découvrez comment ces tendances façonnent le futur des SI et comment nos experts peuvent vous aider à faire les bons choix…

Lire

Choisir Talend et l’architecture Data Fabric pour une intégration Cloud-Native

Talend et l’architecture Data Fabric permettent aux DSI d’assurer une intégration cloud-native flexible et sécurisée. En tant que solution multi-cloud, Talend optimise la gestion des données multi-sources, garantit la qualité et simplifie la gouvernance pour une entreprise data-driven.

Lire

Flexibilité et réduction des coûts : Pourquoi le Nearshore est devenu l’allié des DSI en France

Harington propose aux DSI français un centre de services nearshore flexible et économique, offrant expertise, réduction des coûts, sécurité et conformité.

Lire