Big Data, la Covid m’a tué.
Tendances Data post 2021
Déjà en mars dernier, Gartner concluait dans son rapport Data & Analytics que la pandémie avait demandé aux organisations de se recentrer en temps record sur ce qui était réellement créateur de valeur ajoutée pour préserver leurs activités ou inventer rapidement de nouveaux modèles de commercialisation de leurs activités ou services … encore fallait-il avoir une bonne gestion des données, savoir où chercher et que les performances attendues soient au rendez-vous !
Le Big data, du moins tel que nous le connaissons, serait lui aussi une victime collatérale de la COVID et sa manière même de fonctionner est aujourd’hui remise en cause.
En effet, rappelons-le, le big data consiste à capturer toutes sortes de données de quelques natures qu’elles soient et de les stocker en attendant que l’on ait besoin de les exploiter et ce souvent pendant de très longues périodes … Et c’est justement sur ce point que les critiques commencent à fuser de toute part.
Non seulement cela n’est pas compatible avec les préceptes du GDPR mais tout sauvegarder n’a pas forcément de sens, ni aujourd’hui ni demain. De plus, les data centers – malgré les efforts faits en ce domaine – restent des gouffres en terme de consommation d’énergie (entre 1 à 3% de la demande d’électricité) et avec l’inflation des usages et de pratiques comme le big data, elle pourrait être encore multipliée entre 3 et 4 d’ici 10 ans. L’empreinte carbone des data centers représente aujourd’hui 2% des émissions de gaz à effet de serre et certains analystes prévoient que le stockage des données est susceptible de générer des émissions à hauteur de 14% d’ici 2014 !
De plus en plus de cloud, oui … mais la tendance est aussi à un cloud plus responsable (et de proximité). Et il va nous falloir aussi concevoir des algorithmes d’IA moins gourmand.
Autre tendance de fond, l’APisation gagne aussi les solutions Data.
« les données et l’analytique composables favorisent la collaboration et l’évolution des capacités décisionnelles de l’entreprise (…) et elles améliorent aussi l’accès aux outils d’analyse »
GARTNER MARS 2021
Cette approche par composants ou « Composable Data » pour citer le buzz word du moment, consiste à aller chercher des éléments déjà existants pour composer son propre univers de données. En effet plus besoin aujourd’hui de ré-inventer la roue à chaque fois et pour chaque projet. Il existe des bibliothèques de composant pré-fabriqués (BDD, IA, analytics) qui permettent aujourd’hui de créer plus rapidement des applications ou de mettre en services de nouvelles fonctionnalités. A ce propos, nous vous invitons à télécharger notre cahier de la Tech sur les plateformes low-code dont celle de Microsoft.
Enfin, dernière tendance qui s’inscrit dans une démarche toujours plus agile basée sur le DevOps : le XOps.
Le XOps – DataOps, MLOps, ModelOps, PlatformOps – entre dans la même logique, à savoir privilégier une approche qui favorise la réutilisation, l’automatisation et qui réduit drastiquement la duplication de technologiques ou de processus s’ils ne sont pas absolument nécessaires. L’objectif est de capitaliser sur une stack applicative qui comprend moins d’actifs et de technologies, plus facile à maintenir et à faire évoluer. En somme, le XOps consiste à faire en sorte que vos déploiements Data/Analytics fonctionnent mieux et interagissent avec les autres domaines logiciels. Cette tendance XOps illustre également un phénomène de fond engagé depuis plusieurs années, la Data (IA, Analytics) sort enfin de son « silo » et est maintenant intégrée dans le processus de transformation numérique des entreprise.
Pour aller plus loin :
https://www.gartner.com/en/publications/data-analytics-top-priorities-for-it-leadership-vision-2021
En savoir plus
Découvrez comment l’intelligence artificielle révolutionne l’automatisation des tests logiciels en 2024. Grâce à des outils comme Testim, Applitools, et BrowserStack, les équipes QA peuvent réduire leurs coûts de test de 50% et améliorer la qualité des logiciels avec des tests plus rapides et précis.
Le numérique responsable n’est plus une option, mais une nécessité. Découvrez comment réaliser un bilan carbone IT avec Harington Impact pour réduire votre empreinte environnementale tout en optimisant vos coûts et en répondant aux exigences réglementaires croissantes.
Les data centers consomment environ 2 % de l’électricité mondiale, et le numérique représente 4 % des émissions mondiales de gaz à effet de serre. Harington Impact propose une plateforme d’écoconception logicielle pour aider les DSI à réduire l’empreinte environnementale de leurs applications.